Film im Zeitalter Neuer Medien. Digitalität und Kino [2] 9783770553273


607 61 4MB

German Pages 319 Year 2012

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Film im Zeitalter Neuer Medien. Digitalität und Kino [2]
 9783770553273

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Mediengeschichte des Films VIII · Segeberg (Hrsg.)

Mediengeschichte des Films Herausgegeben von Harro Segeberg in Zusammenarbeit mit Knut Hickethier, Corinna Müller und dem Metropolis-Kino Hamburg. BAND 8: Film im Zeitalter Neuer Medien II Digitalität und Kino

BAND 1: Die Mobilisierung des Sehens Zur Vor- und Frühgeschichte des Films in Literatur und Kunst BAND 2: Die Modellierung des Kinofilms Zur Geschichte des Kinoprogramms zwischen Kurzfilm und Langfilm BAND 3: Die Perfektionierung des Scheins Das Kino der Weimarer Republik im Kontext der Künste BAND 4: Mediale Mobilmachung I – Das Dritte Reich und der Film BAND 5: Mediale Mobilmachung II – Hollywood, Exil und Nachkrieg BAND 6: Mediale Mobilmachung III – Das Kino in der Bundesrepublik Deutschland als Kulturindustrie (1950 – 1962) BAND 7: Film im Zeitalter Neuer Medien I – Fernsehen und Video

Film im Zeitalter Neuer Medien II Digitalität und Kino Mediengeschichte des Films Band 8

Herausgegeben von Harro Segeberg

Wilhelm Fink

Gedruckt mir freundlicher Unterstützung der Hamburgischen Wissenschaftlichen Stiftung

Umschlagabbildung: Gerhard Muche und Harro Segeberg nach Motiven aus Metropolis (1926) Avatar (2009), Welt am Draht (1973) und Jurassic Park I/ Making of (2005).

Bibliographische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, vorbehalten. Dies betrifft auch die Vervielfältigung und Übertragung einzelner Textabschnitte, Zeichnungen oder Bilder durch alle Verfahren wie Speicherung und Übertragung auf Papier, Transparente, Filme, Bänder, Platten und andere Medien, soweit es nicht §§ 53 und 54 UrhG ausdrücklich gestatten. © 2012 Wilhelm Fink Verlag, München (Wilhelm Fink GmbH & Co. Verlags-KG, Jühenplatz 1, D-33098 Paderborn) Internet: www.fink.de Einbandgestaltung: Evelyn Ziegler, München Printed in Germany Herstellung: Ferdinand Schöningh GmbH & Co. KG, Paderborn ISBN 978-3-7705-5327-3

Inhalt Einleitung Harro Segeberg: Antimimetische Mimesis. Zur Medialität und Digitalität des Kinofilms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9

Teil I Strategien der Digitalisierung Rüdiger Maulko Mimesis und Anthropologie des Digitalen: Synthetischer Fotorealismus im Kino . . . . . . . . . . . . . . . . . . . . . . .

29

Martin Doll Entzweite Zweiheit? Zur Indexikalität des Digitalen . . . . . . . . . . . .

57

Teil II Effekte der Digitalisierung Klaus Kohlmann Illumination und Material – technische Komponenten des computergenerierten Films . . . . . . . . . . . . . . . . . . . . . . . . . . . .

89

Barbara Flückiger Computergenerierte Figuren in Benjamin Button und Avatar. Technik und Ästhetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Jens Eder, Jan-Noël Thon Digitale Figuren in Kinofilm und Computerspiel. . . . . . . . . . . . . . . 139 Markus Kuhn Digitales Erzählen? Zur Funktionalisierung digitaler Effekte im Erzählkino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

6

INHALT

Teil III Praktiken der Digitalisierung Jan Distelmeyer Machtfragen. Home Entertainment und die Ästhetik der Verfügung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Franziska Heller Prettier than Ever. Die digitale Re-Konstruktion von Filmgeschichte und ihre Versprechen . . . . . . . . . . . . . . . . . . . . 253 Heinz Hiebler Digital Tools. Filmanalyse und Filminterpretation im digitalen Zeitalter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275 Filmregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 Personenregister. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 Zu den Autorinnen und Autoren . . . . . . . . . . . . . . . . . . . . . . . . . . . 315

Einleitung

Harro Segeberg

Antimimetische Mimesis Zur Medialität und Digitalität des Kinofilms Zum Stand der ,digitalen‘ Dinge In den neunziger Jahren des 20. Jahrhunderts hatte sich eine Gruppe von Hamburger Film- und Medienwissenschaftlern vorgenommen, zum für das Jahr 1995 anberaumten hundertsten Geburtstag des Films eine Vorlesungsreihe zum Thema Mediengeschichte des Films ins Leben zu rufen. Damals war sicherlich nicht ganz absehbar, dass sich diese Vorlesungsreihe in unregelmäßigen Abständen bis in das Sommersemester des Jahres 2010 nicht nur ‚halten‘, sondern mit lebhaftem bis starkem Zuspruch fortsetzen würde. Und ebenso wenig war absehbar, dass die Fortsetzung der Reihe in ein Jahrhundert fallen würde, in dem der mechanisch produzierte und photochemisch aufgezeichnete Kino-Film für viele nicht mehr als eine Art von Celluloid-Fossil darstellt. So jedenfalls die Nummer 35 aus dem Jahrgang 2003 des Wochenmagazins Der Spiegel in einem Leitartikel unter der Überschrift „Die Abschaffung der Filmrolle“. Überwölbt wird das ganze (durchaus standesgemäß und à jour) mit einer Momentaufnahme aus dem „Digitalfilm“ „Angriff der Klonkrieger“, der zweiten Episode der damals digital neu produzierten und editierten Star Wars-Serie von George Lucas, einem (woran nicht erst seit heute kein Zweifel besteht) der wichtigsten Wegbereiter in der Digitalisierung des Hollyood-Kinos. Vorhergesagt wurde in der prognostisch zugespitzten Spiegel-Skizze ein Film, der ohne Filmvorführer, Filmrollen und Filmkopien auskommt. Denn in der hier beschriebenen zelluloidfreien Kinowelt schießen Satelliten Spielfilme als Computerdateien auf riesige Festplatten in die Kinos. Von dort fließen die Bildinformationen in die Mikroprozessoren der Kinoprojektoren. Die Prozessoren steuern dann grelles Xenon-Licht durch Millionen von mikroskopisch kleinen Spiegeln – und auf der Leinwand formt sich dieses Licht auf magische Weise zum Lächeln von Cameron Diaz und zur Titanic im Abwärtssog.

Verwiesen wurde dazu auf eine Grafik, auf der freilich weder Cameron Diaz noch der Untergang der Titanic, sondern abermals Figuren aus der George-Lucas-Serie die neue digitale Welt des Films anzeigen (Abb. 1).

10

HARRO SEGEBERG

Abb. 1: Der Spiegel Nr. 35, 2003

In dieser journalistischen Utopie sind oder werden (daran besteht hier kein Zweifel) Produktion, Postproduktion, Distribution und Projektion des Films durchgreifend digitalisiert, woraus dann das entsteht oder entstehen soll, was heutzutage bis in viele einschlägige Publikationen hinein als das ,digitale Kino‘ bezeichnet wird. Allerdings, vergleicht man die utopische Skizze mit einer stärker empirieorientierten Übersicht aus dem Jahr 2008 und einigen noch aktuelleren Daten, dann zeigt sich sehr deutlich, dass Fortschritt auch in diesem Fall keineswegs so geradlinig verläuft, wie in den ihm euphorisch und/oder skeptizistisch gewidmeten Prognosen angenommen.1 Verantwortlich dafür ist ein weiteres Mal, dass mediale Veränderungen, ganz gleich ob sie als Medien-Wandel, Medien-Umbruch oder Medien-Revolution eingeschätzt werden, keineswegs nur technische, sondern eine Fülle von anthropologischen, ästhetischen und ökonomischen Problemen aufwerfen; hinzu kommen – im Fall der Digitalisierung besonders wichtig – die noch immer ungelösten Fragen einer piratensicheren Verschlüsselung der Daten. Versteht man also unter Digitalisierung die rechnerbasierte Produktion, Postproduktion, Distribution und Präsentation audiovisueller Datenaggregate und blickt mit dieser Perspektive auf einige neuere Einschätzungen zum bisher erreichten Stand dieses Prozesses, dann wird in der Übersicht des Jahres 2008 die Digitalisierung als ,dominant‘ für den Bereich der Postproduktion (incl. CGI-Bearbeitung), das Heimkino (DVD/ Blue-ray Disc) und die Vermarktung (Merchandising u.a.) von Filmen angenommen, während hochauflösende Digitalaufnahmen für den Bereich der Produktion zu diesem Zeitpunkt noch als vereinzelt gelten und digitale Projektion und Präsentation lediglich in ihrer akustischen Di-

1

Vgl. dagegen den sehr informativen und angenehm unaufgeregten Überblick von Robert Blanchet: „Digitales Kino“. In: Thomas Christen, R.B. (Hrsg.): Einführung in die Filmgeschichte 3: New Hollywood bis Dogma. Marburg 2008, S. 446-456.

ANTIMIMETISCHE MIMESIS

11

mension als vergleichbar dominant aufgeführt werden.2 Allerdings nimmt, nach aktuellen Einschätzungen, der Einsatz digitaler Filmkameras ständig zu und auch im Bereich der Projektion scheint sich in jüngster Zeit ein Wandel, wenn nicht gar ein Durchbruch abzuzeichnen. So gehen neuere Wikipedia-Daten davon aus, dass die digitale audiovisuelle Wiedergabe von Filmen bereits 2006 und 2007 weltweit in ca. 5.000 Kinosälen realisiert war, schon 2009 für über ca. 15.000 Kinos bestellt wurde und in den USA, aufbauend auf Vereinbarungen der sogenannten Majors über einen Digital Cinema-Standard und entsprechend den Planungen großer Kinoketten, in den Jahren 2011/12 durchgesetzt sein sollte.3 Bedenkt man dazu, dass (laut einer Hamburger Zeitungsmeldung aus dem März 2010) die Multiplex-Kette CinemaxX insgesamt 6,5 Millionen Euro aufbringen musste, um von ihren 300 Kinosälen ein Fünftel auf die besonders aufwendige 3D-Technik umzurüsten4, dann lässt sich daraus leicht errechnen, dass zu dieser Zeit für eine derartige Umrüstung pro Kino eine Investitionssumme von etwas über 100.000 Euro zu veranschlagen war; bei Umrüstungen auf zweidimensionale digitale 2k-Versionen werden gegenwärtig Summen von 35.000 bis 40.000 € veranschlagt.5 An solchen Zahlen wird deutlich, dass sich in der Digitalisierung der Projektion ein mit der Umstellung auf den Tonfilm mindestens vergleichbares Kostenproblem abzeichnet; dass dies Tendenzen zur Konzentration und Oligopolisierung von Abspielstätten in Kinoketten verstärken wird, ist nicht auszuschließen. Das Projekt European DocuZone versucht hier seit 2005 mit einer auf kleine und mittlere Kinos gerichteten Initiative ein auf das Dokumentarfilmprogramm ausgerichtetes Gegengewicht zu setzen.6 Um unsere Übersicht zu vervollständigen, bleibt zum Bereich der Distribution zu verzeichnen, dass sich hier der vom Spiegel so anschaulich beschriebene digitale „Transport des Films ins Kino“ via Breitbandkabel oder Satellit, von Ausnahmen abgesehen, anscheinend immer noch „im

2 3 4 5

6

Das folgende nach Blanchet, ebd., S. 446. Vgl. www.wikipedia.de.wikipedia.org/wiki/Digitales_Kino (abgefragt 29.12.2011) Vgl. bob: „Cinemaxx kehrt in die Gewinnzone zurück“. In: Hamburger Abendblatt, 30.3.2010. So die Auskunft von Martin Aust, Leiter des Hamburger Kommunalen Kinos Metropolis, das diese Umrüstung gerade getätigt hat. Vielleicht nicht ganz unwichtig ist zu wissen, dass eine Aufrüstung dieser Anlage auf 3D-Projektionen mit weiteren 15.000 € zu veranschlagen wäre. Vgl. www.nordmedia.de (Stichwort Docuzone, mit Daten vom 8.12.2009, abgefragt am 29.12.2011).

12

HARRO SEGEBERG

Gespräch“ befindet.7 Hierfür sollen, wie man lesen kann, in erster Linie ungelöste Probleme in der noch keineswegs piratensicheren Verschlüsselung der via Satellit über den Erdball zu ,verschießenden‘ Datenpakete verantwortlich sein. Dementsprechend werden die zur digitalen Projektion erforderlichen Datenpakete gegenwärtig auf tragbaren Festplatten und damit zwar leichter und auch kostengünstiger als auf schweren 35mmKopien verschickt, aber immer noch nicht „digital“ in die Kinos übermittelt. Im Bereich der bereits erwähnten Initiative European DocuZone soll es schon Initiativen geben, ausgewählte Kinos „mittels einer einheitlichen Serverstruktur von zentraler Stelle per Satellit mit Filmdaten“ zu versorgen (angeblich sind von dieser Umstellung bereits 128 europäische Kinos aus 8 Ländern erfasst).8 Wenn wir diese – zugegeben – knappe Übersicht zum Stand der digitalen Dinge in Produktion, Postproduktion, Distribution und Projektion abschließend zusammenfassen, so können wir den hier absehbaren Stand der Digitalisierung so kennzeichnen: Postproduktion: so gut wie abgeschlossen Produktion, auditiv: vorherrschend Produktion, audiovisuell: im Umbruch Projektion, auditiv: vorherrschend Projektion, audiovisuell: im Umbruch Distribution: „im Gespräch“

Zwischenresümee I Mit Blick auf unsere Übersichtsskizze zum Stand der ,digitalen‘ Dinge liegt es nahe, gegenwärtig weder von einem analogen noch von einem digitalen Kino, sondern von einer in unterschiedlichen Bereichen unterschiedlich stark ausgeprägten digitalen Durchmischung bis Durchformung des Kinos auszugehen – mit einem bereits jetzt deutlich erkennbaren Überhang des Digitalen. Vor diesem Hintergrund wird, so hoffe ich, plausibel, warum wir in unserem eigenen Unternehmen den Ausdruck ,digitales Kino‘ vermeiden und statt dessen etwas vorsichtiger Überlegungen zum Verhältnis von Digitalität und Kino in Aussicht stellen. In ihnen wird es gehen um Prozessbeschreibungen von ,Digitalisierung‘, die die Zukunft 7 8

Vgl. Blanchet: „Digitales Kino“ (Anm. 1), S. 446. Vgl. Anm. 6.

ANTIMIMETISCHE MIMESIS

13

des Kinos nicht von mehr oder weniger utopisch geprägten Vorab-Annahmen aus beschreiben, sondern vor allem Übergänge und Transformationen in den Blick nehmen. Was voraussetzt, dass wir im Rahmen unserer eigenen Überlegungen vorab genauer klären, was wir unter Medien und Medialität, der spezifischen Medialität eines Kinofilms sowie der Digitalisierung des Kinofilms verstehen wollen. Bei diesen Exkursionen wird es darum gehen Fragen zu klären wie: Was meinen wir eigentlich genauer, wenn wir von Medien und Medialität sprechen? Kann es möglich sein, von hieraus etwas prägnanter als bisher zu bestimmen, was die Medialität des Kinos jenseits einer immer wieder unterstellten Dichotomie aus Analog und Digital ausmacht? Welchen Beitrag zur Beschreibung des Digitalen leisten die eher generellen Diskurstypen zum Digitalen? Was können wir jenseits dieser Diskurse genauer zum Verhältnis Analog/Digital sagen? Das Vorhaben dieser kleinen Einführung wäre gelungen, wenn sie es hinbekommen sollte, beide Bereiche unter dem Leitbegriff einer antimimetischen Mimesis nicht länger einander entgegen zu setzen, sondern zusammen zu sehen.

Medien und Medialität Schauen wir zur Frage, was wir unter Medien und Medialität verstehen wollen, in einen unlängst erschienenen, einschlägigen suhrkamp-Band Was ist ein Medium? so überrascht uns dieses insgesamt gesehen eher amüsant und als wirklich ärgerlich zu lesende Buch mit der Bemerkung, „unsere Gesellschaft ist eine Mediengesellschaft, unsere Welt ist in all ihren Facetten medialisiert“, woraus dann wenig später folgt, „Medien sind allgegenwärtig; der Begriff »Medium« mittlerweile auch“.9 Haben wir uns von diesen nun wirklich verblüffenden Feststellungen ein wenig erholt, dann wird uns vielleicht einfallen, dass solche alles und nichts sagenden ubiquitären Merkmalsbeschreibungen zu dem, was alles ein Medium sein soll oder doch sein könnte, dort attraktiv sein mögen, wo es darum geht, in der Konkurrenz der Wissenschaften die Allzuständigkeit einer Medienwissenschaft für eine Welt zu etablieren, von der man vorher deklariert hat, dass es in ihr ein Außerhalb zum ,Medialen‘ gar nicht geben könne. Wer anders als der das schlechthin Universale universal traktierende Medienwissenschaftler sollte dafür zuständig sein?

9

Stefan Münker, Alexander Roesler: Vorwort zu dies.: Was ist ein Medium? Frankfurt a. M. 2008, S. 7-12. S. 7, 11.

14

HARRO SEGEBERG

Sinnvoll, weil überprüfbar wird eine solche Rede dann, wenn die Besonderheiten der in einem solchen medialen Apriori zusammen gesehenen Medien, ihre spezifischen Medialitäten in den Blick kommen. Dann lassen sich in den Einzelstudien des genannten Bandes erkennen: Medien der Wahrnehmung oder der Aisthesis, in deren Kontext seit Aristoteles Luft, Wasser, Kristalle als selbst nicht sichtbare Vermittlungsmedien zwischen Sinnesorgan und Wahrnehmungsobjekt gelten (Wolfgang Hagen); der antike Bote als Mitte und Mittler von Botschaften, die er als Mensch/ Medium nicht nur überträgt, sondern mit seiner Kommunikation Herrschaft durch Kommunikation stiftet (Sybille Krämer); Medien der Natur, die als menschliche Sinne und naturale Erscheinungen auf die mediale Vermitteltheit jedweder Form von Naturwahrnehmung aufmerksam machen und damit kulturkonservative Dichotomien zwischen einer ,natürlichen‘ und einer technisch simulierten ,virtuellen‘ Natur unterlaufen (Hartmut Böhme, Peter Matussek); performativ inszenierte Erscheinungen des Para-Normalen, in deren spiritistisch verfasstem Erlebnis eine durchgreifende Transformation aller Beteiligten stattfindet (Natascha Adamowski); oder aber Medien als naturale und technische „Zeichenmaschinen“ (Hartmut Winkler), die weder ,Dinge‘ noch ,Menschen‘ mehr oder weniger direkt abbilden, sondern in Zeichen Referenzen auf Bezeichnetes anbieten. In diesem Sinne lässt sich von Medien immer dann sprechen, wenn wir damit – erstens – in semiotischer, also zeichentheoretischer Hinsicht das akustische, graphische oder visuelle Zeichenmaterial einer bestimmten Form von menschlicher Wahrnehmung und Kommunikation ansprechen. Davon können wir dann zweitens natürliche und/oder technische Systeme zur Wahrnehmung, Aufzeichnung, Speicherung, Übertragung und Reproduktion von Zeichensystemen von einander unterscheiden sowie in ihrer wechselseitigen Überlagerung kennzeichnen. Denn es leuchtet ja unmittelbar ein, dass es einen großen Unterschied macht, ob in einer Gesellschaft akustische, graphische oder visuelle Zeichen mit Hilfe leiblicher Körperorgane (d.h. Gedächtnis, Stimme oder Handschrift) oder mit Hilfe technischer Geräte (wie Druckerpresse, Foto-Kamera, Kinematograph, Grammophon, Radio oder Computer und Netzmedien) aufgezeichnet, gespeichert, reproduziert und übermittelt werden. Womit sich Medien – drittens – danach unterscheiden lassen, ob sie jeweils gesondert oder in jeweils genauer zu bestimmenden Verknüpfungen auf die Wahrnehmung, Aufzeichnung, Speicherung, Übertragung und/oder Reproduktion von Zeichendaten aus sind. Zur Ermittlung der spezifischen Medialität des Mediensystems Kino ist dies eine, wie sich im nächsten Abschnitt zeigen wird, alles entscheidcnde Frage.

ANTIMIMETISCHE MIMESIS

15

Medialität des Kinofilms Werfen wir mit dieser Perspektive einen Blick auf die gegenwärtig gehandelten Beschreibungsmodelle zur Mediengeschichte, dann lassen sich hier zwei Hauptrichtungen erkennen. Ich möchte sie das bellizistische und das medienökologische Modell nennen. Das bellizistische Modell beschreibt die Geschichte der Medien als einen Krieg unter den Medien, in dem ein Medium das andere dadurch so gut wie auslöscht, dass es dessen Leistungen so komplett wie irgend möglich in sich aufnimmt, weiterentwickelt und überbietet. Dieser Krieg der Medien, in dem (was nicht überrascht) mediale Innovationen nahezu ausschließlich auf medial angereicherten Schlachtfeldern erfunden und erprobt werden, hört nach dieser Lesart eigentlich erst dann auf, wenn alle zusammen ins „Universalmedium“ Computer förmlich „reinstürzen“ (F. Kittler).10 Das medienökologische Modell nimmt dagegen an, dass Medien einander nicht auslöschen, sondern sich in der Regel im Verbund mit anderen Medien und das heißt koevolutiv entwickeln. In diesem Erklärungsmodell, das vor allem vom Medienökologen Michael Giesecke favorisiert wird,11 wechseln daher nicht die Medien als ganzes, sondern die Leitoder Führungsrollen, die Medien in der Adaption, Abgrenzung oder Verdrängung anderer Medien beanspruchen, durchsetzen oder auch verlieren, wobei sie im letzten Fall nicht selten in mit Artenschutz versehenen medienökologischen Nischen überleben oder auch (so im Fall des sog. «stummen Films«, des akustisch begleiteten Films ohne eigenen Ton) erstaunlich erfolgreich revitalisiert werden können. In den folgenden beiden Abschnitten möchte ich zeigen, dass der Film, genauer der Kinofilm, bereits als ,stummer‘ Kinofilm seine Erfolge der Art und Weise verdankt, mit der er sich in einer prinzipiell instabil verfassten, weil von immer neuen Ungleichgewichten geprägten puralen Mediengeschichte von Anfang an als ein in hohem Maße adaptives bis integratives Leitmedium durchzusetzen vermochte. Für den Beginn der Film- und Kinogeschichte, für den, einer Konvention der Filmgeschichte folgend, mit dem Jahr 1895 die ersten öffentlichen Filmvorführungen vor bezahltem Publikum in Berlin und Paris angesetzt werden, lässt sich die Rolle des Films als eines äußerst erfolgreichen Adaptions- und Integrationsmediums am besten anhand einer medien10 11

So Friedrich Kittler in einem Interview mit Christoph Weinberger: „Das kalte Modell der Struktur“. In: Zeitschrift für Medienwissenschaft I (2009), S. 93-102. S. 101 Michael Giesecke: Von den Mythen der Buchkultur zu den Visionen der Informationsgesellschaft. Trendforschungen zur kulturellen Medienökologie. Frankfurt a. M. 2002.

16

HARRO SEGEBERG

technologischen Beschreibung dessen ermitteln, womit der Cinématrographe Lumière als Aufnahme-, Speicher- und Vorführgerät mit vorerst nur sehr kurzen 50-Sekunden-Filmen seine Zeitgenossen fasziniert hat. Denn schließlich führt bereits dieser Film photographische Bilder auf einer flexiblen und halbdurchsichtigen Zelluloid-Basis schnell an einer elektrisch erleuchteten Lichtquelle vorbei und projiziert dadurch schattenhaft wirkende Schwarzweiß-Bilder auf eine Leinwand, wodurch mit der das 19. Jahrhundert mitprägenden Photographie, dem populären Schattentheater sowie dem Projektionsmedium der Laterna magica (die auch farbig projizierte) mindestens drei Leitmedien der Epoche adaptiert und integriert sind. Diese Anpassung an bereits existierende Medien geht sogar so weit, dass der Film in den ersten beiden Jahrzehnten seines Bestehens weniger als eigenständiges Medium, sondern als Teil einer mehrere Medien umfassenden Projektionskunst aufgefasst wurde. Doch damit nicht genug, denn adaptiert wurden weiter – wie wir aus der bis heute unverändert spannenden Geschichte des Pré-Cinéma erfahren können – die dramaturgisch zugespitzte Sequentialisierung von Bildern, wie sie als bewegende bis bewegliche Bilder seit Mittelalter und Früher Neuzeit als Mittel der Imaginationssteuerung wie ein Film vor dem Film in sakralem wie weltlichem Gebrauch waren12; die Seh-Sucht panoramatischer Blickführungen, wie sie in nach außen abgedichteten PanoramaRotunden den Zuschauer in süchtig machende Natur-, Stadt- oder Schlachten-Ansichten hineinlockten13; künstlich erleuchtete und/oder abgedunkelte Transparent-Dioramen, in deren Anblick der sich über 24 Stunden erstreckende Tag und Nacht-Rhythmus auf wenige Minuten verkürzt werden konnte14; bewegte Bilder in Moving-Panoramas und Guckkästen sowie Abblätterbüchern15; vor allem diese auch als ,Daumenkino‘ bezeichneten Abblätterbücher können als für sich genommen durch-

12 13 14

15

Vgl. Jörg-Jochen Berns: Film vor dem Film. Bewegende und bewegliche Bilder als Mittel der Imaginationssteuerung in Mittelalter und Früher Neuzeit. Marburg 2000. Immer noch ein Klassiker ist hier Stephan Oettermann: Das Panorama. Die Geschichte eines Massenmediums. Frankfurt a.M. 1980. Vgl. Birgit Verwiebe: Lichtspiele. Vom Mondscheintransparent zum Diorama. Stuttgart 1997. Sowie Ausstellung und Katalog zu: Dioramen. 3D-Schaubilder des 19. Jahrhunderts aus Schlesien und Böhmen. Kuratiert von Vanessa Hirsch, Nicole Tiedemann, Hamburg u.a. 2005. Vgl. die Artikel von Wojciech Sztaba, Monika Wagner oder Jens Balzer in H. Segeberg (Hrsg.): Die Mobilisierung des Sehens. Zur Vor- und Frühgeschichte des Films in Literatur und Kunst. München 1996 (=Mediengeschichte des Films, Bd. 1) Sowie weitere Artikel in Bodo von Dewitz, Werner Nekes (Hrsg.): Ich sehe was, was Du nicht siehst! Sehmaschinen und Bildwelten. Göttingen 2001.

ANTIMIMETISCHE MIMESIS

17

aus erfolgreiche Erprobung des für das kinematographische „BewegtBild“ oder „Bewegungs-Bild“ konstitutiven stroboskopischen Effekts gelten. Im Kern geht es in der durch Lebensräder, Bildertrommel, Elektrische Schnellseher und Zoopraxiskop, Praxinoskop und andere Skope weiter vorangetriebenen Technisierung dieses stroboskopischen Effekts um die von der Moment- und Chronophotographie praktizierte Zersplitterung von Bewegungsabläufen in Momentaufnahmen und deren möglichst fließende und störungsfreie Projektion auf eine künstlich erleuchtete Leinwand in einem Rhythmus von 18 bis 24 Bildern pro Sekunde. Denn nur dadurch, dass jedes Einzelbild vor einer Lichtquelle angehalten, belichtet und dann nach einer kurzen Verdunkelung durch das nächste Bild ersetzt wird, können diese auf die Leinwand projizierten Bilder über die Netzhaut unserer Augen in die Sehnnerven unseres Gehirns gelangen und dort den Eindruck erwecken, dass der Film nicht Bilder nachträglich in Bewegung versetzt, sondern Bewegung selbst abbildet. Woraus der Medienphilosoph Gilles Deleuze folgert, dass „der Film uns kein Bild [gibt], das er dann zusätzlich in Bewegung brächte – er gibt uns unmittelbar ein BewegungsBild“.16 Nimmt man so gesehen ernst, dass in dieser Aufzeichnung von Bewegung die aufzuzeichnenden Bewegungen zuerst realtechnisch zerhackt und danach in der Rezeption ihrer Reproduktion zu einem in sich geschlossenen Bild von Bewegung zusammengesetzt werden, so lässt sich bereits für diese Urszene des kinematographischen Bewegungsbildes von einer anti-mimetischen Mimesis von Bewegung sprechen. Sie ist es, in der sich die für die weitere Geschichte von Kino und Kinofilm charakteristische Medialität dieses Mediums verwirklicht. Nimmt man das alles (und noch einiges mehr) zusammen, dann wird deutlich, dass es sich bei dem, was die Zeitgenossen „lebende Photographien“ nannten oder als Weiterführung des Zaubertheaters der Laterna magica ansahen, nicht um die Erfindung eines neuen Mediums, sondern um die Adaption, Kumulation, Perfektion und Standardisierung bereits bekannter Medien handelt – eine Entwicklung, die sich in der nach einem knappen Jahrzehnt erfolgten Überwechslung des Films in eigene Kintopps oder Kinos in der Adaption und Integration von Farbe und Ton, den kolorierten oder viragierten Farbbildern und den „Tonbildern“ der Jahrhundertwende ebenso dynamisch wie flexibel fortsetzte. Hier werden erprobt im Schwarzweiß-, Farb- oder vereinzelt auch schon Breitfilm Stoptrick und Jumpcut, Stoptrick mit Montage, Split-Screen und Überblendung sowie Doppel- und Mehrfachbelichtungen (mit Kasch und Maske zur Teilabdeckung 16

Vgl. Gilles Deleuze: Das Bewegungs-Bild. Kino I. Frankfurt a. M. 1989, S. 15.

18

HARRO SEGEBERG

einzeln zu belichtender Bildteile, z.B. für Doppelgänger- bis Schlachten-, Monster- und Geister-Aufnahmen).17 Nicht zu vergessen Zeitlupen- und Zeitraffereffekte oder Rückwärtsprojektion, Trick- und Realbauten, Rückprojektion und Frontprojektion, optische Bank (zur gleichzeitigen Projektion und Aufnahme unterschiedlicher Bildteile), Spiegeltrick und Matte painting, Puppen oder von verborgenen Menschen gelenkte Monsterwesen mit oder ohne pyrotechnische Effekte – alles Verfahren, in denen sich der für das photographische Ähnlichkeits-Zeichen vorausgesetzte Bezug auf außerfilmische Referenzen zur De-Realisierung eines aus verschiedenen Realitätssplittern zusammengesetzten Filmbilds zuspitzt. Sowie dort noch gesteigert wird, wo mit Hilfe von Trick, Spiegeltrick oder Matte Painting das Bewegungs-Bild des Films ausschließlich ,in der Kamera‘ entsteht. Insgesamt gesehen Prozesse, deren Quintessenz der für das Production Design großer James Bond-Filme zuständige Ken Adam wie folgt auf den Begriff bringt: Ein Entwurf, der nur die Realität reproduziert, ist es nicht wert, ausgeführt zu werden. Man fängt die Realität nicht ein, indem man sie kopiert, sondern indem man sie nicht gerade nicht kopiert.18

Zwischenresümee II Im Universum medialer Zeichen präsentiert sich das filmische Zeichen folglich als ein vielfältige Bildmedien zusammenführendes photographisches Bewegungs-Zeichen. Es kann, wie für photographische Zeichen charakteristisch, auf Grund von Ähnlichkeitsbeziehungen auf außerfilmische Zeichen bezogen werden und mit diesen in eine indexikalisch verbürgte, weil via Lichtstrahlen physikalisch vermittelte ,Real‘-Beziehung gesetzt werden; wirklich erkennbar wird dieser Bezug auf eine „notwendig reale Sache, die vor dem Objekt (der Kamera) platziert war“ (R.Barthes), jedoch (wie der Beitrag von Martin Doll ausführen wird) erst durch die interpretative Verwandlung des jeweils gezeigten Index in ein ikonisch lesbares Verweis-Zeichen.19 17

18 19

Vgl. hierzu und im folgenden Rolf Giesen, Claudia Meglin: Künstliche Welten. Tricks, Special Effects und Computeranimation im Film von den Anfängen bis heute. Berlin 2000. Zit. nach Dirk Mantehy: Making of … Wie ein Film entsteht. 2 Bde. Reinbek bei Hamburg 1999 (2. Aufl.). Bd. 1, S. 211. Vgl. Roland Barthes klassisch gewordene Formulierung in der semiotisch erweiterten Lektüre Martin Dolls, hier S. 60, 74, 76.

ANTIMIMETISCHE MIMESIS

19

Entscheidend für dieses das photographische Bild kennzeichnende Ineinander aus indexikalischem Zeigen und ikonischem Verweisen ist, dass es keineswegs die für sich genommen ganz unanschaulichen Lichtdaten, sondern die aus ihrer photochemischen Entwicklung entstehenden bildhaften Zeichensysteme sind, die wir aufgrund der in unserem Gehirn vorab abgespeicherten Vorstellungsbilder mit Ähnlichkeitsverweisen auf außerfilmische Objekte ausstatten können. Woraus folgt: Schon für das Zeigen und Verweisen eines Bewegungs-Bildes gilt die Referenz auf ,Reales‘, in der ein Filmtheoretiker wie Siegfried Kracauer eine „Errettung der äußeren Wirklichkeit“ verankern wollte,20 genau genommen ,nur‘ für die Lichtdaten, mit deren Hilfe antimimetisch fragmentierte Momentaufnahmen aufgezeichnet, übermittelt und reproduziert werden können, nicht aber für deren mimetische Zusammensetzung zum Vorstellungsbild einer Bewegung als ganzer. Sie erfolgt ausschließlich ,ikonisch‘ in unserem Gehirn, weshalb – so schon der Psychologe Hugo Münsterberg in seiner psychologischen Studie Das Lichtspiel (1916) – das Bewegungsbild des Films „ein Produkt unseres eigenen Bewussteins [ist], das die Bilder zusammenbindet.“21 Es ist dieses „Wahr-Werden“ einer apparativ erzeugten Wahrnehmungsillusion,22 die als Faszination einer anti-mimetischen Mimesis bis in das Erschrecken zeitgenössischer Publika über die von Leinwänden auf sie herabstürzenden einfahrenden Schattenzüge hineinreicht (Abb. 2). Allerdings, da jedermann wusste, dass es sich bei den in nahezu jedem Kinoprogramm ,einfahrenden Zügen‘ keineswegs um ,reale‘ Züge, sondern – so Maxim Gorki23 – um ,realer als real‘ wirkende „(Film-)Schatten“ von Zügen handelt, haben Zuschauer keineswegs fluchtartig den Vorführsaal verlassen, sondern sich immersiv auf den das frühe Kino kennzeichnenden Wechsel zwischen Real-Illusionierung und Des-Illusionierung eingelassen. Im folgenden wäre die These zu überprüfen, dass es gerade dieser Wechsel zwischen Mimesis und Anti-Mimesis ist, der auch in dem, was sich gegenwärtig als ,digitales Kino‘ konstituiert, keineswegs aufhört, sondern fortgeführt, radikalisiert und überboten wird. In den gegenwärtig vorherrschenden Diskursen zum Digitalen findet man darauf allerdings nur wenig Hinweise. 20 21 22 23

Siegfried Kracauer: Theorie des Films. Die Errettung der äußeren Wirklichkeit (1973). Hrsg. von Inka Mülder-Bach. Frankfurt a. M. 2005 Vgl. Hugo Münsterberg: Das Lichtspiel. Eine psychologische Studie [1916] und andere Schriften zum Kino. Hrsg. v. Jörg Schweinitz. Wien 1996, S. 49. Vgl. dazu genauer die Beiträge in H. Segeberg (Hrsg.): Referenzen. Zur Theorie und Geschichte des Realen in den Medien. Marburg 2009. Zit. nach Martina Müller (Hrsg.): Cinématographe Lumière 1895/96. Köln (WDR) 1995, S. 51-57. S. 53.

20

HARRO SEGEBERG

Abb. 2: Ankunft eines Zuges in La Ciotat (1896/97). Nach Segeberg: Mobilisierung des Sehens (1996), S. 348f.

Zum Diskurs des Digitalen Denn, verstehen wir, wie eingangs erwähnt, unter Digitalisierung die Transformation graphischer, auditiver und visueller Daten in die diskretwillkürliche Zeichensprache binärer Universalcodes und ihrer mathematisch modellierten Algorithmen und Programmiersprachen, so folgt daraus für einen Medienwissenschaftler wie Norbert Bolz: „Mimesis, das unangreifbare Menschenvermögen, erlischt in den Rechnungen hochauflösender digitaler Rastergraphiken“.24 Oder, so der bereits zitierte Friedrich Kittler, für den, wovon schon die Rede war, Medien ins Universalmedium „Computer“ „reinstürzen“: „Intern, in der Hardware und Software, gibt’s nix Imaginäres.“ 25 Eine Aussage, die empirisch gesehen eigentlich ,nix‘, metaphorisch dafür umso mehr sagt. Schließlich konnotiert der Sturz der Medien in den Computer recht unmissverständlich mit dem in 24 25

Vgl. Norbert Bolz: „Politik des Posthistoire“. In: Rudolf Maresch (Hrsg.): Zukunft oder Ende. München 1993, S. 250-257. S. 256. Vgl. Kittler: „Kaltes Modell“ (Anm. 10).

ANTIMIMETISCHE MIMESIS

21

biblischen Überlieferungen vielfach bezeugten Sturz gefallener Teufels-Engel (vgl. etwa Offb. Joh. 20,2). Ein, wie wir folgern dürfen, stark apokalyptischer Diskurstyp I zum Digitalen also. Ähnlich abstrakt oder besser generell geht es dort zu, wo Computer nicht nur vom Benutzer eingegebene Daten sammeln, speichern, verarbeiten und reproduzieren, sondern neu generieren und sich dazu via Internet mit anderen Computern zum elektronischen Netzwerk eines weltweit wirksamen digitalen Datenuniversums verbinden. Mit ihm verknüpft oder ‚verschaltet‘ und ,vernetzt‘ können Computer dann ein ganz neues Stadium von Medienkonvergenz dadurch eröffnen, dass sie als Bild, Schrift und Ton integrierende Medien- und Kommunikationsmaschinen die Fähigkeit entwickeln, unsere gesamte Mit- und Umwelt in ein digitales Universum aus maschinenlesbaren Dokumenten, Programmen und Projekten mit schriftlichen, bildlichen und tönenden Daten zu verwandeln. Es sind nicht diese Beschreibungen, sondern die daraus gefolgerte „Transmedialität“ eines alle Medien total durchformenden Digitalen, die man als den unifizierenden Diskurstyp II zum Digitalen bezeichnen könnte. Aus ihm folgt „Film am laufenden Meter, Film auf der Rolle, das ist so gut wie vorbei: The End of the Reel World“ (womit man natürlich ,Real World‘ assoziieren soll).26 Ein davon abzugrenzender Diskurstyp III sollte sich dadurch auszeichnen, dass er die im Zeichen des Digitalen stattfindenden Transformationen von Medien keineswegs leugnet, in der Untersuchung dieser Transformationen aber nicht mit dem Abstraktions- oder besser Generalisierungsniveau der beiden zuvor charakterisierten Diskurstypen konkurrieren möchte, sondern statt dessen auf medienspezifische Differenzierungen und Mikroanalysen Wert legt. Wenn die Leser und Leserinnen unserer jetzt auch in Buchform vorliegenden Ringvorlesung vermuten, dass wir dazu einen Beitrag leisten möchten, so liegen sie damit genau richtig.

Analog/Digital Versucht man in diesem Sinne die Veränderungen, die gegenwärtig erkennbar sind, etwas differenzierter zu betrachten, dann empfiehlt es sich, schon um die Vergleichbarkeit mit der zuvor erörterten spezifischen Medialität des Kinofilms zu gewährleisten, mit Bemerkungen zur Medialität digitaler Produktionsverfahren zu beginnen. 26

Daniela Klook: „Vorwort“ zu dies. (Hrsg.): Zukunft Kino. The End of the Reel World. Marburg 2008, S. 9f. S. 9.

22

HARRO SEGEBERG

Der wichtigste Unterschied zum analogen Kinofilm liegt dann darin begründet, dass in der computergenerierten Bildproduktion der Eindruck des für den Film charakteristischen Bewegungs-Bildes nicht daraus entsteht, dass in Teilen oder zur Gänze gespeicherte Momentaufnahmen im Rhythmus von 18-24 Bildern zur Illusionswirkung eines im Film selbst entstehenden Bewegungs-Bildes zusammen gefügt werden. Für die digitale Bildproduktion ist vielmehr entscheidend, dass hier Lichtdaten in diskrete digitale Signale umgewandelt und gespeichert werden und mit Hilfe mathematischer Bildverarbeitungstechniken und/oder algorithmischer Bilderzeugungsprogramme weiter bearbeitet werden, woraus jetzt weder einzelne Bilder oder Bildteile, sondern nurmehr Bildpunkte, die berühmtem Pixel entstehen. Sie sind es, die im Projektionsgerät einer digitalen Filmprojektion über eine Unzahl von mikroskopisch kleinen Spiegeln auf eine Leinwand projiziert werden und auf deren extrem glatten Bild-Oberflächen die hin und her tanzenden Körner des photochemischen Films und mit ihnen die Zeugnisse eines bisher vertrauten filmischen Analog-Realismus verschwinden lassen. Hinzu kommt, dass eine solche Zersplitterung filmischer Zeichen die schon für sich genommen antimimetische Zerspaltung photochemischer Bewegungsbilder nicht nur entschieden überbietet, sondern auch dazu führt, dass nunmehr jeder einzelne Bildpunkt isoliert angesteuert und verändert werden kann, woraus sich Möglichkeiten der Bildbearbeitung und Bildveränderung ergeben, die quantitativ wie qualitativ über die in der analogen Filmproduktion üblichen Verfahren der Veränderung und Neukombination von Bildern und Bildteilen hinausgehen. Und da diese neuen Verfahren nicht nur auf digital aufgezeichnete, sondern auch auf nachträglich digitalisierte Bilder übertragen werden können, lassen sich jetzt nicht länger nur digital produzierte Bilder und Bildteile, sondern Mikroteile aller Bilder verändern, hinzufügen und zusammensetzen oder auch löschen. Oder in den Rechenvorgang einer Bilderzeugung transformieren, die nicht mehr nur in Teilen, sondern nunmehr ausschließlich in der ,digitalen‘ Bildgebung stattfindet. Es sind diese Verfahren einer analoge Bildgebungen übersteigenden Bildneuschöpfung, die für die einen für die Annahme einer in letzter Konsequenz referenzlosen, weil ausschließlich digital erzeugen Realität sprechen; der Bezug auf eine wie auch immer ,reale‘ Bewegung, die in der Aufzeichnung fragmentiert, in der Rezeption aber nach Ähnlichkeitsbeziehungen wieder zusammengesetzt wird, wäre dann hier weder möglich noch sinnvoll. Andere verweisen darauf, wie eng sich digitale Bildgebungen selbst dort am Leitmodell mimetischer Ähnlichkeitsbeziehungen orientieren, wo sie im computergenerierten Animationsfilm auf vorfilmisch

ANTIMIMETISCHE MIMESIS

23

,reale‘ Bezugsobjekte verzichten, sich in der Visualisierung ihrer animierten Bilder aber nach wie vor an den analogen Plausibilitätskriterien mimetischer Wahrheitsmodelle orientieren und daraus den ,digitalen Realismus‘ eines Realfilm und Animationsfilm ineinander verschmelzenden neuen Filmtyps ausbilden.27 Oder, so unsere Beiträge, zur Kenntlichkeit einer auf eine neue Weise ,wahr‘ werdenden apparativen Wahrnehmungsillusion zuspitzen. Vor diesem Hintergrund lassen sich jenseits aller schematischen Dichotomien die Ansichten eines synthetischen Fotorealismus entfalten, in denen das Mimetische keineswegs ersatzlos verschwindet, sondern sich in eine in ihren internen Differenzierungen exakt beschreibbare mimetische Anthropologie des Digitalen umbildet (Rüdiger Maulko). In welcher veränderten Weise auch in ihr weiterhin von einer Indexikalität des Digitalen die Rede sein kann, macht darauf die begrifflich exakt operierende Fortentwicklung einer kategorial erweiterten Semiotik der entzweiten Zweiheit (Martin Doll) deutlich. Gemeint ist damit das Auseinandertreten des für das photographische Bild konstitutiven Ineinanders aus Zeigen und Verweisen in ein rechnerbasiertes ,reines‘ Zeigen ohne notwendig ikonische Verweise. Denn, anders als die ausschließlich visuell decodierbaren physikalischen Lichtdaten einer photochemischen Photographie werden digital gespeicherte Lichtdaten in einer auch für andere Transpositionen offenen ,abstrakten‘ Programmier-,Sprache‘ aufgezeichnet und übermittelt – eine gegenüber dem photographischen Film durchaus abermals gesteigerte Polarität aus antimimetischer Technizität und mimetischer Visualität. Vor diesem Hintergrund lässt sich die Verwandlung digitaler Zeichen in ikonisch lesbare Zeichen als die ebenso arbiträre wie für den audiovisuellen Film verstehensnotwendige Übersetzungsleistung bezeichnen, und wie produktiv sich ein solcher ,digitaler Film‘ daran abarbeitet, zeigt sich in den darauf folgenden Fallanalysen dort, wo sie anhand ausgewählter Fallbeispiele technische, ästhetische und narrative Effekte der Digitalisierung in den Blick nehmen. Diese Überlegungen beginnen mit möglichst genauen technischen Beschreibungen dort, wo Klaus Kohlmann aus dem Blickwinkel des Praktikers anhand konkreter Konstruktionsbeispiele von technischen Komponenten des computergenerierten Films berichtet. Im Anschluss daran geben

27

Zum Begriff eines ,digitalen Realismus‘ vgl. ausführlich Sebastian Richter: Digitaler Realismus. Zwischen Computeranimation und Live-Action. Die neue Bildästhetik in Spielfilmen. Bielefeld 2008.

24

HARRO SEGEBERG

Ausführungen Barbara Flückigers zur organisch wirkenden Komplexität Computergenerierter Figuren zu erkennen, wie produktiv es sein kann gerade dort, wo die auf Bilder oder Bildteile zu beziehenden Real-Referenzen des photographischen Films keinen Platz mehr haben, auf die ineinander verzweigte ,hybride‘ Vielzahl realer wie animierter Referenzen zu achten. Woraufhin Jens Eder und Jan Noël Thon Prozesse zur Modellierung der Imagination ebenso ausführlich wie eindringlich deshalb erhellen, weil sie sich den Wechselwirkungen zwischen Kinofilm und Computerspiel zuwenden und dazu Merkmale von Transmedialität nicht ins medienunspezifische Jenseits verlegen, sondern in einem präzis medienanalytischen Sinn aus dem medienübergreifenden Vergleich medialer Eigenschaftskonstellationen ableiten. Auf den Kinofilm zurück lenken Überlegungen zur narrativen Funktionalisierung digitaler Effekte, mit deren vergleichbar transmedialer Analyse Markus Kuhn nach einer Klärung dessen, „was digitales audiovisuelles Erzählen sein könnte“ (S. 192), als kategorial geltende Trennlinien immer wieder mit großem Erfolg überschreitet. In dieser Perspektive sind es endgültig nicht länger apokalyptische Dichotomien, sondern graduelle Übergänge, die für immer neue Mischformen im Verhältnis Analog/Digital verantwortlich zeichnen. Und, derart differenziert vorbereitet, ist es dann der auf den ersten Blick überraschend weit nach vorn zielende Rückgriff auf Strategien eines romantischen ,Mehrebenenerzählens‘, der es erlaubt, von der prinzipiellen Möglichkeit eines mehrdimensionalen digitalen Erzählens in Science Fiction, Bewusstseinsfilm und medialen Mehr-Ebenen-Konstruktionen (S. 218 ff.) auszugehen. Eine erkennbar wirklich spannende Frage an eine jetzt als offen erscheinende Zukunft des Kinos. Ein vergleichbar vom Allgemeinen aufs Spezielle lenkendes Verfahren soll sich im abschließenden dritten Teil des Buches weiter dort bewähren, wo Praktiken der Digitalisierung in ihrer Rückwirkung auf die Präsentation, die Erschließung und die Analyse von Film beobachtet werden. Dazu beginnt Jan Distelmeyer mit Überlegungen zur Ästhetik der Verfügung im Zeichen der DVD mit ihrem Changieren zwischen Machtversprechen und vorab formatierter Machtbegrenzung, die für Prozesse der Digitalisierung insgesamt charakteristisch seien. Darin schließt sich an die kritische Auseinandersetzung mit der durchaus vergleichbare ,Machtfragen‘ aufwerfenden digitalen Rekonstruktion von Filmgeschichte und ihren Versprechen (Franziska Heller) sowie den Rückwirkungen Digitaler Tools für Filmanalyse und Filminterpretation in universitärer wie nicht-universitärer Praxis (Heinz Hiebler). Damit hat sich der Band dafür entschieden, die gegenwärtig immer noch schwer überschaubare Diskussion zur Rolle ,des Digitalen‘ in Distribution und Präsentation in Praxisfelder zu verlegen,

ANTIMIMETISCHE MIMESIS

25

von denen man annehmen kann, dass sie dem filminteressierten Leser des Bandes aus eigener Erfahrung bestens vertraut sind. Auch hier also der Versuch, über künftig zu Erwartendes anhand von gegenwärtig genau Beschreibbarem zu handeln.

Teil I Strategien der Digitalisierung

Rüdiger Maulko

Mimesis und Anthropologie des Digitalen: Synthetischer Fotorealismus im Kino Digitalität wird erstmals in den 1980er und frühen 1990er Jahren Gegenstand einer umfassenden Theoretisierung. In Deutschland wird die Debatte vom medientechnischen Apriori dominiert, das die maßgebliche und leitende Funktion der Digitaltechnik hervorhebt. Anthropologische Faktoren wie das bis in die Antike zurückreichende Mimesis-Postulat werden hingegen entweder vernachlässigt oder primär im Hinblick auf ihre Technikabhängigkeit diskutiert. So stellt Kittler in seinem Buch Grammophon Film Typewriter fest, dass Medien unsere Lage bestimmen und „definieren, was wirklich ist.“1 Maresch knüpft daran mit folgender Äußerung an: Medientechnologien, die Muster der Wahrnehmung und Erfahrung vorgeben, nicht Reflexion und Selbstbewusstsein, legen nämlich die Normen und Standards fest, die einer existierenden Kultur die Auswahl, Speicherung und Übertragung relevanter Daten erlauben. Erst sie verwandeln Menschen in Subjekte.2

Die technikdeterministische Sicht wirkt sich auch auf die Einschätzung von Computerbildern aus. Man betrachtet sie als Appendix und ikonische Reflexe einer weitgehend algorithmengesteuerten, automatisch ablaufenden Informationsverarbeitung. Anknüpfend an Baudrillards Simulationstheorie werden derartige Berechnungs- und Erzeugungsprozeduren als simulative Prozesse charakterisiert, die analoge Materialitäten und Widerstände ignorieren und sich von jeglicher Referenz verabschieden. So schreibt Norbert Bolz: Wo immaterielle Pixelkonfigurationen in Computersimulationen den Schein einer stabilen Gegenständlichkeit auflösen, wird die Frage nach einer Referenz sinnlos. Mimesis, das ungreifbare Menschenvermögen, erlischt in den Rechnungen hochauflösender digitaler Rastergraphiken.3 1 2

3

Kittler, Friedrich: Grammophon, Film, Typewriter. Berlin 1986, S. 10 und S. 3. Maresch, Rudolf: „Blindflug des Geistes. Was heißt (technische) Medientheorie?“ In: Telepolis-Online 1996. URL: http://www.heise.de/tp/r4/artikel/2/2039/2.html (Letzter Zugriff am 12.10.10). Bolz, Norbert: „Politik des Posthistoire.“ In: Maresch. Rudolf (Hrsg.): Zukunft oder Ende. München 1993, S. 250 -257, hier: S. 256.

30

RÜDIGER MAULKO

In der Theoriedebatte werden vor allem abstrakte Fraktalbilder als idealtypische Repräsentanten des Simulationsbildes gehandelt. Die komplexen Strukturen, die von Menschen nicht hergestellt werden können, entstehen hier, so die Auffassung, direkt aus Formeln und Theorien und bringen ihre generative Basis ungefiltert in ikonischer Form zur Anschauung. Friedrich Kittler z. B. betrachtet sie als Inbegriff für die Visualisierung des Referenzlosen, Unvorhersehbaren und Unbekannten.4 Andere Autoren begnügen sich nicht mit der Frage, ob Computer neuartige Bilder und Visualitäten hervorbringen. Angesichts der erzeugungstechnischen Spezifik prognostizieren sie ein Ende tradierter Bildlichkeit: Man wird sich fragen müssen, ob und inwiefern es überhaupt Bilder sind, mit denen es die Rechner in der Bildverarbeitung zu tun haben.5 Das digitale Bild gibt es nicht, zumindest nicht in einem substantiellen Sinn.6 Schon weil niemand je ein Bit gesehen hat, dürfte eine ontologische Klärung des Status digitaler Bilder schwierig werden.7

Technikdeterminismus, Bildlichkeit und bildmediale Praxis Fokussiert man die simulativ operierende Datenverarbeitung als Grundlage und Bedingung digitaler Visualität, spannt sich fraglos ein weites Untersuchungsfeld auf, das vom traditionellen Bildbegriff allein nicht erfasst und abgedeckt werden kann. Dennoch sollte der Blick nicht einseitig verengt werden. Eine ausschließlich technische Herangehensweise blendet anthropologische Faktoren der Visualisierung, Aspekte des Bildlichen, visuelle Innovationen, 4 5 6

7

Vgl. u.a. Kittler, Friedrich: „Fiktion – Simulation.“ In: Ars Electronica (Hrsg.): Philosophien der neuen Technologien. Berlin 1989, S. 57-79, hier: S. 67. Winkler, Hartmut: Docuverse. Zur Medientheorie der Computer. München 1997, S. 219. Pias, Claus: „Bilder der Steuerung.“ In: Huber, Hans Dieter/Lockemann, Bettina / Scheibel, Michael (Hrsg.): Bild – Medien – Wissen. Visuelle Kompetenz im Medienzeitalter. München 2002, S. 47-67, hier: S. 47. Vgl. zur Bilddebatte auch Adelmann, Ralf: Visuelle Kulturen der Kontrollgesellschaft. Zur Popularisierung digitaler und videografischer Visualisierungen im Fernsehen. Online-Dissertation Ruhr-Universität Bochum 2003, S. 145 ff. URL: http://www-brs.ub.ruhr-uni-bochum.de/ netahtml/HSS/Diss/AdelmannRalf/diss.pdf (Letzter Zugriff: 12.11.10). Pias: „Bilder der Steuerung“ (wie Anm. 6), S. 47.

SYNTHETISCHER FOTOREALISMUS IM KINO

31

Konventionen und langjährige Traditionen der Bildgestaltung einfach aus. Außerdem wird der Blick auf medien- und einzelmedienspezifische Ausprägungen digitaler Visualität verstellt. Der mittlerweile kaum noch zu überblickenden Gebrauchs- und Funktionsvielfalt sowie der Ausdifferenzierung von Computerbildern in der alltäglichen Anwendungs- und Medienpraxis wird eine rein technische Sichtweise ebenfalls nicht gerecht. Ein erzeugungstechnischer Reduktionismus vernachlässigt auch das Zusammenspiel von Mensch und Maschine. Ein Meilenstein der MenschMaschine-Kopplung war das grafische System ‚Sketchpad‘ von Ivan Sutherland, das bereits in den sechziger Jahren die Einführung grafischer Benutzeroberflächen und damit den Durchbruch medialer Computerbildproduktion in den 1980er Jahren vorbereitete. Infolge der langjährigen Grafisierung des Digitalen können Medien- und Bildgestalter heute auf breiter Ebene mit einem intuitiv zugänglichen ‚Interaktions-Interface‘ arbeiten, eine Rechenmaschine ohne fundierte Technik- und Programmierkenntnisse bedienen und maßgeblich die Erzeugung und Ausformung von Computerartefakten beeinflussen. Grafische Oberflächen sind heute unverzichtbare Schnittstellen für die semantisch-konzeptionelle Arbeit, die Computer allein kaum leisten können. In meist kleinteiligen Mensch-Maschine-Interaktionen bringen gestalterische Subjekte gezielt Sinn- und Bedeutungsaspekte, Ideen und Konzepte ein, entwerfen Bildsprachen und verarbeiten ästhetische Diskurse, Gestaltungstraditionen und -trends. Dabei experimentieren sie sowohl mit medientechnischen als auch mit tradiert-vortechnischen Elementen von Bildlichkeit (z. B. Raum, Perspektive und Zeit). Was aus erzeugungstechnischer Sicht lediglich ein flüchtiger ikonischer Reflex der Datenvisualisierung ist, wird in derartigen Ausformungsprozessen als ‚(Medien)Bild‘ aufgefasst, kontextualisiert, begutachtet und bearbeitet. Die Arbeit am und mit dem Bild sowie die zielgerichtete Medialisierung des Computerbildes sind heute mindestens so bedeutsam und folgenreich wie technische Faktoren. Letztlich sollte digitale Medienbildlichkeit als Symbiose und zugleich widersprüchliche Konstellation aus technisch-maschinellen und simulativen Aspekten auf der einen und mimetisch-anthropologischen Faktoren auf der anderen Seite aufgefasst werden. Im folgenden wird vor allem die mimetische Perspektive digitaler Medienbildlichkeit am Beispiel des synthetischen Fotorealismus fokussiert. Dieses Visualisierungskonzept wird als äußerst vielschichtiges Konstrukt bestimmt, das sehr unterschiedliche Ebenen und Facetten in sich vereint. Die Besonderheiten und Merkmale des digitalen Fotorealismus werden zunächst anhand eines Vergleichs mit dem filmisch-fotografischen Bild herausgearbeitet, das der digitalen Visualisierung zahlreiche Anknüpfungs-

32

RÜDIGER MAULKO

punkte bietet und in vieler Hinsicht als Vor- und Leitbild dient. Danach werden weiterhin Gemeinsamkeiten und Unterschiede der Fotorealismuskonzepte thematisiert, ins Zentrum rückt allerdings die Konturierung des digitalen Fotorealismus als eigenständiges Stil- und Metakonzept. Anschließend wird die Rolle der digitalen Mimesis im zeitgenössischen Kino fokussiert. Ein Anliegen ist, die Anschlussfähigkeit digital-fotorealistischer Visualisierung am Beispiel zukunftsweisender Ambivalenzästhetiken herauszustellen. Abschließend werden die mimetischen Tendenzen in den spezifischen Interpolations- und Effektästhetiken des Digitalen aufgespürt. Aus Gründen der sprachlichen Vereinfachung wird in der Folge des Öfteren von synthetischem Fotorealismus gesprochen, wenn digital-synthetischer Fotorealismus gemeint ist. Demgegenüber wird analoger Fotorealismus mit der Formulierung ‚fotografisch-filmischer Fotorealismus‘ gekennzeichnet. Natürlich ist auch der Fotorealismus des Filmisch-Fotografischen ein technisch-artifizieller und synthetischer Visualisierungsmodus, der kulturell über einen langen Zeitraum hinweg gewachsen ist. Selbst wenn das filmische Bild auf seine Funktion als Abbild reduziert und einseitig die reproduktiven Aspekte hervorgehoben werden, kann nicht von einem natürlichen und quasi-neutralen Bild ohne Eigenschaften gesprochen werden. Abbilder sind vielmehr Visualisierungsformen mit besonderen Eigenheiten und Merkmalen, die häufig polar, paradox und ambivalent strukturiert sind. So kann jedes Abbild den sichtbaren Widerspruch von Präsenz und Absenz nicht hintergehen.8 Auch die technisch eingeschriebene Zentralperspektive ist keineswegs ein neutraler Darstellungsmodus. Sie kann nicht nur als Annäherung an das menschliche Wahrnehmungsvermögen (Hoberg),9 sondern auch als Normierung, Domestizierung und Kolonialisierung, partiell sogar als Verfälschung der natürlichen Wahrnehmung interpretiert werden.10 Zudem basiert das zentralperspek-

8 9 10

Vgl. u. a. Wiesing, Lambert: Die Sichtbarkeit des Bildes. Geschichte und Perspektiven der formalen Ästhetik. Reinbek bei Hamburg 1997, S. 15. Hoberg, Almuth: Film und Computer. Wie digitale Bilder den Spielfilm verändern. Frankfurt a. M.1999, S. 17. Vgl. hierzu Krämer, Sybille: „Vom Trugbild zum Topos. Über fiktive Realitäten.“ In: Iglhaut, Stefan/Rötzer, Florian/Schweeger, Elisabeth (Hg.): Illusion und Simulation. Begegnung mit der Realität. Ostfildern 1995, S. 130-137. Vgl. auch Missomelius, Petra: „Visualisierungstechniken: Die medial vermittelte Sicht auf die Welt in Kunst und Wissenschaft. Wahrnehmungskonfigurationen von der Zentralperspektive zur Rasterkraftmikroskopie.“ In: Nordmann, Alfred/Schummer, Joachim/

SYNTHETISCHER FOTOREALISMUS IM KINO

33

tivische Abbild auf dem Paradox der flachen Tiefe (Boehm),11 das bei faktischer Flächigkeit des filmisch-fotografischen Bildes einen Raumeindruck illusioniert. Zur Bildlichkeit des filmischen Fotorealismus gehören auch spezifische Darstellungsstrategien und Sichtweisen, die gezielt Realitäts- und Realismuseffekte illusionieren und dabei insbesondereTransparenzstrategien einsetzen. Welche Rolle die Realismuseffekte sowie die darstellungsstrategischen und ästhetischen Standards des Filmisch-Fotografischen für die digitalen Mimesis spielen, wird im weiteren Verlauf noch eingehend erörtert. Zunächst geht es um den Einfluss der reproduktiven Aspekte des filmisch-fotografischen Bildes, die leitende Funktion bei der digital-synthetischen (Re)Modellierung von Medienbildlichkeiten übernehmen.

Mimesis an die reproduktiven Tendenzen des Filmisch-Fotografischen Die reproduktiven Tendenzen des Filmisch-Fotografischen werden in Regel von erzeugungstechnischen und naturwissenschaftlich-physikalischen Konstanten abgeleitet, die unabhängig von subjektiv gestaltenden Faktoren von vornherein in das Abbildliche eingeschrieben sind. Speziell Optik, Kausalität und Homologie sorgen bei der analogen Aufzeichnung für eindeutige Übertragungsvorgänge, die automatisch Spurbilder (Sontag)12, registrative (Doelker)13 bzw. verursachte Bilder (Lüdeking)14 erzeugen. Beim Film verschmilzt die ‚entsubjektivierte‘ Sichtweise des Realen mit der Aufzeichnung von Phasenbildern, die im Verbund mit der Projektionstechnik beim Abspielvorgang einen (pseudo-naturalistischen) Bewegungsrealismus illusioniert. Diese automatisch erzeugten Reproduktions- bzw. Abbilder,

11 12 13 14

Schwarz, Astrid (Hg.): Nanotechnologien im Kontext. Berlin 2006, S. 169-178, hier: S. 170. Boehm, Gottfried: „Die Wiederkehr der Bilder.“ In: Ders. (Hg.): Was ist ein Bild? München 1994, S. 33. Sontag, Susan: „Die Bilderwelt.“ In: Dies.: Über Fotografie. Frankfurt a. M. 1980, S. 146-172. hier: S. 147. Doelker, Christian: Ein Bild ist mehr als ein Bild. Visuelle Kompetenz in der Multimedia-Gesellschaft. Stuttgart 1997, S. 70ff. Lüdeking, Karlheinz: „Pixelmalerei und virtuelle Fotografie: Zwölf Thesen zum ontologischen Status von digital codierten Bildern.“ In: Spielmann, Yvonne/Winter, Gundolf (Hg.): Bild – Medium – Kunst. München1999, S. 143-148, hier: S. 143.

34

RÜDIGER MAULKO

die auch als Abdrücke (Hoberg)15 oder „Emanation des Referenten“ (Roland Barthes)16 bezeichnet werden, setzen nicht nur auf die wahrnehmungsnahen Aspekte der Zentralperspektive, sondern auch auf Ikonizität und Wiedererkennbarkeit des Abgelichteten. Die digitale Modellierung greift den Abbildungs- und Reproduktionsmodus und die daran geknüpften Visualisierungsleistungen auf, um vor allem Mimesiseffekte und darauf aufbauend visuelle Glaubwürdigkeit und Nachvollziehbarkeit zu generieren. Dabei reicht die Simulation von Ikonizität und signifikanter Abbildungsleistung des analogen Vorbildes bis in die Visualisierung kleinster Details hinein, die auf den ersten Blick eher unwichtig und beiläufig erscheinen. Zu Kernproblemen synthetischer Remodellierung werden etwa – wie Koenigsmarck betont – Visualisierungen von Schmutz und Dreck: Es gibt […] eine goldene Regel in der 3D-Welt […]: ‚Wenn Du denkst, alles sieht perfekt aus, wirf‘ noch ein bißchen Dreck drauf‘. In der Realität […] hat jede Oberfläche leichte Fehler.17

Die digitale Mimesis bedient sich noch weiterer Strategien. Fotorealistische Computerfilme wie Beowulf (2007) und Avatar (2009) greifen oft auf das sogenannte Texture Mapping zurück. Bei dem Verfahren werden häufig Fotos der physikalischen Welt auf vektorgrafisch erzeugte Volumenobjekte gezogen. So kann man ein hochauflösendes Detailfoto menschlicher Haut zunächst durch Digitalisierung in eine Rastergrafik überführen und dann auf ein Drahtgittermodell von einem Gesicht ziehen. Dabei sorgen spezielle Algorithmen dafür, dass sich die neue Haut der spezifischen Geometrie des Drahtskelettes anschmiegt. So muss die Hauttextur z. B. den Erhöhungen in der Nasenregion angepasst werden. Die gemappten Fotos reproduzieren nicht nur Details und Farbnuancen, sondern auch das Amorphe, Zufällige und Unregelmäßige der Realvorlage. Ein vergleichbarer Mimesis- und Ikonizitätseffekt ließe sich ansonsten nur in mühevoller Kleinarbeit oder mit einem unvertretbaren Zeit- und Kostenaufwand erzielen. Nicht immer orientiert sich die digitale Mimesis an der detailgenauen Reproduktion der phänomenalen Seite des Realen. Um Realitätseffekte und Realismusillusionen zu generieren, wird auch das Unsichtbare und 15 16 17

Hoberg: Film und Computer (wie Anm. 9), S. 13. Barthes, Roland: Die helle Kammer. Bemerkungen zur Photographie. Frankfurt a. M.1989, S. 90f. Koenigsmarck, Arndt von: Insiderbuch 3D Design. Grundlagen der Gestaltung in der dritten Dimension. Zürich 2000, S. 75.

SYNTHETISCHER FOTOREALISMUS IM KINO

35

Unfotografierbare remodelliert, das unterhalb der Oberflächen existiert und durch an sich unanschauliche Naturgesetze determiniert wird. Beliebt ist das Rendern mit Raytracing-Algorithmen. Bei dem Verfahren werden nicht nur mathematische Projektions- und Perspektivgesetze berücksichtigt. Als globales Beleuchtungsmodell simuliert es auch die Ausbreitung von Licht. Eine 3D-Szene wird in ihrer Gesamtheit berechnet, auch komplexere Formen der Lichtausbreitung und -wirkung werden einbezogen, wie Spiegelungen und Wechselwirkungen zwischen Szenenobjekten. Verfahrenstechniken, die sich der strukturellen Referenz verschrieben haben, gehen letztlich über die Möglichkeiten fotografischer Vor- und Abbildlichkeit hinaus.18 Man konzentriert sich nicht nur auf das mit dem (Kamera)Auge Sichtbare, sondern erschließt physikalische Gesetzmäßigkeiten des Realen, die unterhalb der Oberflächen wirken. In diesem Punkt kann durchaus davon gesprochen werden, dass digitale Remodellierung und -konstruktion im Vergleich zum analogen Ablichtungsbild eine Radikalisierung des Mimetischen vorantreibt.

Skalierbarkeit digitaler Mimesis Digitale Mimesis zeichnet sich dadurch aus, dass sie Reproduktionästhetiken als hochgradig skalierbare Größen auffasst. Dies geht sogar soweit, dass Abbildlichkeitseindrücke auf parodoxe Weise simuliert werden. Wenn pseudo-fotografische und zugleich realitätsnahe Lichtsituationen mit Raytracing modelliert werden, wird kurzerhand die Physik auf den Kopf gestellt. Ausgangspunkt der Berechnungen ist nicht – wie zu erwarten wäre – die sendende Quelle, sondern das empfangende Betrachterauge, von dem aus die Lichtstrahlen bis zum Verursacher zurückverfolgt werden. Das Umkehrverfahren hat den entscheidenden rechen- und zeitökonomischen Vorteil, dass man nicht alle, sondern eben nur die für einen bestimmten Betrachterstandpunkt relevanten Strahlen verfolgen und berechnen muss. Außerdem wird beim Raytracing die Raytrace-Tiefe, also die Anzahl der Rechendurchläufe, aus ökonomischen Gründen begrenzt. Raytracing kombiniert also zeitökonomische und illusionistische Effizienz und korreliert das zu Errechnende mit dem Kriterium der Wahrnehmungsrelevanz. 18

Vgl. zur strukturellen Referenz ausführlicher Maulko, Rüdiger: „Referenz und Computerbild. Synthetischer Realismus in den Bildmedien.“ In: Segeberg, Harro: Referenzen. Zur Theorie und Geschichte des Realen in den Medien. Marburg 2009, S. 26-51.

36

RÜDIGER MAULKO

Es wird also deutlich: Als pragmatisches Illusionierungskonzept ist digitale Mimesis kein fixes Darstellungsideal, sondern eine äußerst flexible ‚So-tun-als-ob-Strategie‘. Sie verfährt partial und gewichtet und wägt dabei ständig zwischen rekonstruktivem Ehrgeiz, Wahrnehmungsaspekten, den jeweiligen Gestaltungszielen, produktionsökonomischen Faktoren (Zeit, Geld), dem technisch Möglichen sowie dem illusionistisch Effizienten und zugleich Notwendigen ab. Skalierbarkeit und konstruktiv-pragmatische Durchdringung des Visualisierungsmodus prägen auch die Anwendungspraxis. So können Techniknutzer die genannten Faktoren nach Bedarf grundlegend beeinflussen und gewichten. Über unzählige Menüs und Untermenüs, Dialog- und Checkboxen kann ein regelrechtes Feintuning von Funktionen und Werkzeugen und damit auch des fotorealistischen Endergebnisses vorgenommen werden. Im Rahmen der semantisch-konzeptionellen Arbeit beurteilen, akzeptieren oder verwerfen sie die anfallenden Berechnungs- und Gestaltungsergebnisse und erklären den Herstellungsprozess ab einem bestimmten Punkt für beendet (z. B. Einstellung der Raytrace-Tiefe). Je nach Lage der Dinge entstehen daher in der Gestaltungspraxis aus dem engen Zusammenspiel von Technik und Mensch mögliche, wahrscheinliche oder für halbwegs glaubwürdig befundene Entwürfe und Modelle. Zwar ist auch die Mimesis des analogen Abbildrealismus von einer hochgradigen Technizität und darstellungskulturellen Durchdringung geprägt und in der konkreten Visualisierungspraxis von Subjekten beeinflussbar (z. B. Perspektiv- und Ausschnittswahl), die digitale Mimesis erschafft aber eine Fotorealitätsillusion, die noch umfassender interpretierund modellierbar ist. Dabei ist die Überschreitung und weitreichende Interpretation reproduktiver Abbildlichkeit an der Tagesordnung, solange die digital-synthetische Fotorealismusillusion nicht grundsätzlich in Frage gestellt und unglaubwürdig wird.

Mimesis an Darstellungsweisen, Realismuseffekte und ästhetische Standards Zur Mimesis ans Filmisch-Fotografische gehören noch weitere Strategien: – Nachahmung des Realitätseffekts und Realismuseindrucks des Filmisch-Fotografischen – Nachahmung der ästhetischen Standards, Darstellungs- und Sichtweisen sowie der Wahrnehmungskonventionen des Filmisch-Fotografischen

SYNTHETISCHER FOTOREALISMUS IM KINO

37

Ohne Anspruch auf Vollständigkeit kann man im Einzelnen folgende Strategien ausmachen: a) Adaption des Filmlooks Um einen Filmlook nachzuempfinden, werden z. B. unterschiedliche Schärfeebenen hinzugefügt, Objektkanten weichgezeichnet und geglättet. Des Weiteren wird die Auflösung von Computeranimationen reduziert und nach Bedarf auch eine synthetische Filmkörnung in die Bilder hinein gerechnet. Zahlreiche Anstrengungen konzentrieren auch darauf, Verunreinigungen und das Beiläufige zu visualisieren, das jedes filmisch-fotografische Abbild automatisch mitliefert. Hierbei geht es vor allem darum, die Schwächen und Fehler des Filmbildes nachzuempfinden, um nahtlos an Wahrnehmungskonventionen anknüpfen und so eine Wahrnehmungskonstanz und -sicherheit bieten zu können. b) Adaption des Kamerasprachlichen Zwar bekommt die digitale Kamera neue Freiheiten, die in Filmen wie Fight Club (1999), Running Scared (2006) oder Wächter der Nacht (2004) vor allem das Konzept der entfesselten und ‚entkörperlichten‘ Kamera radikalisieren. Im Mainstream-Kino überwiegt aber eindeutig die Adaption einer ‚Durchschnitts-Kamera‘, die gewohnte Bewegungscodes simuliert und mit konventionellen Methoden eher zurückhaltend beobachtet und registriert. Gemäßigte Fahrten und Schwenks, konventionelle Einstellungsgrößen und Blickwinkel dominieren. Letztlich wird über weite Strecken ein gewohnter Raumeindruck etabliert. c) Adaption der kinematographischen Bildordnung Fotorealistische Computerbilder remodellieren die zentralperspektivische Sicht auf die Welt. Die Mimesis an einen kulturellen Topos der Bildwahrnehmung hat mehrere Konsequenzen. Es findet eine Kolonialisierung und Domestizierung des Digitalbildlichen statt, da die symbolische Form der Zentralperspektive ein arriviertes Ordnungs- und Struktursystem reinstalliert. Das Computerbild wird nahtlos in die technisch-mediale Anordnung des Kinodispositivs und somit auch in die konventionalisierte Wahrnehmungsform und -struktur

38

RÜDIGER MAULKO

‚Kino‘ eingeordnet. Wie die analogen Leitbilder illusionieren die digitalen Visualisierungen Einheitlichkeit und Zusammenhang, ein vertrautes Kontroll- und Ganzheitsgefühl wird aktiviert. Folgt man Baudry, so realisiert sich im Kinodispositiv ein weitgehend unbewusstes Regressionsbedürfnis. So schreibt Richter: Für Baudry entspricht der Wunsch, ins Kino zu gehen – und auch die Befriedigung, die das Kinoerlebnis verschafft – dem Regressionsbedürfnis des Menschen, zwischen Repräsentation und Wahrnehmung, zwischen dem eigenen Körper und der Außenwelt nicht mehr trennen zu müssen.19

Selbst wenn der Betrachter um die Künstlichkeit des maschinell Erzeugten weiß und es mit gebührender Distanz betrachtet, leiten sich aus den genannten Strategien spezifische Wirkungs- und Illusionierungspotentiale computerbildlicher Darstellung ab. Indem sich das zentralperspektivische Computerbild wie das analoge Abbild selbstvergessen als ‚Fenster zur Welt‘ und Verweis auf etwas angeblich Vorgegebenes definiert, legt es nahe, dass das Gezeigte nahezu intuitiv und ,so wie ist es‘ direkt erfasst und verarbeitet werden kann. Durch die Anklänge an die Repräsentationsfunktion des Abbildes, das etwas einmal tatsächlich Dagewesenes vergegenwärtigt, will auch das niemals Dagewesene präsenter und substantieller erscheinen. Schon dies zeigt: der affirmative Computerrealismus beutet nicht nur die Authentizitäts- und Realismuseffekte des etablierten Leitbildes aus. Zugleich zielen die Adaptionen von Transparenzprinzip und Verweischarakter auf Immersion und die Identifikation mit dem im Bild Dargestellten. Im vertrauten Look des Filmischen fällt es Computerbildern auch wesentlich leichter, gewisse Erfahrungsmuster, Empathien, Emotionen, Identifikationsmechanismen und Erwartungshaltungen bei den Zuschauern abzurufen, die diese im Laufe ihrer Mediensozialisation mit den analogen Leitbildern und ihren Darstellungskonventionen verknüpft haben. Im gleichen Atemzug wird quasi automatisch der Charakter des Computerbildes als künstliches Maschinenartefakt in den Hintergrund gedrängt. Akzeptanz und illusionistische Wirkung des Synthetischen nehmen auch dadurch beträchtlich zu. Ergänzend kommen Strategien der Objekt- und Gegenstandsmodellierung hinzu, die in Anlehnung an die Ikonizität des filmisch-fotografischen Abbildes Plastizität und Materialität simulieren und den Detailreichtum erhöhen.

19

Sebastian Richter: „Die Magie des Realen. Digitaler Realismus im Film.“ URL: http://www.sebastianrichter.de/richter_magie.pdf (Letzter Zugriff: 01.09.10).

SYNTHETISCHER FOTOREALISMUS IM KINO

39

Resultat des engen Zusammenspiels von bildlichen Darstellungsweisen und modellierten Darstellungsinhalten sind nahezu taktile Qualitäten, die gezielt an alltägliche sinnliche Erfahrungsmuster des Ertastens und Erspürens anknüpfen. Die Fortschreibung von Visualisierungsstandards geht im Kino einher mit einer Konstanz arrivierter Codes der Figurendarstellung und -inszenierung, wenn etwa Fantasiefiguren in Avatar mit pseudo-menschlichen Looks, Gesten und Mimiken versehen werden. Beliebt sind auch Handicaps bei der Vermenschlichung des Synthetischen. So werden Kunstfiguren des Öfteren mit Brillen ausgestattet, die optische Brechungen und Vergrößerungen physikalisch korrekt imitieren. Sämtliche Strategien haben ein gemeinsames Ziel: Gerade in narrativen und werbeorientierten Kontexten soll man sich dem Gezeigten nicht so leicht entziehen können, Distanzierungsmechanismen sollen von vornherein ausgeschlossen werden. Dabei geht es – vor allem bei der Figurenund Charakterzeichnung – auch um Berührung im emotionalen Sinne. Eine ungewohnt perfekte und sterile Technoästhetik, die keinen Bezug zur realen Erfahrungs- und Wahrnehmungswelt der Rezipienten hat und mit nichts Vergleichbarem relationiert werden kann, wirkt hingegen fremdartig, schafft Distanz, irritiert und stößt im schlimmsten Fall auf Ablehnung. Setzten synthetische Computerbilder ausschließlich auf das technisch Machbare und ignorierten dabei vollständig Referenzen an arrivierte Bildtypen und die daran gekoppelten Darstellungs- und Wahrnehmungskonventionen, wären sie in vielen Bereichen nicht massenkompatibel und im direkten Vergleich mit anderen Medienbildern schlichtweg nicht konkurrenzfähig. Als idealtypische Techno- und Simulationsbilder wären sie auch kaum in der Lage, den Funktionen und Anforderungen des konventionellen Erzählens und Darstellens gerecht zu werden. Speziell die Tendenzen zum Materiellen und visuell Konkreten sind Beleg dafür, dass digitaler Fotorealismus zentraler Bestandteil eines Aneignungs- und Metaphorisierungsprozesses ist. Im engen Zusammenspiel mit der bildmedialen Anwendungspraxis stellt eine an sich abstrakte und potentiell universal verwendbare Erzeugungstechnik unter Beweis, dass sie bestimmte Zwecke erfüllen und zugleich konventionalisiert-massentaugliche Veranschaulichungs- und Visualisierungsformen hervorbringen kann. Synthetischer Fotorealismus ist somit ein anschauliches Beispiel dafür, dass und wie das an sich Ungreifbare kulturalisiert, medialisiert, spezifiziert und z. B. im Kino narrativ funktionalisiert werden kann. Zur Adaption des Filmisch-Fotografischen gehört auch die Ausgestaltung der Kamera. Im Vergleich zu den synthetischen Bildwelten des Zeichentrickfilms nehmen Kamerabewegungen signifikant zu. Sie verstärken nicht nur den Eindruck des Dynamischen, sondern auch die Strategien

40

RÜDIGER MAULKO

des Raumillusionismus. Eine zunehmende Perspektivvielfalt verschmilzt mit einem bislang noch nicht gesehenen Aktionismus synthetischer Kunstfiguren, die sich immer häufiger bewegen wie abgelichtete Charaktere.

Digitaler Fotorealismus als kreatives und stilistisches Konzept In der bildmedialen Anwendungspraxis hat sich digitaler Fotorealismus, der umfassend konstruktiv und semantisch-konzeptionell durchdrungen werden kann, von jeher als kreatives und stilistisches Konzept definiert. Dabei wird nicht nur auf Stile, Illusionierungs- und Formalästhetiken des Realismus in der Malerei zurückgegriffen.20 Konventionelle Transparenzkonzepte, die sich am Continuity-System des klassischen Hollywoodfilms orientieren, sind heute in Computeranimationsfilmen ebenfalls selbstverständlich. Das Gezeigte wird auch dahingehend filmischer, dass zunehmend Stilmittel kinosprachlicher Szenenauflösung adaptiert werden (z. B. Schuss-Gegenschuss). Filmische und malerisch-künstlerische Stilmittel unterstützen teilweise das mimetische Anliegen, teilweise werden sie genutzt, um weit in Bereiche des Imaginativen und Fiktiven vorzudringen. So gelten computergenerierte Dinosaurier seit dem Meilenstein Jurassic Park (1993) als Musterbeispiele eines Gestalt- und Oberflächenrealismus, der sich eng an wissenschaftlichen Erkenntnissen orientiert. Vergleichsmöglichkeiten fehlen allerdings und niemand weiß genau, wie ein real existierender Dinosaurier über sein Skelett hinaus wirklich ausgesehen hat. In der Visualisierungspraxis wird daher etwa bei der Oberflächen- und Farbgestaltung effektvoll manipuliert und stilisiert.21 Außerdem gehen die Macher in puncto Akti20

21

Die illusionistische Malerei blickt auf eine lange Tradition zurück. Sie beginnt bereits mit der antiken Kunst, die sich weitgehend am Ideal der Mimesis orientierte, und setzt sich anschließend in der illusionistischen Malerei der Renaissance fort. Jüngeren Datums sind die Bilder der fotorealistischen Malerei, die um 1960 vor allem in den USA Fuß fasste. Die illusionistische Malerei wird häufig auch als „Trompe-l’oeil“ bezeichnet. Vgl. zum Illusionismus Sachs-Hombach, Klaus: „Illusion und Repräsentation. Bausteine zu einer Theorie bildlicher Kommunikation.“ In: Evelyn Dölling (Hrsg.): Repräsentation und Interpretation. Berlin 1998 (=Arbeitspapiere zur Linguistik Bd. 35), S. 125-145. Zur Wissenschaftlichkeit von Dino-Sendungen im Fernsehen äußert sich der Paläontologe Dave Unwin, der an der Produktion Die Stunde der Titanen (Originaltitel: Walking with Dinosaurs’ Special: Land of Giants) beteiligt war, wie folgt: „Nie-

SYNTHETISCHER FOTOREALISMUS IM KINO

41

onsradius, Interaktion und Bewegungsfreiheit der animierten Figuren höchstwahrscheinlich weit über das archäologisch Belegte hinaus. Trotz der gestalterischen Freiräume müssen die Stilisierungen im Rahmen bleiben. Fotorealismus ist ein äußerst sensibler Darstellungsmodus, der behutsam ins Bild gesetzt werden muss. Explizite Regelverstöße, radikale Stilisierungen und Anti-Realismen, wie lila Sonnenuntergänge, glänzende Baumrinden oder schwebende Gebäude sind nicht mit einem konsequenten Fotorealismuskonzept kompatibel. Gibt sich das digitale Bild ausdrücklich als gestaltetes Artefakt und als Spielwiese der kreativen Fantasie zu erkennen, wird das Transparenzprinzip fotorealistischer Visualisierung unterlaufen und es entstehen andere Visualisierungsformen (z. B. Surrealismus).

Digitaler Fotorealismus als Metakonzept In weit stärkerem Maße als der etablierte Fotorealismus des Filmisch-Fotografischen, der mittlerweile ein nahezu unsichtbarer (bild)kultureller Topos geworden ist und dessen artifizielle Anteile durch vielfältige Strategien konsequent in den Hintergrund gedrängt werden (Transparenzprinzip etc.),22 kultiviert der digitale Nachfolger ein Eigenleben als Meta- und Medienbild. Typisch ist, dass synthetischer Fotorealismus äußerst bewusst hergestellt wird. Als Metakonzept, das einen hochgradig konventionalisierten Darstellungsmodus mit allseits vertrauten und vielfach gesehenen Wahrnehmungsbildern illusioniert, ist er in der Medienbildproduktion permanent Ziel und Gegenstand von strategischen Überlegungen, Reflexions- und Abwägungsprozessen. Zentral werden in der Bildmodellierung wirkungsästhetische Überlegungen, die speziell in narrativen Kontexten auf Glaubwürdigkeit, Nachvollziehbarkeit und Wirkungsmächtigkeit spekulieren. Auf der Rezeptionsebene wird Fotorealismus ebenfalls zu einem Metakonzept mit selbstreflexiven Zügen. Technizität und darstellungsstrategische Gemachtheit des Gebotenen sind in der Regel offensichtlich. Trotz Immersion und Durchblickmodus steht zur Disposition, dass man auf ein synthetisches Maschinenbild blickt, das ein anderes Bild- und Darstel-

22

mand weiß, wie sich Dinosaurier verhielten, welche Farben sie hatten oder was für Laute sie von sich geben. […] Leider haben sie (die Fernsehmacher; Anm. d. Verf.) nicht immer auf uns Wissenschaftler gehört.“ Dave Unwin zit.n. Holst, Christian: „Zeitreise zu den Dinos.“ In: TV-Today Nr. 11/2003, S. 17. Vgl. hierzu Krämer: „Vom Trugbild zum Topos. Über fiktive Realitäten.“ (wie Anm. 10)

42

RÜDIGER MAULKO

lungskonzept simuliert. Der digital-mimetische Fotorealismus spitzt eine duale Erlebnisstruktur zu, die laut Schweinitz generell bei der Filmrezeption wirksam ist. Sie ist gekennzeichnet durch „eine oszillierende Gleichzeitigkeit von hochgradiger Immersion und dem nicht ausgeschalteten Bewusstsein, es mit einem Kunstprodukt zu tun zu haben.“23 Speziell in einem synthetischen Darstellungsmodus vermischt sich dieses Bewusstsein mit Prüfungs- und Begutachtungsroutinen. Mehr oder weniger bewusst sind Rezipienten permanent damit beschäftigt, internalisierte Wahrnehmungsmuster in Stellung zu bringen und die digital-mimetische Annäherung an ein vielfach gesehenes Wahrnehmungsbild nach Plausibilitätsmaßstäben zu beurteilen. Laut Studer und van den Berg äußert sich die teils analytische, teils spielerische Ausdeutung darin, dass wir die Bildwelten beim Betrachten einer Art naturalistischer Prüfung unterziehen: wo immer der Blick an einem bekannten Objekt hängen bleibt, versuchen wir, die Differenz des Abgebildeten zum Eindruck des realen Objektes zu werten; als Makel, wenn das technische Medium Computer und dessen Anwenderin in der Imitation offenbar versagt haben, als Steigerung, wenn der Gegenstand des Vergleichs beim Betrachten Eigenschaften von Erinnertem annimmt, die ihn glaubwürdig machen.24

Da unsere Wahrnehmung auf Artgenossen und deren Gesichter spezialisiert ist, wird diese Prüfung besonders intensiv und kritisch betrieben, wenn menschenähnliche Akteure zu sehen sind. Gerade in narrativen Kontexten beeinflusst die Plausibilitätsprüfung die Identifikationsbereitschaft mit den virtuellen Ebenbildern sowie die Neigung, sich in das Dargestellte hineinzuversetzen. Neben der naturalistischen provozieren fotorealistische Kunstwelten eine illusionistische Prüfung. Ein Anreiz liegt für die Kinokonsumenten darin, durchaus bewusst die Fortschritte und den zunehmenden Kontrollzuwachs bei der Formung der neuartigen Bildwelten nachzuvollziehen und mit erworbenem Alltags-, Medien- und Wahrnehmungswissen abzugleichen. Wenn schon nicht als Macher, dann doch zumindest als Neugierige und Eingeweihte wollen die Rezipienten an der Schöpfung einer 23

24

Schweinitz, Jörg: „Totale Immersion und die Utopien von der virtuellen Realität. Ein Mediengründungsmythos zwischen Kino und Computerspiel.“ In: Neitzel, Britta/Nohr, Rolf (Hrsg.): Das Spiel mit dem Medium. Partizipation – Immersion -Interaktion. Zur Teilhabe an den Medien von Kunst bis Computerspiel. Marburg 2006, S. 136-153, hier: S.147. Studer, Monica/van den Berg, Christoph: „DPI – Dirt Per Inch?“ URL: http:// www.vuedesalpes.com/text5_d.html (Letzter Zugriff am 11.10.10).

SYNTHETISCHER FOTOREALISMUS IM KINO

43

zweiten Natur aus dem Computer teilhaben und dabei nicht zuletzt auch ihre narrative Illusionsmächtigkeit überprüfen. Die distanzierte Betrachtung ist Teil eines mittlerweile ritualisierten illusionistischen Spiels, das Bildproduzenten und Rezipienten analog zum jeweiligen technischen Entwicklungsstand ständig aufs Neue miteinander zelebrieren. Gerade bei aufwendigen Kinoproduktionen knüpfen sich Erwartungshaltungen nicht zuletzt an eine illusionistische und fotorealistische Leistungsschau, die Produktionen wie Final Fantasy (2001), Beowulf oder Avatar ihrem Publikum auch aus Marketinggründen ganz gezielt offerieren. Artefaktcharakter und Entwicklungsdynamik zeichnen wesentlich dafür verantwortlich, dass das Metakonzept ‚Fotorealismus‘ ein ebenso expliziter wie beliebter Gegenstand eines kollektiv-öffentlichen Diskurses über die Beherrschbarkeit von Bildern und Bildwelten, die Verwendungsmöglichkeiten von synthetischen Maschinenbildern sowie über die Visualisierungsmächtigkeit einer genuinen Rechenmaschine ist. Außerdem stellt synthetischer Fotorealismus grundlegende Darstellungs- und Wahrnehmungsmodi des Abbildlichen zur Disposition, wie Realismusanschein, Immersion, Ikonizität und Transparenz. In aller Öffentlichkeit hält es dem Abbild einen Spiegel vor, macht als synthetischer Klon mit einem fingierten Blick auf etwas vermeintlich Vorgegebenes nicht zuletzt auch die technischen und darstellungsstrategischen Gemachtheiten, Täuschungen und Widersprüchlichkeiten des analogen Vorbilds spürbar. Vielfach geschieht dies natürlich auch auf augenzwinkernde Art, dezente Regelverstöße sind des Öfteren Teil des ‚pseudo-abbildlichen‘ Spiels mit dem filmisch-fotografischen Leitbild. Zum Metakonzept synthetischer Fotorealismus gehört noch ein weiterer Aspekt. Ein wesentlicher Teil der derzeitigen Faszination resultiert schlichtweg aus der Fehler- und Störanfälligkeit, die permanent und immer wieder aufs neue Diskursfähigkeit generiert und reproduziert. Die neuartige Visualität muss letztlich defizitär sein, sich vor den Augen der Öffentlichkeit schrittweise weiterentwickeln und in Gratwanderungen ihre spezifische ästhetische Verfasstheit zur Schau und Diskussion stellen, um dauerhaft Aufmerksamkeit erzeugen und ihre bildmediale Relevanz unterstreichen zu können.25 Zumindest derzeit ist es gerade die dezidierte 25

Ein Beleg für die diskursiven Potentiale des Fotorealismus ist die Theorie des „Uncanny Valley“, die einerseits in der Praxis digitaler Figurengestaltung äußerst einflussreich ist, andererseits intensiv diskutiert wird. Wissenschaftler kritisieren die populäre Uncanny Valley-Theorie, die Masahiro Mori 1970 nicht im Kontext der Medien und ihrer Rezeption, sondern im Rahmen der Robotik entwickelte, als

44

RÜDIGER MAULKO

Konkurrenzsituation mit dem Filmisch-Fotografischen sowie das demonstrative und nach wie vor experimentelle Spiel mit der Illusionsmächtigkeit eines Maschinenbildes, das uns aufhorchen lässt. Produzenten und Konsumenten wollen an jedem neuen Entwicklungsschritt und ‚Meilenstein‘, der möglicherweise Geschichte schreiben könnte, teilhaben. Digitale Mimesis muss sich nicht nur im Wettstreit mit anderen Visualisierungsformen im Universum der technischen Bilder klar positionieren. Gerade fotorealistisch geprägte Großproduktionen wie Beowulf und Avatar sind Ausdruck einer medialen Überbietungsdynamik, die im Erlebniskino auf besonders fruchtbaren Boden fällt. Jede Filmproduktion will vorhergehende auf fotorealistischer Ebene übertreffen, auf nationaler und globaler Ebene ist digitaler Fotorealismus schon längst ein unverzichtbares medienökonomisches Konzept, das Eye Catcher-Potentiale marketingstrategisch verwertet und inszeniert. Die Werbe- und Lockfunktion digitaler Mimesis ist vor allem bei Spitzenproduktionen zentral, die ihre immensen Produktionskosten wieder einspielen müssen. Die ohnehin schon hohen Budgets, die für die Herstellung qualitativ hochwertiger Computerbildwelten grundsätzlich notwendig sind, werden bei Spitzenproduktionen oft noch dadurch zusätzlich in die Höhe geschraubt, dass mit teuren, unerprobten und teils noch unausgereiften Verfahrenstechniken ausdrücklich Neuland bei der fotorealistischen Visualisierung betreten wird. Der Film Avatar, der nicht nur die innovative 3D-Technik, sondern auch andere neuartige Verfahren z. B. bei der Gesichts- und Figurenanimation erprobte, ist das jüngste Musterbeispiel dieser kostspieligen, um Aufmerksamkeit ringenden Überbietungsdynamik.26 Die ökonomischen Aspekte sind im Verbund mit Störanfälligkeit und Diskursorientierung maßgeblich für die Entwicklung fotorealistischer Visualisierung. Ohne diese umfassenderen Faktoren würden sich mimetisch ausgerichtete Computerästhetiken sicherlich anders entwickeln und speziell in der erlebnisorientierten Filmindustrie schnell an Bedeutung verlieren. Letztendlich muss ein technikgebundenes und zugleich wahrnehmungsästhetisch ausgerichtetes Darstellungskonzept immer mit der eigenen Historizität, Vergänglichkeit und Entwicklungsdynamik leben. Was

26

„pseudowissenschaftlich“, simplifizierend und fordern ausreichende empirische Belege. Vgl. zum Uncanny Valley Flückiger, Barbara: Visual Effects. Filmbilder aus dem Computer. Marburg 2008, S. 417-467 (speziell S. 451-461). Vgl. auch Geller, Tom: „Overcoming the Uncanny Valley.“ In: IEEE Computer Graphics and Applications. Volume 28, Issue 4 (July 2008) S. 11-17. URL http://www.mova.com/pdf/ IEEE_Computer_Graphics_Uncanny_Valley.pdf (Letzter Zugriff: 11.10.10). Die Angaben zu den Produktionskosten schwanken zwischen 250 und 700 Millionen Dollar.

SYNTHETISCHER FOTOREALISMUS IM KINO

45

in einer Entwicklungsphase als fotorealistisch angesehen wird, kann zu einem späteren Zeitpunkt schon wieder als veraltet und unnatürlich gelten. So wirkt der Animationsfilm Final Fantasy, der 2001 als mustergültige High End-Fotorealismusproduktion gefeiert wurde, im direkten Vergleich mit der aktuelleren Produktion Beowulf schon relativ antiquiert und artifiziell. Eine neue Entwicklungsstufe könnte Avatar einläuten. Durch die Verschmelzung von konventionellem Fotorealismus und 3DKino könnten sich möglicherweise in den nächsten Jahren ganz neue Vorstellungen von Realismusillusionen, Referenzästhetiken und digitaler Mimesis etablieren, die heute gültige Visualisierungsstandards hinter sich lassen. Wenn man davon ausgeht, dass sich auch über die digitale Mimesis hinaus die medialen, stilistischen und kulturellen Auffassungen von Realismuskonzepten zeit- und entwicklungsbedingt verändern, gewinnt diese Problematik an Tragweite und Komplexität.

Digitale Mimesis und Hybridisierung Fotorealismus wird im Kino eher selten in Reinform realisiert. Viel häufiger sind Produktionen, die Realismusstrategien in umfassendere Darstellungssysteme integrieren. Fotorealistische Bildelemente werden im Kino z. B. häufig in Mischbilder integriert, die sich abbildillusionistisch geben. Wenn etwa ein fotorealistisches Gebäude aus dem Computer perfekt und nahtlos in einen real fotografierten Straßenzug integriert wird, bleibt der Hybridcharakter weitgehend verborgen. Mimesis ist dann ein transparenter und impliziter Baustein, der sich voll und ganz in den Dienst einer pseudo-fotografischen Illusionierungsstrategie stellt. Andere Strategien setzen auf explizitere Hybridisierungen, die Fotorealismus auf deutlich wahrnehmbare Weise mit Gegensätzlichem (Abstraktion, Antirealismus, Surrealismus) kombinieren. So nehmen Filmproduzenten häufiger eine sichtbare Verfremdung und Angleichung der verwendeten fotorealistischen Bildquellen vor. In Avatar z. B. wurde das kamerabasiert gedrehte Filmmaterial farblich verfremdet. Anschließend wurde es in Hybridcomposites mit fotorealistischen Bildanteilen aus dem Computer verschmolzen, die ebenfalls der spezifisch bläulich-grünlichen Farbigkeit des Filmlooks angepasst wurden. Ergebnis sind spannungsgeladene und doch homogen anmutende Bildwelten, die mit einer paradoxen Gratwanderung aus Fotorealismus, Abstraktion und Antirealismus faszinieren sollen. Derartige Grenzüberschreitungen prägen auch die objekt- und gestaltorientierte Modellierung. Im Film Beowulf geht ein Gestalt-, Material-

46

RÜDIGER MAULKO

und Oberflächenrealismus in die Kreation von surreal-fantastischen Hybridfiguren ein, die sich am Aussehen der Minotaurus-Figur aus der griechischen Mythologie orientieren. In Avatar agieren Fantasiewesen in einer Hybridwelt aus surreal-fotorealistischen Landschaften. In beiden Filmen kommen auch strukturell ansetzende Realismusstrategien zur Anwendung. So werden per Motion Capturing Bewegungsmuster von realen Personen auf die virtuellen Figuren übertragen. In der Filmtrilogie Herr der Ringe (2001-2003) wurde eine Software mit dem Namen Massive eingesetzt, die in den opulenten Schlachtszenen die Armeen der Orks anhand biologischer Verhaltensmuster automatisch steuerte. Strategien des Hybridästhetischen finden sich auch jenseits abendfüllender Kinofilme. In dem aufwendig produzierten Kurzfilm Ghosts (1997) wird ein strukturell ansetzender Bewegungsrealismus einem Skelett eingepflanzt, das sich genauso bewegt wie der reale Musiker Michael Jackson. U.a. wird dessen Spezialität Moonwalk detailgetreu nachgetanzt. Ein Skelett, das eigentlich Tod, Vergänglichkeit, Gebrechlichkeit und Unbeweglichkeit symbolisiert, wird per Motion Capture mit einer geschmeidigen und naturalistisch anmutenden Bewegungsdynamik ausgestattet. Eine besonders zugespitzte Variante des Ambivalenzästhetischen findet sich in dem Musikvideo Go to Sleep (2003) von Radiohead. In dem Clip agiert ein virtueller Doppelgänger des Radiohead-Sängers Thom Yorke bewegungsrealistisch, auch die Physiognomie des Computerwesens erinnert an das reale Vorbild. Gleichzeitig verfährt die Charaktergestaltung betont antirealistisch und verfremdet den Avatar nach den Regeln des Kubismus. Paradoxe und kontrastbetonte Bildsprachen werden auch dadurch erzeugt, dass innerhalb eines fotorealistischen Szenarios physikalische Gesetze außer Kraft gesetzt werden und somit punktuell dem Realismuseindruck sowie den Konventionen des Abbildlichen und Abbildillusionistischen entgegenarbeitet wird. So ist in der Autowerbung häufiger ein fotoreales Fahrzeug zu sehen, das urplötzlich vom Boden abhebt und emotionalisierende Imagewerte wie Ungebundenheit, Freiheit und Unbeschwertheit auf spielerische und humorvolle Weise veranschaulicht. In Avatar werden vergleichbare ästhetische Grenzüberschreitungen u.a. mit Hilfe von imposanten Gesteinsbrocken inszeniert, die als fotorealistisch begrünte Miniatur-Landschaften schwerelos durch die Atmosphäre schweben. Letztlich wird in derartigen Produktionen eine Grundregel fotorealer Bildmodellierung und -gestaltung visualisiert, die Brugger wie folgt formuliert:

SYNTHETISCHER FOTOREALISMUS IM KINO

47

Eine sich durch die mathematische Natur des Simulationsmodells ergebende Tatsache ist die Möglichkeit, vom simulierten System abzuweichen. Weder das Simulationsmodell selbst noch die sich darin befindlichen Objekte sind an die physikalischen Verhaltensmuster gebunden, die sie simulieren (z. B. Gravitation, Lichtausbreitung, Licht-Schatten-Beziehung, Spiegelung usw.).27

Die Beispiele zeigen, dass digitale Mimesis in Gestalt des synthetischen Fotorealismus nicht nur auf Affirmation und Bestätigung des Altbekannten angelegt ist, sondern häufig dazu beiträgt, das Spannungsgeladene, visuell Auffällige, Unkonventionelle, teils sogar ansonsten Unsichtbare sichtbar zu machen. Denn da digitale Mimesis umfassend modellierbar ist und sehr gezielt, ja fast mit chirurgischer Präzision, eingesetzt werden kann, ist sie hochgradig anschlussfähig und kann mit vielen Visualisierungsformen und Ästhetiken kombiniert werden. Resultat sind neuartige Synthesen und grenzüberschreitende Ambivalenzästhetiken aus Fotorealismusillusion, Abstraktion, Fantasy-Komponenten, Anti- und Surrealismus. Filme wie The Incredibles (2004) oder Surf ’up (2007) verarbeiten zudem gezielt Stilmerkmale des Dokumentarfilms (z. B. Wackelkamera, Schwarz-weißPassagen, Interviews), die in einer synthetischen und zugleich fantastischen Umgebung eine ganz eigene Wirkung und Ästhetik entfalten. Derartige Verschmelzungen, die meist das bisher Unvereinbare und Unfotografierbare zusammenbringen und dabei mit Erwartungshaltungen und Wahrnehmungskonventionen spielen, konnten auf voll- und teilsynthetischer Ebene bislang nicht realisiert werden und wirken daher derzeit noch relativ unverbraucht und innovativ. Als zentraler Baustein von Mischästhetiken wird Mimesis zu einer explizit sichtbaren Größe. Sie inszeniert sich selbstbewusst als signifikante Darstellungs- und Illusionierungsstrategie mit Eye-Catcher-Potential. Gleichzeitig bewegen sich auch die innovativen Hybridwelten in konventionellen Ordnungssystemen, wie Handlungslogik, tradierten Erzählmustern und zentralperspektivischer Darstellung. Im Hybridästhetischen oszilliert das Mimetische ständig zwischen den Polen bestätigend und innovativ, implizit und explizit.

27

Brugger, Ralf: Professionelle Bildgestaltung in der 3D-Computergrafik. Grundlagen und Prinzipien für eine ausdrucksstarke Visualisierung. Bonn/Paris 1995, S.4.

48

RÜDIGER MAULKO

Simulative Interpolations- und Effektästhetiken und Mimesis Dass sich mimetische Tendenzen auch dort finden, wo man sie am wenigsten erwartet, belegen interpolierte Rastergrafiken, die maschinennah in hochauflösender Kinoqualität generiert werden. Ein relativ junges Verfahren der Bildgenerierung ist das sogenannte Image Based Modelling and Rendering (IBMR). Die „Methode zur interaktiven Rekonstruktion von 3D-Modellen aus Fotografien“28 geht auf ein Vermessungsverfahren (Photogrammetrie) zurück, integriert aber auch Aspekte der Panoramafotografie. Beim Image Based Rendering werden Geometrie und Oberflächeneigenschaften von 3D-Objekten nicht mehr separat definiert. Vielmehr stellen Bilder den Ausgangspunkt und das Ergebnis der Renderpipeline dar. Durch automatisierte Bildberechnungen werden dem Anwender trotz gewisser Rechenzeiten viele Arbeitsschritte der Modellierung erspart. Innovativ und beispiellos ist das Verfahren auch deshalb, weil es über mehrere Bearbeitungsschritte hinweg aus 2D-Bildern eine 3D-Illusion generieren kann. Beispielsweise beim View Morphing-Verfahren werden Zwischenstadien zwischen zwei Fotografien berechnet. Nachdem mehrere Objektansichten mit einer Realkamera aus unterschiedlichen Blickwinkeln aufgenommen wurden (z. B. Vorder- und Seitenansicht), berechnen Interpolationsalgorithmen intermediäre Perspektiven. Ergebnis ist eine raumillusionistisch stimmige Bewegtbildsequenz, die eine virtuelle Rundumfahrt um das ursprünglich nur aus wenigen Perspektiven abgelichtete Ausgangsobjekt zeigt. Das gennannte Beispiel ist nur eine Anwendungsvariante, IBMR-Verfahren werden im Kino in unterschiedlichen Bereichen eingesetzt. Neben Körper- und Gesichtsanimationen lassen sich etwa auch fotorealistische Hintergründe für Tricksequenzen generieren. Frühe Visualisierungen finden sich in etwa in dem Kinofilm Fight Club, in dem eine brennende und explodierende Küche bildbasiert gerendert wurde. In The Matrix (1999) wurden mit IBMR virtuelle Sets generiert, die in die Herstellung der berühmten Bullet Time- und Time Slice-Effekte einflossen. Legendär und vielzitiert sind heutzutage die Trickcomposites, in denen der Hauptdarsteller Neo (Keanu Reeves) einer überdimensionalen Gewehrkugel (engl.

28

Flückiger: Visual Effects (wie Anm. 25), S. 70. Eine explizite Modellrekonstruktion ist beim IBMR oft intendiert, muss aber nicht bei allen Verfahren zwingend durchgeführt werden.

SYNTHETISCHER FOTOREALISMUS IM KINO

49

Bullet) in Superzeitlupe ausweicht, während die Kamera das Szenario per Rundumfahrt in Echt- bzw. Normalzeit durchmisst. IBMR arbeitet nicht mehr gezielt an der Remodellierung einzelner Realismusaspekte und filmisch-fotografischer Charakteristika, sondern leitet aus Bilddatensätzen direkt neue Datensätze ab, die in Form von Rastergrafiken zu sichtbaren und perspektivisch stimmigen Darstellungen werden. Als ikonische Reflexe der reinen Berechnung zeugen sie unmittelbar von den erzeugungstechnisch-simulativen Potentialen der Datenverarbeitung. Dass diese Visualisierungen den Maßstäben eines qualitativ hochwertigen Fotorealismus gerecht werden, ist weniger Resultat eines gestalterischen und illusionistischen Kalküls, sondern ein verfahrenstechnischer Selbstläufer. Es findet ein impliziter Transfer des Mimetischen statt, denn per Interpolation ‚erben‘ die Zwischenbilder automatisch die fotorealen Darstellungsqualitäten der Referenzbilder. Trotz der simulativen und innovativen Ansätze bewegt sich aber selbst IBMR nicht in einem ‚Nirvana‘ reiner Kalkulation. Auf mehreren Ebenen spielen mimetische und anthropologische Aspekte eine Rolle. So ist das Resultat der Berechnungen ein perspektivisch stimmiger und dynamischer Kamerablick, der fotorealistische Darstellungsinhalte präsentiert. Die Referenzbilder, an deren Erzeugung meist eine Realkamera sowie ein semantisch-konzeptionell operierendes und auswählendes Subjekt maßgeblich beteiligt sind, setzen klare Bezugspunkte. Menschen agieren auch als Regulativ. Sie registrieren im Gegensatz zu Computern, die auf dem darstellungsstrategischen ‚Auge‘ blind sind, desillusionierende und kontraproduktive Berechnungsfehler und korrigieren diese durch Nachbesserungen. Komplexe Projekte werden sorgfältig vorbereitet und höchst zeitintensiv am Computer prävisualisiert. Im Verbund sollen menschliche Planung und digital-simulative Prävisualisierung mögliche ‚Fehlleistungen‘ nonsemantisch interpolierender Automaten von vornherein unterbinden. Ein Grenzgänger zwischen technischer Simulation und Mimesis ist auch ein mittlerweile legendärer Bildeffekt, der seit den späten 1980ern als explizite visuelle Inkarnation digitaler Simulation und Technoästhetik angesehen wird. Gemeint ist das allseits bekannte Morphing, das im Kino in der Regel als Visualisierungsvariante Biomorphing (Metamorphosen von Menschen und Tieren) realisiert wird. Der Wandlungsprozess ist das Resultat simulativer Interpolationen, die auf Pixelebene eine stufenweise Anpassung zwischen Anfangs- und Endbild vornehmen und so äußerst geschmeidige Transformationsvorgänge hervorbringen. Trotz der an sich referenzlosen Berechnung von Zwischenbildern spielt der anthropologische Faktor eine maßgebliche Rolle, denn dem Anwender

50

RÜDIGER MAULKO

obliegen viele semantisch-konzeptionelle Aufgaben: Menschen wählen im Vorfeld passende Bildmotive aus, bei der anschließenden technischen Realisierung des Biomorphingeffekts legen sie das konkrete Anfangs- und Endbild fest.29 Dabei wählen sie die Morphingregionen gezielt nach einer Struktur- und Motivähnlichkeit aus und definieren über ein Gitternetz zentrale Morphingsektionen. Zudem haben Anwender die Möglichkeit, die Zahl der kalkulierten Zwischenbilder festzulegen. Desto mehr Zwischenstadien, desto flüssiger läuft der Effekt ab. Gleichzeitig erhöht sich natürlich die Rechenzeit. Dass Morphingeffekte auf der Berechnung von Zwischenbildern beruhen, ist nicht nur technisch begründet, sondern ebenfalls auf mimetischanthropologische, rezeptions- und darstellungskulturelle Aspekte zurückzuführen. In Anlehnung an das filmisch-fotografische Bewegtbild werden interpolierte Datensätze in eine medientaugliche, sinnlich wahrnehmbare und kognitiv verarbeitbare Form transformiert. Der Computer generiert spezifisch strukturierte Bildabfolgen, die gezielt die figurative Differenz von Phasenbildern rekonstruieren und dadurch nach filmischem Vorbild Bewegung illusionieren sollen. Eine weitere mediale Inspirationsquelle dieses Vorgehens ist die Stopptricktechnik des klassischen Zeichentrickfilms. Zur mimetischen Konzeptionierung gehört darüber hinaus, dass sich der konventionelle Biomorph gegenstands- und objektorientiert vollzieht. Außerdem hält er sich weitgehend an die zentralperspektivische und kamerasprachlich definierte Ordnung des Abbildlichen. Das Transparenzprinzip, das einen Durchblick illusioniert, wird beibehalten. Es scheint so, als ob sich der Morph innerhalb des Blickfelds und im Blickmodus der Kamera abspielt, sich sozusagen unmittelbar ‚live vor Ort‘ und ‚am realen Objekt‘ ereignet. Morphing impliziert also Topoi der Wahrnehmung, die mittlerweile zu einer Kulturtechnik geworden sind. Zugleich schreibt der Effekt natürlich eine uralte Tradition filmischer Illusionsbildung fort: In kurzer Zeit setzt er eine quasi-natürliche Wandlung eines Protagonisten ins Bild, die sogar narrative Züge enthält und auch als Mini-Geschichte einer Transformation von Anfang bis Ende betrachtet werden kann. Obwohl Morphing durchaus als rein technischer Vorgang aufgefasst werden kann, ist es erst durch die mediale Metaphorisierung und Kultura29

Streng genommen geht der menschliche Einfluss noch weiter, da Technikentwickler und Programmierer bereits im Vorfeld eine Software konzipieren und zur Anwendungsreife bringen müssen, mit der sich dann in der bildmedialen Praxis die Visualisierungsform Biomorph realisieren lässt.

SYNTHETISCHER FOTOREALISMUS IM KINO

51

lisierung zu einem relevanten Faktor des visuellen Diskurses geworden. Das Verfahren hätte ohne die anthropologische Ausformung als Visualisierungsvariante Biomorph wohl niemals vergleichbare illusionistische Wirkungen und Eye Catcher-Qualitäten entwickelt. Ausdrucks-, Überzeugungs- und Sprengkraft sind also Resultat einer vielschichtigen Verflechtung und Symbiose von anthropologischen Faktoren und simulativ-apparativer Interpolation, die zweifellos zu den wichtigsten Errungenschaften digitaler Bilderzeugungstechnik zählt. Auch bei der Rezeption, Ausdeutung und Wirkung von Morphingeffekten spielen mimetische und anthropologische Aspekte eine wichtige Rolle. Bislang wurde Morphing, wie es etwa in Terminator 2 (1991) vorkommt, vor allem als Zeichen einer neuartigen Entmaterialisierung und Entkörperlichung angesehen. Interpretationsansätze weisen auch darauf hin, dass das Fluide und Flüchtige visualisiert und dadurch Digital-, Techno- und Trickästhetisches auf explizite und einmalige Weise ins Bild gesetzt wird.30 Obwohl diese Beobachtungen durchaus zutreffend sind, sollte man andere Aspekte nicht aus den Augen verlieren. So würde Bio- und Objektmorphing ohne Referenzen an die widerständige und materiale Instanz ‚Körper‘ kaum funktionieren. Wir sehen ja nichts Entkörperlichtes (das wäre ja unsichtbar), sondern die Auflösung und Verwandlung eines Körpers. Körperlichkeit wird nicht nur mitgedacht, sondern im Durchleben der Effekte imaginär ‚mitgespürt‘. Zur Wirkungsmächtigkeit des Effekts gehören immer auch menschliche und rezeptionsgebundene Aspekte, wie Identifikation, Nachempfinden und Empathie. Gerade die Alltagserfahrung, dass wir nicht aus unserer Haut (und somit aus unserem widerständigen Körper) können, erweckt den Wunsch nach einer Veränderung unserer Gestalt und unserer Identität, den das Morphing nicht nur nachvollzieht, sondern auch konkret visuell realisiert und auf der Leinwand anschaulich veräußerlicht. Körper- und Identitätserfahrungen 30

Vgl. zur Morphing- und Körperdebatte neben Flückiger: Visual Effects (wie Anm. 26) auch Bergermann, Ulrike: „Morphing. Profile des Digitalen.“ In: Löffler, Petra/Scholz, Leander (Hrsg.): Das Gesicht ist eine starke Organisation. Köln 2004, S. 250-274. Hoberg: Film und Computer (wie Anm. 9). Schröter, Jens: „Biomorph. Anmerkungen zu einer neoliberalen Gentechnik- Utopie.“ In: Kunstforum International: Der erfundene Zwilling. Transgene Kunst II. Bd. 158, 2002, S. 84-95. Sobchack,Vivian: „At the Still Point of the Turning World: Meta-Morphing and Meta-Stasis.“ In: Spielmann, Yvonne/Winter, Gundolf (Hrsg.): Bild – Medium – Kunst. München 1999, S. 85-106. Volkart, Yvonne: „Cyborg Bodies. Das Ende des fortschrittlichen Körpers.“ URL: http://www.medienkunstnetz.de/themen/cyborg_ bodies/monstroese_koerper/ (Letzter Zugriff am 11.10.10).

52

RÜDIGER MAULKO

schaffen erst den Zugang und begründen die Relevanz des Effekts, wobei Erfahrung und Erinnerung von Materialität ebenso wichtig sind wie der Wunsch nach ihrer Transformation und Überwindung. Letztlich verschmilzt eine implizite Referenz bzw. Mimesis ans Körperliche mit dem explizit Simulations- und Technoästhetischen. Konkrete Alltagserfahrung trifft auf surreal-irreale Tendenzen der Entkörperlichung und Entwirklichung. Morphing lässt sich somit als Grenzerfahrung, als simulativ-mimetische Hybridkonstruktion und tricktechnisch suggerierter Schwebezustand zwischen Körperlichkeit und Entkörperlichung lesen. Gleichzeitig kann der Effekt natürlich als Referenz ans Medienbildliche aufgefasst werden, da er Konstanten des filmisch-fotografischen Abbilds wie Gegenständlichkeit, Kontur und Festigkeit reflektiert und transformierend-prozessual überwindet. Dass der Biomorph lediglich eine mögliche Verbildlichungs-, Kulturalisierungs- und Erklärungsform der Erzeugungstechnik Morphing ist, zeigen weitere Visualisierungsvarianten. Speziell das Musikvideo hat noch ganz andere Interpretationen der Interpolationstechnik hervorgebracht. Clipregisseur Michel Gondry hat etwa in dem Clip Like a Rolling Stone (Rolling Stones/1995) mit ‚eckig-disharmonischen‘ und ruckartigen Bildübergängen den dirty bzw. bad morph kreiert. Eine andere Variante ist der strukturorientierte Morph, der etwa in Technovideos wie Culture Flash (Members of Mayday/2002) abstrakte Bildstrukturen ineinander überführt. In der Computeranimation kann der Morph auch in völlig gegensätzlicher Weise eingesetzt werden, nämlich kaum vernehmbar als transparente Hilfstechnik. So kann eine virtuelle Figur ihren Mund auch per Morphing öffnen und schließen. Der implizite Transparenzmorph weist eigentlich keine Merkmale mehr auf, die eine Einstufung der Verfahrenstechnik als innovative, exklusive und spektakuläre Digital- und Technoästhetik rechtfertigen würden. Die Anwendungsbeispiele verdeutlichen, dass eine zweifellos exklusive Eigenschaft des Digitaltechnischen (simulative Interpolation von Bildern) erstens nicht zwangsläufig auf eine spezifische und zweitens nicht automatisch auf eine innovative und revolutionäre Visualität hinausläuft. Einige Ästhetiken sind zwar durchaus innovativ und lassen sich nur mit Computern realisieren, andere sind aber wenig spektakulär. Wie sich die technisch-apparativen Prozesse in den fotorealistischen Computerbildern des Kinos konkretisieren, entscheiden zu wesentlichen Teilen anthropologische und mimetische Vorstellungen und Wünsche bei Produzenten wie Rezipienten.

SYNTHETISCHER FOTOREALISMUS IM KINO

53

Zusammenfassung und Schluss Die Ausführungen belegen, dass es wenig Sinn macht, das Mimetische und das Technische als unvereinbare Pole gegeneinander auszuspielen. Vielmehr sollten sie – bei aller Notwendigkeit zur Konturierung und Abgrenzung einer neuen digitalen Medien- und Visualisierungstechnik – immer auch zusammengedacht werden. Stärker in den Mittelpunkt rücken sollten dabei in der wissenschaftlichen und bildästhetischen Debatte in Zukunft Symbiosen und Synthesen, Schnittstellen und Kompatibilitäten, Konvergenzen, Kontinuitäten, Wechselwirkungen, Widersprüche und Ambivalenzen zwischen digitaler und analoger Visualisierung. Synthetischer Fotorealismus ist ein Musterbeispiel dafür, wie sich digitale Ästhetik in einem komplexen Zusammenspiel von simulativer Erzeugungstechnik und mimetisch-anthropologischer sowie semantisch-konzeptioneller Technikanwendung entwickelt. Generell ist davon auszugehen, dass Fotorealismus kein statisches und auf ewig festgeschriebenes, sondern ein zeitgebundenes und dynamisches Phänomen ist. Es gilt: Was noch vor einigen Jahren als gelungene Umsetzung des Darstellungsmodus galt, ist heute schon vielfach veraltet. Ein derart dynamisches Phänomen operiert permanent als ‚Revisualisierungskonzept‘, das unentwegt von einem komplexen ‚Dauerdiskurs‘ um- und neudefiniert wird. Dieser wird bestimmt durch zahlreiche technische, ökonomische, soziokulturelle, darstellungs-, rezeptionsästhetische und mediale Aspekte sowie menschliche Wunschvorstellungen und Projektionen. Generell trifft folgende Grundregel auch auf den synthetischen Fotorealismus zu: Digitalästhetik ist zu wesentlichen Teilen das, was wir speziell in kulturellen, wahrnehmungsästhetischen und visuellen Diskursen daraus machen, was wir dafür halten und was wir in verschiedenen Phasen der Entwicklung den Visualisierungen zuschreiben, die programmierbare Computer weitgehend selbst oder in engem Zusammenspiel mit menschlichen Technikanwendern generieren. Gerade die spannungsgeladene und sich zugleich gegenseitig befruchtende Konstellation Mensch-Technik bzw. Mensch-Maschine wird auch in Zukunft dafür sorgen, dass synthetischer Fotorealismus sowohl für Fortschreibung wie auch für die Überwindung kinobildlicher Traditionen durch neue Visualisierungsstrategien steht. Innovative Potentiale sowie die Vielschichtigkeit und weitreichenden Wirkungen des synthetischen Fotorealismus sollten in der wissenschaftlichen Debatte dazu führen, dass nicht mehr überwiegend von einer rein affirmativen Darstellungsform gesprochen wird. Das Visualisierungskon-

54

RÜDIGER MAULKO

zept sollte aufgewertet und angemessen gewürdigt werden, inklusive der besonderen Leistungen, die zur Entwicklung und Durchsetzung des synthetischen Fotorealismus geführt haben. So stellt die bildliche Metaphorisierung, Konkretisierung und ‚Mimetisierung‘ der Computertechnik aus historischer und kultureller Sicht eine nicht zu unterschätzende kulturelle Leistung dar, die ein komplexes Zusammenwirken vieler Instanzen (Technikentwickler- und anwender, kulturelle und ökonomische Faktoren, Medienproduzenten und -rezipienten, Bildtraditionen etc.) und Jahrzehnte nicht nur technischer, sondern auch semantisch-konzeptioneller Arbeit benötigte. Ein wichtiger Faktor war die menschliche Erkenntnis, dass sich eine abstrakte und unanschauliche Digitaltechnik im engen Zusammenspiel mit grafischer Ausgabe (z. B. Bildschirm) als zentraler Faktor von Visualisierungs- und Veranschaulichungsprozessen ausformen und nutzen lässt. Folgerichtig war dann die schrittweise Einbettung fotorealistischer Visualisierungen in bildmediale und darstellungskulturelle Kontexte. Anschließend öffneten sich dem Digitalästhetischen viele Türen. Fotorealistische Bildkonzepte waren maßgeblich an der Aufwertung und Ausdifferenzierung des Computerbildes beteiligt, das sich von der computergrafisch-abstrakten Datenvisualisierung mit Spezial- und Experimentalbildcharakter zum multifunktionalen und mainstreamtauglichen Medienbild weiterentwickelte.31 Diese Entwicklung ging einher mit einer klaren Positionierung und Profilierung im System der technischen Bilder. Mittlerweile ist das Computerbild in vieler Hinsicht konkurrenzfähig und hochgradig kompatibel zum konventionellen Kamerabild des Kinos und kann infolgedessen auf vielfältige Weise narrativ eingesetzt werden. Auch in der Geschichte der Visualisierung vollsynthetischer Bildwelten setzt der digitale Fotorealismus neue Akzente. Im Vergleich zum synthetischen Vorläufer Zeichentrickfilm bieten aktuelle computeranimierte Filme eine innovative Kombination aus Gestalt-, Material- Oberflächen-, Bewegungs- (z. B. Motion Capturing) und strukturellem Realismus (z. B. Nachahmung von Naturgesetzen). Hinzu kommt die neuartige Verschmelzung der genannten Realismusstrategien mit Dreidimensionalität in der Gegenstandsgestaltung und einer frei und nach Bedarf äußerst dynamisch agierenden 3D-Kamera, die eng mit der Ansichtsvielfalt der modellierten Bild- und Objektwelten zusammenarbeitet. 31

Vgl. zur ästhetischen Geschichte des digitalen Medienbildes Maulko, Rüdiger: „Über Strichzeichnungen und 3D-Artisten. Zur Technikgeschichte digitaler Fernsehbildgestaltung.“ In: Segeberg, Harro (Hg.): Die Medien und ihre Technik. Theorie – Modelle – Geschichte. Marburg 2004, S. 472-491.

SYNTHETISCHER FOTOREALISMUS IM KINO

55

Gerade der auf verschiedenen Ebenen wirksame Faktor der Dreidimensionalität sorgt im Verbund mit dem Darstellungsrealismus im Objektund Animationsbereich dafür, dass nicht nur rein digitale Bildwelten, sondern auch hochgradig perfektionierte Hybridästhetiken aus Kamera- und Computermaterial komponiert werden können. Diese Mischcomposites können vollkommen homogen als vermeintlich aufgezeichnete Kameraaufnahmen, aber auch offenkundig paradox visualisiert werden. Nach dem Kohärenz- und Transparenzprinzip gestaltete Composites verschmelzen etwa in der Star Wars-Trilogie Episode IV-VI (1999-2005) reale Schauspieler mit surrealen Fantasiewesen, deren Material-, Bewegungs- und Oberflächeneigenschaften fotorealistisch visualisiert wurden. In hybrid- und ambivalenzästhetischen Produktionen wie Star Wars stellt der Darstellungsmodus nicht nur auf besonders überzeugende Weise die Anschlussfähigkeit und Kompatibilität zum Kinobildsprachlichen, sondern auch seinen Stellenwert für visuelle Innovation unter Beweis. Sicherlich werden die Illusionierungs- und Innovationspotentiale fotorealistischer Computergrafik und -animation bei kontinuierlicher Weiterentwicklung von technisch-apparativer Basis und gestalterischem Know How in Zukunft stetig ausgebaut. Synthetischer Fotorealismus ist ein anschauliches Beispiel dafür, dass sich unsere visuelle Kultur auch an den Stellen zukunftsweisend verändert, die auf den ersten Blick ‚nur‘ Tradiertes bestätigen und reproduzieren. Es bleibt also spannend.

Martin Doll

Entzweite Zweiheit? Zur Indexikalität des Digitalen Kaum ein Begriff kam im Sprechen von der Digitalisierung des Kinos und der Fotografie derart in Konjunktur wie der des Indexikalischen, und dies meist insofern, als dessen Verschwinden festgestellt wurde. Derartige Diagnosen basieren jedoch, wie zu zeigen sein wird, auf einer in der Retrospektion diskursiv konstruierten maßgeblichen indexikalischen Eigenschaft der noch auf chemischen Prozessen beruhenden analogen Fotografie und Kinematografie. Dabei handelt es sich um eine auf den ersten Blick durchaus zweckmäßige Vorgehensweise, denn wenn von einer ‚digitalen Revolution‘ oder von ‚Medienumbrüchen‘ gesprochen wird, bedarf es eines Hintergrunds, vor dem sich das Neue der ‚Neuen Medien‘ absetzt, um Sinn zu ergeben. Infragegestellt werden können dabei aber die Kriterien, die bei dieser Differenzierung verwendet werden. Denn nicht selten wird in diesem Zusammenhang von einem zugleich unscharfen und völlig überfrachteten Begriff des Indexikalischen Gebrauch gemacht, so dass gefährliche Vermischungen und Analogiebildungen stattfinden: z. B. das Analoge mit dem Indexikalischen gleichzusetzen, das Digitale radikal vom Indexikalischen abzutrennen und schließlich das Indexikalische per se mit einem Wahrheitsanspruch bzw. mit einem Abbildrealismus in eins zu setzen. Diese (häufig implizit bleibenden) theoretischen Operationen sollen im Folgenden anhand eines close reading von Charles S. Peirces Ausführungen zum Indexikalischen überprüft und einer Revision unterzogen werden. Peirces semiotische Theorien eignen sich nämlich nicht nur hervorragend dafür, Realitätsbezug und Wahrheitsanspruch von Bildern analytisch zu trennen, sondern auch dafür, materielle Bedingungen und kulturelle Verwendungszusammenhänge bildlicher Repräsentationen zusammenzudenken. Die folgenden Lektüren haben jedoch nicht das Ziel zu zeigen, dass die Unterscheidung analog/digital generell ihre Bedeutung verliert, sondern dass – zumindest im Rückgriff auf Peirce – ein epistemologischer Bruch hinsichtlich der Indexikalität der Fotografie und insbesondere der fotografischen Beweiskraft zurückgewiesen werden muss. Dies soll sowohl über die Schwächung der Evidenz des Analogen als auch über die Stärkung der Indexikalität des Digitalen geleistet werden. Um Kracauers The-

58

MARTIN DOLL

orie des Films zu zitieren, geht es dabei aber nicht um die Errettung der äußeren Wirklichkeit, sondern um die Relativierung der Gleichsetzung von Indexikalität mit Beweiskraft und um die Infragestellung der ubiquitären These, dass digitale Bilder generell ihre Indexikalität eingebüßt hätten. Sollte dies gelingen, so wäre zumindest erreicht, dass bezüglich der Indexikalität das Analoge und das Digitalen näher aneinanderrücken. Wenn hier ein semiotischer Zugang gewählt wird, so bedeutet dies aber auch, dass die nachstehenden Überlegungen sich durch eine gewisse Bescheidenheit auszeichnen. Bei Fotografie und Film hat man es mit vielschichtigen Medien zu tun, die sich rein semiotisch nicht erschöpfend behandeln lassen. Insofern müssen in diesem Zusammenhang die zumindest ebenso wichtigen ästhetischen filmischen und fotografischen Eigenschaften wie auch deren Potential, somatische Resonanzen – z. B. bestimmte affektive Reaktionen wie Rührung – auszulösen, ausgeklammert bleiben. Ferner bleibt, weil Peirce nie über Film gesprochen hat, die Reflexion auf das fotografische Einzelbild, also das Fotogramm beschränkt, so dass der gewissermaßen wichtigste und Namen gebende Aspekt des Kinos, die Bewegung, weitgehend unberücksichtigt bleibt.1 Bevor jedoch die Überlegungen aus semiotischer Perspektive entfaltet werden, sollen noch einige Argumente zum Fotografischen bzw. Kinematografischen vorgestellt werden, die im Sprechen über den ‚Umbruch‘ vom Analogen zum Digitalen besonders häufig auftreten. Bemerkenswert ist in diesem Zusammenhang vor allem der strategische Gebrauch von bestimmten historischen Medienreflexionen.

Diskurse des Analogen und Digitalen Die fortschreitende Verfügbarkeit digitaler Technologien seit den 1980er Jahren hat zu einer Vielzahl an Neubestimmungen geführt. Wie immer, 1

Umberto Eco hat versucht, die kinematografische Bewegung semiotisch zu fassen. Er weist dabei darauf hin, dass die filmischen Einzelbilder hinsichtlich aussagekräftiger ‚Bewegungseinheiten‘ „noch nichts bedeuten können“: Die Kamera liefere mit den diskreten Einzelbildern wahrnehmbare Bewegungselemente, die zwar „im synchronischen Bereich des Photogrammes isoliert werden können“, aber „bedeutungsleer sind“. Erst wenn sie außerdem zu kinesischen, sich auf die „Sprache der Handlung“ beziehenden Zeichen zusammengesetzt würden, könnten sie „ihrerseits größere, ins Unendliche fortsetzbare Syntagmen hervorbringen“ und Auskunft über Aktionen geben (Umberto Eco: „Die Gliederung des filmischen Code“. In: Sprache im technischen Zeitalter, H. 27 (1968), S. 230-252, hier: S. 250, vgl. a. S. 241).

ZUR INDEXIKALITÄT DES DIGITALEN

Abb. 1: „Smoke billows from burning buildings destroyed during an overnight Israeli air raid on Beirut‘s suburbs (August 5, 2006)“. REUTERS/Adnan Hajj (Libanon)

59

Abb. 2: Von Hajj manipulierte Version

wenn die Menschen in der Geschichte mit neuen Medien konfrontiert waren, kam es zu einer Reihe von einerseits kulturpessimistischen Klagen oder andererseits techno-optimistischen Beschwörungen eines neuen Zeitalters der Menschheit. Im Folgenden sollen hinsichtlich des Digitalen die skeptischen, hinsichtlich des Analogen die ex post konstruierten affirmativen Argumentationen interessieren – und dabei vor allem, wie die digitalen Medien dadurch abgewertet werden, dass ihre analogen Vorgänger mit einer Art ‚ursprünglicherem‘ Weltbezug aufgeladen werden. Diese häufig fragwürdige ‚Differenzmethode‘ lässt sich mit einigen Beispielen belegen: So sind z. B. Stewart Brand u. a. dafür berühmt geworden, angesichts der Verfügbarkeit digitaler Retusche das Ende der Fotografie als Bezeugung von etwas eingeläutet zu haben: „The End of Photography as Evidence of Anything“.2 Ebenfalls notorisch sind die Bemerkungen von W.J.T. Mitchell, der Anfang der 1990er Jahre die Manipulierbarkeit sogar zum Wesen digitaler Fotografie erhebt und damit den Beginn einer postfotografischen Ära heraufbeschwört: For a century and a half photographic evidence seemed unassailably probative. […] Today, as we enter the post-photographic era, we must face once again the ineradicable fragility of our ontological distinctions between the imaginary and

2

Stewart Brand/Kevin Kelly/Jay Kinney: „Digital Retouching. The End of Photography as Evidence of Anything“. In: Whole Earth Review, H. 47 (Juli 1985), S. 4247.

60

MARTIN DOLL the real […]. We have indeed learned to fix shadows, but not to secure their meanings or to stabilize their truth values; they still flicker on the walls of Plato’s cave.3

Und tatsächlich scheint sich diese Flüchtigkeit des Wahrheitswertes visueller Repräsentationen in zahlreichen Fälschungen zu bestätigen, wenn man beispielsweise an ein in der Zeit des Israel-Libanon-Konflikts 2006 heftig diskutiertes Pressefoto der Nachrichtenagentur Reuters denkt, das Beirut nach einem israelischen Bombenangriff zeigt und in das von dem bekannten Pressefotografen Adnan Hajj – allerdings technisch äußerst ungeschickt – Rauchschwaden verdoppelnd einkopiert wurden. Dabei wurde dasjenige, was als Beweis eines Vorgefundenen zirkulierte, mittels digitaler Technik so manipuliert, dass es drastischer erschien (Abb. 1, 2). Wenn in solchen Zusammenhängen vom Post-Fotografischen die Rede ist, und zwar in dem Sinne, dass die Beweiskraft des Fotografischen durch die Digitalisierung verloren gegangen sei, wird dies meist argumentativ dadurch gestützt, dass kontrastierend eine ideale Vergangenheit aufgerufen wird. So ist im bereits zitierten Artikel von Brand u.a. weiter zu lesen: „What’s unique, what was unique, about a photograph is that it is an analog representation of reality. It is a directly true transform of the original complex, awkward view of things.“4 Für diese – wie man sagen könnte – prä-post-fotografische Ära wird eine Reihe prominenter historischer Fürsprecher auf den Plan gerufen; und dies meist mittels aus größeren Zusammenhängen gerissener Textstellen, die hier vollständig wiedergegeben werden, um die (manchmal entstellenden) Verkürzungen zu veranschaulichen: Um mit dem meistzitierten Autor zu beginnen, seien Roland Barthes Ausführungen zum Wesen oder Noema der Fotografie erwähnt. Dieser beschreibt den „photographischen Referenten“ nicht als „die möglicherweise reale Sache, auf die ein Bild oder ein Zeichen verweist, sondern die notwendig reale Sache, die vor dem Objektiv platziert war und ohne die es keine Photographie gäbe.“5 Entsprechend ließe sich – und damit wird die Referenz für Barthes zum Grundprinzip der Fotografie – „nicht leugnen, daß die Sache dagewesen ist“.6

3 4 5 6

William J. Mitchell: The Reconfigured Eye. Visual Truth in the Post-Photographic Era. Cambridge, Mass. u.a. 2001, S. 225. Brand/Kelly/Kinney: „Digital Retouching“ (wie Anm. 2), S. 46. Roland Barthes: Die helle Kammer. Bemerkung zur Photographie. Frankfurt a. M. 1989, S. 86; Hervorhebungen im Original. Ebd.

ZUR INDEXIKALITÄT DES DIGITALEN

61

André Bazin, der bereits 1945 die Fotografie in Abgrenzung zur seines Erachtens immer von einer Spur des Subjekts geprägten Malerei definiert, stärkt die Objektivität des „ohne das Eingreifen des Menschen“ automatisch entstehenden Bilds der Außenwelt und erklärt dies sogar zum Wesen des Fotografischen. Die „Ontologie des fotografischen Bildes“ zeichne sich durch die „Übertragung der Realität des Objektes auf seine Reproduktion“ aus.7 Damit begibt er sich in die Tradition des Fotoverständnisses von William Henry Fox Talbot, der sein zwischen 1844 und 1846 erschienenes erstes mit Fotografien illustriertes Buch The Pencil of Nature schon mit folgender Notiz bewarb: „It must be understood that the plates of the work now offered to the public are the pictures themselves, obtained by the action of light, […] and the scenes represented will contain nothing but the genuine touches of nature’s pencil“.8 Ausgehend von seinen Annahmen zum Fotografischen schlägt Bazin schließlich eine Brücke zum Film, indem er diesen als „die zeitliche Vollendung der fotografischen Objektivität“ fasst.9 Auch Siegfried Kracauer begründet später den Realitätsaspekt des Films im Rückgriff auf die Fotografie: Mein Buch […] beruht auf der Annahme, daß der Film im wesentlichen eine Erweiterung der Fotografie ist und daher mit diesem Medium eine ausgesprochene Affinität zur sichtbaren Welt um uns her gemeinsam hat. Filme sind sich selbst treu, wenn sie physische Realität wiedergeben und enthüllen.10

Wie bereits angedeutet, wäre eine deutlich differenziertere Sichtweise auf die vielschichtigen Argumente der zitierten Autoren angebracht. Dies soll 7

8

9 10

André Bazin: „Ontologie des fotografischen Bildes“ [1945]. In: Wolfgang Kemp/ Hubertus von Amelunxen (Hrsg.): Theorie der Fotografie I-IV: 1839-1995, Bd. 3. München 2006, S. 58-64, hier: S. 62. Bazin indes spricht von dieser Übertragung allerdings nicht ohne luziden Verweis auf das Magische der Fotografie, ihre „irrationale Kraft […], die unseren Glauben besitzt. […] Das Bild kann verschwommen sein, verzerrt, farblos, ohne dokumentarischen Wert, es wirkt durch seine Entstehung“ (ebd., S. 62 f.), um schließlich mit dem enigmatischen, weil nicht weiter ausgeführten, Satz zu enden: „Andererseits ist der Film eine Sprache“ (ebd., S. 64). „The Pencil of Nature, By H. Fox Talbot, Esq.“. In: A Montly List of New Books Published in Great Britain Sold by Mr. C. Muquardt (New Series), H. 22 (1. 5. 1844), S. 87. Bazin: „Ontologie des fotografischen Bildes“ (wie Anm. 7), S. 63. Siegfried Kracauer: Theorie des Films. Die Errettung der äußeren Wirklichkeit. Frankfurt a. M. 1996, S. 11. Im Verweis auf eine spätere Stelle wäre hinzuzufügen, dass Kracauer zufolge Filme etwas physisch Existierendes anders sichtbar machen als Fotografien: „[S]ie stellen die Realität dar, wie sie sich in der Zeit entfaltet“ (ebd., S. 71).

62

MARTIN DOLL

Abb. 3: Oscar Gustave Rejlander: The Two Ways of Life (1857), Royal Photographic Society

Abb. 4: Analyse von The Two Ways of Life, in: Edgar Yoxall Jones: Father of Art Photography: O. G. Rejlander, 1813-1875, Newton Abbot: David & Charles 1973.

jedoch an dieser Stelle zurückgestellt werden, um es im späteren Verlauf des Text – zumindest teilweise – nachzuholen. Jenseits der Beglaubigung durch autoritatives Zitieren bleibt in der derzeitigen Debatte indes häufig unbegründet, warum der analogen Fotografie automatisch Evidenzcharakter zukommen soll. Denn die Geschichte wohlbekannter analoger Fälschungen oder vielmehr Manipulationen und Dissimulationen lässt bereits bei der frühen Fotografie fragwürdig erscheinen, ob sie aus Sicht der Betrachter als unumstößliche Beweisstücke

ZUR INDEXIKALITÄT DES DIGITALEN

63

Abb. 5: William H. Mumler: John J. Glover with the Spirit of His Mother (1871)

wahrgenommen wurden: Man denke beispielsweise an die künstlerischen Kompositionen Oscar Gustave Rejlanders aus dem Jahr 1857 (Abb. 3, 4). Die von ihm erstellten Gruppenbilder hätten eines riesigen Studios und einer ungeheuren Menge an Licht bedurft. Die Personen waren jedoch nie in derselben Anordnung versammelt, wie sie die Fotografie zeigt. Diese ist vielmehr, wie Edgar Yoxall Jones nachweist, eine Kombination von nicht weniger als 30 Einzelaufnahmen. Als weiteres Beispiel kann man die als Fälschungen diskutierten und vor Gericht verhandelten Geisterfotografien William H. Mumlers aus dem 19. Jh. anführen (Abb. 5).11 Ebenfalls aus dem 19. Jahrhundert stammen manipulierte Fotografien von Abraham Lincoln. So wurde ein älteres Porträt von ihm nach seinem Tod gespiegelt in ein Bild von John C. Calhoun einkopiert. Bezeichnenderweise wurden dabei gleich auch die Schriftrollen am rechten Rand modifiziert: aus „Strict Constitution“ wurde „Constitution“, aus „Free Trade“ wurde „Union“ und aus „The Sovereignty of the States“ wurde die „Proclamation of Freedom“12 (Abb. 6, 7).

11 12

Harper’s Weekly berichtete z. B. darüber auf der Titelseite: Anonym: „Spiritual Photography“. In: Harper’s Weekly, Jg. 13, H. 645 (8. 5. 1869), S. 1. Mitchell: The Reconfigured Eye (wie Anm. 3), S. 204.

64

MARTIN DOLL Abb. 6: A. H. Richie: John C. Calhoun (1852), Porträt, Library of Congress Prints and Photographs Division

Abb. 7: William Pate: Abraham Lincoln (o. J.), montiertes Porträt, Library of Congress Prints and Photographs Division

ZUR INDEXIKALITÄT DES DIGITALEN

65

Abb. 8-13: Stopptrick-Sequenz aus George Méliès: Le diable noir (1905)13

Auch auf der Audioebene (denn ab einem bestimmten Zeitpunkt hat man es beim Film ja immer auch mit Ton zu tun) sind Vertuschungen nichts Neues. Man erinnere sich z. B. an die bearbeiteten und teilweise gelöschten Bänder, die Licht in den Watergate-Skandal hätten bringen sollen. Auf den Aufzeichnungen von Nixons internen und informellen Gesprächen gibt der sogenannte „18,5 minutes gap“, also eine Informati-

13

Auf Abb. 12, links unten, ist sehr gut die Klebestelle des Schnitts zu erkennen.

66

MARTIN DOLL

onslücke von 18 ½ Minuten, während denen nur ein Rauschen zu hören ist, nach wie vor Anlass zu Verschwörungstheorien aller Art.14 Selbst der frühen Filmgeschichte sind Manipulationen keineswegs fremd.15 Bei George Méliès finden sich geradezu stilbildende Verfälschungen der Kracauer’schen Realität, „wie sie sich in der Zeit entfaltet“.16 Ein Beispiel für den klassischen Meliès’schen Stopptrick ist Le diable noir aus dem Jahr 1905 (Abb. 8-13). Strenggenommen stellt der gesamte frühe Film die Zeitachse und damit auch Bewegungen verzerrt dar, ruft man sich in Erinnerung, dass es, weil der Film noch per Hand gekurbelt wurde, de facto keine konstante Bildaufnahmerate gab – ein ‚Ver-drehen‘, das am deutlichsten am Flackern der Bilder erkennbar bleibt. Darüber hinaus wurde filmhistorisch nachgewiesen, dass viele Filme nicht mit derselben Bildfrequenz vorgeführt wurden, wie sie aufgenommen wurden. D. h., zu dieser Zeit waren die Menschen qua Unterschied von Aufnahme- und Projektionsrate grundsätzlich mit einer die Realzeit verzerrenden anderen Filmzeit konfrontiert. Chaplin soll sich diesen Verschnellerungseffekt, wie man ihn auch heute noch kennt, wenn Filme, die mit 16-18 Bildern pro Sekunde gedreht wurden, mit 24 Bildern pro Sekunde abgespielt werden, schon damals bewusst zunutze gemacht haben. Erst 1926, im Zusammenhang mit dem Aufkommen des Tonfilms, wurden 24 Bilder zum einheitlichen Standard.17

14

15

16 17

Siehe dazu genauer: Torsten Hahn: „‚Kenneth, what is the frequency?‘ Manipulation, Simulation und Kontrolle durch ‚unsichtbare Drähte‘“. In: Irmela Schneider/ Christina Bartz (Hrsg.): Medienkultur der 70er Jahre, Wiesbaden 2004, S. 79-98, hier: S. 95 f., vgl. dort auch Fußnote 90. Frank Kessler verweist auf Texte zum Film aus dem beginnenden 20. Jahrhundert, die die Diskussion von ‚fakes‘, also Fälschungen belegen. Er zeigt, dass der Begriff dabei vornehmlich zur Verurteilung von dokumentarischen Filmen verwendet wurde, in denen schon existierendes Material zu einem bestimmten Thema für ein anderes wiederbenutzt und umdeklariert wurde. Er weist darüber hinaus nach, dass nachgestellte Szenen zu bestimmten historischen Ereignissen zirkulierten. Ob in diesem speziellen Fall die Zuschauer absichtsvoll getäuscht wurden bzw. ob es zu Beschwerden über eine bestimmte Täuschungsabsicht kam, ist seines Erachtens filmhistorisch nur schwer rekonstruierbar, weil im Nachhinein nicht überprüfbar ist, ob die Filme im Einzelnen explizit als „representation“, also als – wie man heute sagen würde – Reenactments, oder als „genuine picture“ vorgeführt wurden oder nicht (vgl. Frank Kessler: „‚Fake‘ in Early Non-fiction“. In: KINtop. Jahrbuch zur Erforschung des frühen Films 14/15 (2006), S. 87-93). Kracauer: Theorie des Films (wie Anm. 10), S. 71. Vgl. Kevin Brownlow: „Silent Films. What Was the Right Speed?“. In: Sight and Sound 49.3 (1980: Sommer), S. 164-167, hier: S. 167.

ZUR INDEXIKALITÄT DES DIGITALEN

67

Durch die Vielzahl der Beispiele dürfte einsichtig geworden sein, dass das ,Verfälschen‘ auch schon im Zeitalter des analogen (Bewegt-)Bilds eine gängige Praxis war. Schon alleine dadurch lässt sich das Argument, dass das Wesen des Digitalen seine Manipulierbarkeit ist, in Zweifel ziehen. Es gibt darüber hinaus jedoch noch weitere – über Grenzziehungen zu analogen Bildtechniken hinausgehende – Argumentationsstrategien, die bei der generalisierenden Ineinssetzung von digitaler Speicherung bzw. Verarbeitung und einem allgemeinen Manipulationsverdacht zum Einsatz kommen. Grob eingeteilt werden dabei nämlich, wie in Anlehnung an Wolfgang Hagen deutlich gemacht werden kann, gleich mehrere nicht zwingend digitale Technologien durcheinandergebracht, und zwar: 1.) elektronische Bilddetektoren (die sogenannte Halbleiter- bzw. CCDTechnik), 2.) digitale Signalwandlung und -speicherung (das Sampling oder die Quantisierung der Bilder bzw. ihrer Tonwerte und deren Aufzeichnung), 3.) das Image processing (mathematische Bildverarbeitungstechniken) und 4.) die Computergrafik (Techniken algorithmischer Bilderzeugung).18 Nur weil sowohl das Image processing als auch die Computergrafik im Kern mit binären Codes operiert, wird automatisch davon ausgegangen, dass digitale Fotografie bzw. Kinematografie und Simulation zusammenfallen. Anders gesagt: Nur weil Bildsignale in sogenannten A/D-Wandlern in digitale Signale prozessiert werden, werden sie mit CAD, dem computergestützten Erschaffen von Bildern, gleichgesetzt. Um solchen vorschnellen Analogisierungen zu entgehen, soll im Folgenden die digitale Foto- bzw. Kinematografie vornehmlich im Kontext der beiden erstgenannten Techniken betrachtet werden. Dann kann nämlich die Frage in den Vordergrund rücken, wie sich der Status von Fotografien und Filmen verändert hat, dadurch dass sie nun nicht mehr mittels chemischer Prozesse, sondern durch elektronische Bilddetektoren entstehen, deren Signale zudem digital gespeichert werden. Dabei ist auch gegenwärtig zu halten, dass das Fotografische bzw. Kinematografische mit der gleichen Berechtigung sowohl auf die faktische Entstehung der Bilder als auch auf ihre spezifische äußere Erscheinung bezogen werden kann. In welchem Zusammenhang beide Aspekte stehen, welche Umbrüche sich dabei durch die Digitalisierung ergeben und schließlich wie dies die (Be-) Deutung der visuellen Repräsentationen beeinflusst, kann in besonderem Maße anhand von Peirces zeichentheoretischen Überlegungen zur Indexikalität einsichtig gemacht werden. 18

Wolfgang Hagen: „Die Entropie der Fotografie. Skizzen zu einer Genealogie der digital-elektronischen Bildaufzeichnung “. In: Herta Wolf (Hrsg.): Paradigma Fotografie. Frankfurt a. M. 2005, S. 195-235, hier: S. 195.

68

MARTIN DOLL

Die Indexikalität der Fotografie bzw. Kinematografie nach Peirce Dass die Wahrnehmung fotografischer und filmischer Reproduktionen im Vergleich zu anderen Formen des Zeichenlesens derjenigen Perzeption eher entspricht, die man gemeinhin als alltägliche Sinneswahrnehmung versteht, lässt das theoretische Erfassen ihrer deutenden Bezüge, ihren Rekurs auf Zeichenhaftes äußerst kontraintuitiv erscheinen.19 Die Peirce’sche Zeichenkategorie des Index hat daher in der Rezeptionsgeschichte zu zahlreichen Missverständnissen geführt.20 Um dabei ein prominentes Beispiel anzuführen, sei aus den „Notes on the Index“ von Rosalind Krauss zitiert: „It is the order of the natural world that imprints itself on the photographic emulsion and subsequently on the photographic print. This quality of transfer or trace gives to the photograph its documentary status, its undeniable veracity.“21 Im Folgenden wird es hingegen darum gehen, mit Peirce das Indexikalische radikal von einem Wahrheitsanspruch abzutrennen. Dafür muss aber zuerst klargestellt werden, wie das Indexikalische in seinem Sinne zu verstehen ist: Laut Peirce definiert sich ein indexikalisches Zeichen notwendig durch eine Zweiheit, d. h. durch eine existentielle Relation zu seinem Objekt: „Ein Index erfordert deshalb, dass sein Objekt und er selbst individuelle Existenz besitzen müssen.“22 Es stehen sich also mindestens zwei Entitäten, das verweisende Zeichen und das effektive Objekt, auf das verwiesen wird, gegenüber. Diese irreduzible faktische oder kausale Verbindung ist das besondere Merkmal des indexikalischen Zeichens. Sie führt zum Zustandekommen eines Index unabhängig von seiner Interpretation bzw. 19

20

21 22

Eco schreibt dazu luzide, dass Bilder „als eine auf einen gegebenen Code bezogene Nachricht“ wahrgenommen würden; „dieser Code jedoch ist der normale Wahrnehmungscode, der jedem Erkenntnisakt vorangeht“. Es sei jedoch gegenwärtig zu halten, dass es sich dabei um eine Reproduktion nur einiger, nicht aller Wahrnehmungsverhältnisse handele (Eco: „Die Gliederung des filmischen Code“ (wie Anm. 1), S. 234). Peter Wollen ist in diesem Zusammenhang zuzustimmen, wenn er davon spricht, dass Charles Morris, obwohl er Peirces einflussreichster Schüler war, der Rezeption von dessen semiotischen Theorien eher geschadet habe, indem er diese mit einem fragwürdigen Behaviorismus amalgamiert habe (vgl. Peter Wollen: Signs and Meaning in the Cinema. 4. rev. u. erw. Aufl.. London 1998, S. 83). Rosalind Krauss: „Notes on the Index: Seventies Art in America. Part 2“. In: October 4 (1977: Herbst), S. 58-67, hier: S. 59. Charles S. Peirce: Phänomen und Logik der Zeichen, hrsg. u. übers. v. Helmut Pape. Frankfurt a. M. 1983, S. 65.

ZUR INDEXIKALITÄT DES DIGITALEN

69

unabhängig von Zeichenkonventionen, wie man sie von Symbolen her kennt: An index is a representamen (Peirces Begriff für das Bezeichnende, M.D.) which fulfills the function of a representamen by virtue of a character which it could not have if its object did not exist, but which it will continue to have just the same whether it be interpreted as a representamen or not (CP 5.073).23

Dennoch kann ein Index nur als Zeichen fungieren durch das Akzidens, dass er als solches verstanden wird. Dabei bleibt das Zeichenverstehen eine nicht notwendige Bedingung, die Peirce vom Entstehen des Index als solchen analytisch trennt: „Er wird zu einem Zeichen aufgrund des Zufalls, daß er so aufgefaßt wird, ein Umstand, der die Eigenschaft, die ihn erst zu einem Zeichen macht, nicht berührt.“24 Peirce vergisst in seinem semiotischen Koordinatensystem jedoch keinesfalls denjenigen, der das Zeichen liest: A sign, or representation […] refers to its object […] because it is in dynamical (including spatial) connection both with the individual object, on the one hand, and with the senses or memory of the person for whom it serves as a sign, on the other hand. (CP 2.305)

Nur aus diesem Grund lässt sich das Objekt, auf das ein Index verweist, nicht als reine Anwesenheit einer Sache betrachten, sondern als Ergebnis einer Semiose durch Zeichen, die der Interpretation bedürfen: „[A]n index, like any other sign, only functions as sign when it is interpreted.“25 Obwohl die Erfolgsbedingung für die Entstehung eines Index also interpretationsunabhängig, d. h. nicht durch Konventionen festgelegt ist, kann es sich nur als Zeichen ins Werk setzen, wenn es interpretiert wird. Besonders hervorzuheben an Peirces Argumenten ist, dass er die Interpretation der Zeichenfunktion des Indexikalischen auf einen bestehenden Wissenshintergrund zurückführt. D. h., die genannte Entstehungsbedingung des indexikalischen Zeichens wird – in Form eines herangezogenen Wissens um die kausale oder faktische Relation zu seinem Objekt – Teil 23

24 25

Die Dezimalnotation, hier: 5.073, verweist auf den 5. Band und den 73. Abschnitt der Collected Papers of Charles Sanders Peirce, I-VI. Hrsg. v. Charles Hartshorne/ Paul Weiss. Cambridge 1931-35. Im Folgenden wird im Text nur die Notation in Klammern zitiert. Peirce: Phänomen und Logik der Zeichen (wie Anm. 2), S. 65. Charles S. Peirce: „New Elements“. In: The Essential Peirce. Selected Philosophical Writings. Hg. v. Nathan Houser, Bd. 2. Bloomington/Indianapolis 1998, S. 301330, hier: S. 318 (=EP 2.318); Hervorhebung von mir.

70

MARTIN DOLL

seiner Interpretationsbedingungen. Die Zeichenfunktion des Indexikalischen kann sich somit nur entfalten, wenn angenommen wird, dass das Objekt des Index existiert. Die existentielle Relation ist so zum einen im indexikalischen Zeichen repräsentiert, zum anderen muss sie aber, damit sie beim Verstehen auch zum Tragen kommt, bei der Interpretation aufgerufen werden.26 Auch das Fotografisch-Indexikalische verweist so gleichermaßen nicht automatisch auf etwas anderes, sondern nur aufgrund eines bestimmten Vorverständnisses von dieser Verbindung. Peirce schreibt: „The fact that the latter (the photograph, M.D.) is known to be the effect of the radiations from the object renders it an index“ (CP 2.265; Hervorhebung von mir). Peirce argumentiert also auch hinsichtlich der Fotografie mit einem Vokabular der wissensgestützten Interpretation: Es müssen physikalische Determinanten mitgedacht werden, d. h., man muss von den technischen Produktionsbedingungen einer Fotografie oder von dem ihr zugrundeliegenden physikalischen Materialitätskontinuum – vom Objekt ausgehende oder reflektierte Lichtstrahlen, die sich am Ende als Schwärzung der Fotokristalle auswirken – wissen. Und man muss von dieser Kenntnis bei ihrem Anblick auch Gebrauch machen, damit sie als indexikalisches Zeichen erkannt wird. Die Fotografie ist zwar aus Gründen kausaler oder physischer Verbindung zu einem existierenden Objekt indexikalisch, kann aber nur unter Einbeziehung bestimmter Voraussetzungen als solches betrachtet und als Spur gelesen werden. Der von Peirce für die Fotografie stark gemachte indexikalische Charakter lässt sich bei genauerer Lektüre zudem als Element eines komplexen Wechselverhältnisses mit anderen Zeichenkategorien ausmachen. Hier liegt ein weiterer Fehler vieler an Peirce angelehnter Überlegungen, nämlich dass so argumentiert wird, als würde es sich bei einer Fotografie um etwas rein Indexikalisches handeln.27 Peirces Postulate sind in diesem 26

27

Vgl. dazu die Überlegungen über den Zusammenhang von Index und Spur bei: Helmut Pape: „Searching for Traces. How to Connect the Sciences and the Humanities by a Peircean Theory of Indexicality“. In: Transactions of the C.S. Peirce Society 44.1 (2008), S. 1-25, bes. S. 15 u. 19. Rosalind Krauss’ Ausführungen legen dies beispielsweise nahe: „The photograph is thus a type of icon, or visual likeness, which bears an indexical relationship to its object. Its separation from true icons is felt through the absolutness of this physical genesis, one that seem to short-circuit or disallow those processes of schematization or symbolic intervention that operate within the graphic representations of most paintings. If the Symbolic finds its way into pictorial art through the human consciousness operating behind the forms of representation, forming a connection between objects and their meaning, this is not the case for photography.“ (Rosalind Krauss: „Notes on

ZUR INDEXIKALITÄT DES DIGITALEN

71

Zusammenhang eindeutig: „[I]t would be difficult, if not impossible, to instance an absolutely pure index“.28 Die von ihm vorausgesetzte indexikalische Referenz qua physikalischer Verbindung des Fotos zu seinem Objekt ist somit nur ein Aspekt der späteren Auffassung des Bildgegenstands: So ist ein Photo ein Index, weil die physikalische Wirkung des Lichts beim Belichten eine existentielle eins-zu-eins-Korrespondenz zwischen den Teilen des Fotos und den Teilen des Objekts herstellt, und genau dies ist es, was an Fotografien oft am meisten geschätzt wird. Doch darüber hinaus liefert ein Foto ein Ikon des Objekts, indem genau die Relation der Teile es zu einem Bild des Objekts macht.29

Fotografien sind daher für Peirce notwendig gemischte oder zusammengesetzte Zeichen (composites), sogenannte „Dicent Sinzeichen“ (Dicent Sinsigns)30: „Such a Sign must involve an Iconic Sinsign to embody the information“.31 Peirce sagt damit einerseits deutlich, dass ein fotografischer Index ein Ikon mit sich führen muss, und andererseits, dass der indexikalische Bezug, also das Hinweisen der Fotografie auf Teile des Objekts, die zum Zeitpunkt der Aufnahme auch der Sinneswahrnehmung zugänglich waren, nichts über deren Konzeptualisierung aussagt. Um die Begriffe Geoffrey Batchens zu verwenden: Die indexikalische ‚Präsenztreue‘ qua physikalischer Verbindung heißt noch nicht zwangsläufig ‚Erscheinungstreue‘. Es ist vielmehr eine Abstraktion der visuellen Daten.32 Diese abstrakten Daten bedürfen einer Verkörperung in Form eines „ikonischen Sinzeichens“, welches im Kopf des Betrachters qua Ähnlichkeit die Vorstellung eines Objekts aufruft: „An Iconic Sinsign […] is any object of ex-

28 29 30

31

32

the Index: Seventies Art in America“. In: October 3 (1977: Frühjahr), S. 66-81, hier: S. 75; Hervorhebungen von mir) Charles S. Peirce: „Logic as Semiotic: The Theory of Signs“. In: Philosophical Writings of Peirce. Hg. v. Justus Buchler. New York 1955, S. 98-119, hier: S. 108. Peirce: Phänomen und Logik der Zeichen (wie Anm. 22), S. 65; Hervorhebungen des Originals getilgt und durch eigene ersetzt. Peirce: „Logic as Semiotic“ (wie Anm. 28), hier: S. 119. Ein Sinzeichen (Sinsign) ist für Peirce ein tatsächlich existierendes Ding, das als Zeichen fungiert; ein Dicent (Dicent Sign) ist zudem ein Zeichen, das auf etwas tatsächlich Existierendes verweist (vgl ebd., S. 101 u. 103). Ebd., S. 115; Hervorhebungen von mir. Ein Ikon wird von Pierce als ein Zeichen definiert, dass sich durch eine Ähnlichkeitsbeziehung auszeichnet. Ein Typus davon sind Bilder (images), „which partake of simple qualities […] of one thing“ (ebd., S. 105). Geoffrey Batchen: „Sichtbar gemachte Elektrizität“. In: Jens Schröter/Alexander Böhnke (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Bielefeld 2004, S. 231-268, hier: S. 239.

72

MARTIN DOLL

perience in so far as some quality of it makes it determine the idea of an object“.33 Der indexikalische Aspekt der Fotografie berührt also lediglich das physikalische Einschreiben von Lichtdaten in die chemische Filmschicht. Die Verbindung dieser Daten, ihre Synthese gehören indes zum Ikonischen des Bildes. Erst ihr Erkennen, ihr In-Eins-Bilden eröffnet die Möglichkeit, Ähnlichkeiten zu sehen. Als ein zentrales Charakteristikum eines Index hält Peirce daher fest: “[I]t is not the mere resemblance of its Object, […] which makes it a sign, but it is the actual modification of it by the Object.“34 Spricht man also im Zusammenhang mit der Fotografie von „indexikalischen Bildern“, so ist immer in Erinnerung zu rufen, dass es sich dabei nicht um eine Einheit handelt, sondern um etwas, das indexikalisch und ikonisch ist. Peirce betont die Komplementarität des Indexikalischen, das Angewiesensein auf andere Zeichenkategorien, auch an einer anderen Stelle, wenn er sein Koordinatensystem erweitert und über die Kriterien spricht, die dafür Voraussetzung sind, dass ein Foto – oder besser: ein fotografischer Abzug – vom Index zum ‚informativen Zeichen‘, zum ‚Dicizeichen‘, d. h. zum Träger von Information werden kann: The mere print does not, in itself, convey any information. But the fact, that it is virtually a section of rays projected from an object otherwise known, renders it a Dicisign. Every Dicisign […] is a further determination of an already known sign of the same object (CP 2.320; Hervorhebungen im Original und von mir).

Der fotografische Abzug ist somit, in seiner rein indexikalischen Dimension betrachtet, kein Informationsträger. Er zeugt nur ausschnitthaft („a section of rays“) von den Lichtstrahlen, die das gezeigte Objekt reflektierte. Dieses wird zunächst einmal nur als unbestimmter Photonen-Reflektor definiert. Erst die Voraussetzung, dass das indizierte Objekt bereits anderweitig bekannt ist, „otherwise known“, lässt die Fotografie – mithin unter Zuhilfenahme ikonischer Aspekte – zum informativen Zeichen werden. Aus dem Verweis auf ein „object otherwise known“ lässt sich zugleich ableiten, warum Peirce völlig kontraintuitiv das Ikonische überhaupt als Zeichen versteht – eine Annahme, die häufig kritisiert wird.35 Das ikoni33 34 35

Peirce: „Logic as Semiotic“ (wie Anm. 28), S. 115. Ebd., S. 102. Charles Morris schreibt z. B., dass ein völlig ikonisches Zeichen kein Zeichen mehr wäre: „A completely iconic sign would always denote, since it would itself be a denotatum“ (Charles Morris: Signs, Language and Behavior. New York 1946, S. 9899).

ZUR INDEXIKALITÄT DES DIGITALEN

73

sche Zeichen kann aber ihm zufolge nur als solches fungieren, d. h. das ikonisch Repräsentierte kann nur als solches verstanden werden, wenn eine Vorstellung des Referenten aufgerufen wird. Dies ist für Peirce im Übrigen Grundbedingung jedes Zeichens: „The sign stands for something, its object. It stands for that object, not in all respects, but in reference to a sort of idea“.36 Fällt dieser Bezug aus, so verliert etwas auch automatisch seine Zeichenhaftigkeit: But if there be anything that conveys information and yet has absolutely no relation nor reference to anything with which the person to whom it conveys the information has, when he comprehends that information, the slightest acquaintance, direct or indirect […] the vehicle of that sort of information is not, in this volume, called a Sign.37

Strenggenommen kann man, Peirce zufolge, ein in einer Fotografie oder in einem Film gezeigtes Objekt nur wiedererkennen – also erkennen, weil man es schon kennt. Überdies deckt sich der Begriff der „idea“ (zu deutsch: Vorstellung oder Begriff ) in Peirces triadischer Zeichenrelation mit dem des ‚Interpretanten‘ – mit weitreichenden Implikationen. Denn der Interpretant ist laut Peirce selbst wieder als Zeichen zu verstehen: „A sign, or representamen […] addresses somebody, that is, creates in the mind of that person an equivalent sign, or perhaps a more developed sign. That sign which it creates I call the interpretant of the first sign“.38 Diese Überlegung, dass ein representamen im Kopf des Betrachters wiederum ein Zeichen hervorruft39, ist von Derrida in seiner Grammatologie als Beweis gelesen worden, dass bei Peirce bereits das Indefinite jeden Zeichenverweises angelegt ist: Es gibt also keine Phänomenalität, welche das Zeichen oder den Repräsentanten reduziert, um schließlich das bezeichnete Ding im Glanz seiner Präsenz erstrahlen zu lassen. Das sogenannte ‚Ding selbst‘ ist immer schon ein representamen.

36 37 38 39

Peirce: „Logic as Semiotic“ (wie Anm. 28), S. 99; Hervorhebung von mir. Ebd., S. 100. Ebd., S. 99. Peirce schreibt: „If I see two men at once, I cannot by any such direct experience identify both of them with a man I saw before. I can only identify them if I regard them, not as the very same, but as two different manifestations of the same man. But the idea of manifestation is the idea of a sign.“ (Charles S. Peirce: „The Principles of Phenomenology“. In: Philosophical Writings of Peirce. Hg. v. Justus Buchler. New York 1955, S. 74-97, hier: S. 93)

74

MARTIN DOLL Das representamen kann nur funktionieren, indem es einen Interpretanten hervorbringt, welcher seinerseits zum Zeichen wird und so ad infinitium.40

Geoffrey Batchen hat dies wiederum auf die Fotografie übertragen und sie entsprechend als „a signing of signs“ bestimmt.41 Man erkennt also auf fotografischen oder filmischen Bilden z. B. nur einen Wal, wenn man bereits eine Vorstellung oder im weitesten Sinne einen Begriff von einem Wal hat. Die Bilder bieten dann, unter Umständen verbunden mit dem Schriftsymbol ‚Wal‘, eine weitere Bestimmung dieses bereits zeichenhaft bekannten Objekts, d. h., unsere Vorstellung davon wird weiter determiniert. Das Indexikalische der Fotografie liefert nach Peirce somit keine ausreichende qualitative Bestimmung dessen, auf das es hindeutet. Es ist kein Zeichen, das für die Sache selbst steht, sondern es zeigt als reiner Verweis nur auf etwas. Dies lässt das indexikalische Zeichen gleichermaßen interessant wie prekär werden: Es steht einerseits in einem starken existentiellen Bezug zur Realität, ist dies aber nur, weil es kraft seiner deiktischen Natur merkwürdig leer bleibt. Man kann auf etwas mit dem Finger zeigen (und man hat damit in der Tat eine kraftvolle existentielle Zeichenrelation zur Realität hergestellt), kann dies aber nur so einfach tun, weil die Geste des Deutens keinerlei qualitative Bestimmung erfordert: Es ist ein reines Zeigen. Die Zeichenbedeutung des Index ist somit nur ein Deuten, das ohne Kontext keinerlei Bedeutung hat, in den Worten von Rosalind Krauss eine „bedeutungslose Bedeutung“ (meaningless meaning).42 Interessanterweise ergeben sich dadurch äußerst signifikante Überschneidungen zu Barthes Überlegungen zur Fotografie (an dieser Stelle kann wieder kompensiert werden, ihn am Anfang des Artikels in den Zusammenhang eines banalen Abbildrealismus gerückt zu haben). Schon im ersten Kapitel von Die helle Kammer ist zu lesen: Um die Wirklichkeit zu bezeichnen, spricht der Buddhismus von sunya, dem Leeren, oder besser noch von tathata, dem so und nicht anders Beschaffenen, dem bestimmten Einen; tat bedeutet im Sanskrit dieses und erinnert an die Geste des kleinen Kindes, das mit dem Finger auf etwas weist und sagt: TA, DA, DAS DA! Eine Photographie ist immer die Verlängerung dieser Geste; sie sagt: das da, genau das, dieses eine ist’s! und sonst nichts […]; die Photographie […] deutet mit

40 41 42

Jacques Derrida: Grammatologie, übers. v. Hans-Jörg Rheinberger u. Hanns Zischler, Frankfurt a. M. 1974, S. 86. Vgl. Geoffrey Batchen: Burning with Desire. The Conception of Photography. Cambridge, Mass. u.a. 1999, S. 198-216. Krauss: „Notes on the Index“ (wie Anm. 27), S. 78.

ZUR INDEXIKALITÄT DES DIGITALEN

75

dem Finger auf ein bestimmtes Gegenüber und ist an diese rein deiktische Sprache gebunden.43

Die indexikalische Zeigegeste der Fotografie wird bei Peirce jedoch untrennbar an eine ikonische Zeichenhaftigkeit geknüpft. Die Fotografie kann als „Dicent Sinzeichen“ nur auf etwas zurückgeführt werden, wenn ein „ikonisches Sinzeichen“, das seinerseits auf eine „Idee des Objekts“, eine „vertraute bildliche Vorstellung“44 (im Original: „familiar image in my mind “) verweist, involviert ist. Erst das ikonische Zeichen und dessen Erkennen qua Vorstellungsvergleich lässt also eine qualitative Bestimmung der Fotografie, die der Ähnlichkeit des Gezeigten mit seinem Objekt, ins Spiel kommen. Besonders einsichtig wird dieses Konzept an einer anderen Stelle, an der Peirce das an der Semiose beteiligte Komplement aus indexikalischer Partikularität und ikonischer Ganzheit sehr anschaulich mit einer bezeichnenderweise fiktiven Situation aus dem Roman Robinson Crusoe exemplifiziert: So wurde, als Robinson Crusoe zuerst auf den Fußabdruck stieß, den man allgemein als Freitags Fußabdruck bezeichnet, seine Aufmerksamkeit, wie wir annehmen können, auf eine Vertiefung im Sand hingelenkt. Bis zu diesem Zeitpunkt handelte es sich nur um einen substitutiven Index, ein reines Etwas, das scheinbar ein Zeichen für etwas anderes ist. Doch bei näherer Untersuchung fand er, daß ‚dort der Abdruck von Zehen, eines Hackens und jedes Teils eines Fußes war‘, kurzum eines Ikons, verwandelt in einen Index, und dies in Verbindung mit seiner Gegenwart am Strand konnte nur als Index einer entsprechenden Gegenwart eines Menschen gedeutet werden.45

Solange die Vertiefung im Sand als substitutiver Index gesehen wird, ist es ein ‚reines Etwas‘, ist es lediglich als Ansammlung flirrender Daten ein Anzeichen von etwas ‚anderem‘, das nicht genauer definiert ist. Erst nachdem die Einzelheiten als ein Gesamtes, als eine Einheit aufgefasst, d. h. als Abdruck eines Fußes, als Ikon gelesen worden sind, können sie im zweiten Schritt – unter Zuhilfenahme ihres Kontexts (nämlich dass sie am Strand vorgefunden worden sind) und eines Vorwissens (über die kurze Beständigkeit einer solchen Spur an einem Sandstrand) – als Index auf die Existenz eines zweiten lebenden Inselbewohners interpretiert werden. Bei der Fotografie hat man es genaugenommen, wenn hier von einer Vereinheitlichung oder In-Eins-Bildung die Rede ist, mit zwei Syntheseleistungen zu tun: Einerseits von der aufnahmetechnischen Seite, d. h. 43 44 45

Barthes: Die helle Kammer (wie Anm. 5), S. 12 f. Peirce: Phänomen und Logik der Zeichen (wie Anm. 22), S. 161. Ebd., S. 161 f.; Hervorhebungen im Original getilgt und durch eigene ersetzt.

76

MARTIN DOLL

beispielsweise über die Wahl des Ausschnitts und Blickwinkels sowie der Blende und der Belichtungszeit, die bei der Aufzeichnung darüber entscheidet, wie die Lichtstrahlen – und welche – durch die fotografische Apparatur auf die fotochemische Emulsion gebracht werden; andererseits vonseiten des menschlichen Betrachters, der die wiederum von der Fotografie ausgehenden Sinnesdaten wahrnimmt und auf bestimmte Weise zusammensetzt. Die Indexikalität des Fotografischen, von der Peirce spricht, rechtfertigt also keinen naiven Abbildrealismus, sondern gründet sich auf ein Vorwissen, komplettiert sich zu einer Vorstellung eines Objekts nur kraft komplexer Bezugnahmen auf andere Zeichenkategorien und mentale bildliche Vorstellungen. Erst dadurch vermittelt die Fotografie den Eindruck des – um es mit Roland Barthes berühmter Wendung zu formulieren – „Ça-a-été“.46 Auch Kracauer streift diese Verbindung von Indexikalischem und Ikonischen, von Schwärzungspunkten und bildlichem Erkennen. Er schreibt: „Wer durch die Lupe blickte, erkennte den Raster, die Millionen von Pünktchen, aus denen die Diva, die Wellen und das Hotel bestehen. Aber mit dem Bild ist nicht das Punktnetz gemeint, sondern die lebendige Diva am Lido“.47

Indexikalität und Wahrheitsanspruch filmischer und fotografischer Repräsentationen Peirce kommt explizit darauf zu sprechen, dass weder ein rein indexikalisches noch ein rein ikonisches Zeichen etwas behaupten können. Es bedarf ihrer Kombination, damit eine Behauptung (assertion) entsteht: It is remarkable that while neither a pure icon nor a pure index can assert anything, an index […] which forces us to regard (something, M.D.) as an icon, as the legend under a portrait does, does make an assertion, and forms a proposition.48

46

47 48

Roland Barthes: La chambre claire. Note sur la photographie. Paris 1980, S. 120. An dieser Stelle ist es wichtig zu ergänzen, dass die deutsche Übersetzung „Es-ist-so-gewesen“, obwohl bei Barthes „comme ça“ nicht zu lesen ist, irreführend ist – irreführend, weil sie eine allgemeine modale Bestimmung bzw. Analogie impliziert. Bei Barthes indes ist der Aspekt der Vergangenheit vorrangig und die Stelle müsste lauten: „Es [unbestimmt] ist gewesen“ (vgl. Barthes: Die helle Kammer (wie Anm. 5), S. 89. Kracauer: „Die Photographie“ [1927]. In: ders.: Das Ornament der Masse. Frankfurt a. M. 1963, S. 21-39, hier: S. 21. Peirce, The Essential Peirce, Bd. 2 (wie Anm. 25), S. 307 (=EP 2.307).

ZUR INDEXIKALITÄT DES DIGITALEN

77

Dies ist für die Einschätzung visueller Information eine entscheidende Schlussfolgerung, denn erst wenn etwas den Status einer Proposition hat – sei es durch eine pragmatische Echtheitsbehauptung oder sei es durch eine buchstäbliche Bildzuschreibung mittels einer Legende – lässt sich überhaupt eine Unterscheidung zwischen richtig bzw. wahr und falsch treffen. Ruft man sich noch einmal das manipulierte Bild aus dem Libanon von Hajj ins Gedächtnis, so wurde mit ihm erst ab dem Zeitpunkt ein Wahrheitsanspruch verbunden, als es auf der pragmatischen Ebene als dokumentarische Fotografie deklariert wurde – also mit dem impliziten Hinweis versehen wurde: „So ist es gewesen, als ich als Fotograf vor Ort war“– und entsprechend institutionell gerahmt über Nachrichtenagenturen zirkulierte.49 Es selbst blieb in dieser Hinsicht inhaltsleer, weil es auch eine Kunstfotografie hätte sein können, die anderen Konventionen gehorcht.50 Der an Peirces Ausführungen deutlich gemachte prekäre indexikalische Status von Fotografien, nämlich dass das theoretisch im Zeichen repräsentierte Indexikalische praktisch nicht überprüfbar ist bzw. sich phänomenologisch der Gestaltwahrnehmung entzieht, hat weitreichende Implikationen. Denn dass Indizes unter Voraussetzung bestimmter physikalischer Vorannahmen als solche interpretiert werden müssen, um als indexikalische Zeichen zu fungieren – an einer Stelle spricht Peirce sogar von einem „independent knowledge of the circumstances of the production“51 –, eröffnet neben dem scheinbaren Normalfall eines gelungenen Verstehens des Zeichens zwei weitere gleichwertige Möglichkeiten, es zu (v)erkennen: Zum einen kann ein Index, selbst wenn eine existenti49

50

51

Dieses institutionelle Wahrheitszertifikat der Fotografie, das analytisch von deren Eigensinn zu unterscheiden ist, kommt beispielsweise darin zum Ausdruck, dass es – semiotisch formuliert – auf der pragmatischen Ebene abgesichert werden muss. Der Bundesverband der Pressebild-Agenturen hat beispielsweise bereits 1999 initiiert, jedes manipulierte Foto – sei es durch Montagen, Ausschnitte, Freistellungen oder farbliche Veränderungen – in der Bildunterschrift mit einem „[M]“ zu kennzeichnen (vgl. Michael Biedowicz/Ellen Dietrich: „Und bei der Zeit? Die Bildchefs der ZEIT und des ZEITmagazins über ihre Arbeit mit Fotos“. In: Zeitmagazin Leben, H. 24 [2008], S. 22-23, hier: S. 23). Tom Gunning betont dies ebenfalls in aller Deutlichkeit: „Bereft of language, a photograph relies on poeple to say things about it for it. […] [I]n order to speak the truth the photograph must be integrated into a statement, subjected to complex rules of discourse – legal rhetorical and even scientific (discussing all the aspect of the photograph, its exposure, developing, printing)“ (Tom Gunning: „What‘s the Point of an Index? Or, Faking Photographs“. In: NORDICOM Review 5.1-2 (2004), S. 39-49, hier: S. 42. Peirce: „Logic as Semiotic“ (wie Anm. 28), S. 106; Hervorhebung von mir.

78

MARTIN DOLL

elle Relation zu seinem Objekt besteht, unerkannt bleiben, wenn er nicht als solcher interpretiert wird (dies ändert zwar nichts an seinem Status52, führt aber dazu, dass er nicht verstanden wird). Zum anderen aber kann etwas als Index auf ein Objekt gedeutet werden, obwohl eigentlich keine existentielle Beziehung zwischen beiden besteht: So kann Rauch, das häufig als Beispiel für ein indexikalisches Zeichen angeführt wird, weil es in einer kausalen Relation zu Feuer steht, unter Umständen von einer Nebelkerze stammen und dennoch als Zeichen für ein Feuer gelesen werden. Und auch das Legen von falschen Spuren, von falschen Fußspuren hat eine lange Tradition in der Geschichte.53 Ähnlich erzeugt ein synthetisch erzeugter fotografischer oder filmischer Look ein vermeintliches Wissen von einer bestimmten physikalischen Verbindung eines Bildes zur Realität; dabei handelt es sich um visuelle Eigenschaften, die anscheinend dessen Indexikalität beglaubigen. In diesem Fall übernimmt das Ikonische des Zeichens die Herrschaft über das Indexikalische. Anders gesagt, das kraft seiner non-existenten figurativen Phänomenalität54 epistemologisch äußerst unsichere indexikalische Zertifikat des Fotografischen – die immer schon als nicht überprüfbare und daher unverlässliche Voraussetzung fungierende Annahme einer existentiellen Relation der Fotografie zu ihrem Objekt – verlängert sich im genannten Fall für visuelle Repräsentationen, die nur das Wissen von einem indexikalischen Zeichenstatus aufrufen, ohne die Voraussetzung dafür tatsächlich zu erfüllen.55 Unter Umständen algorithmisch erzeugte Bilder werden dann praktisch als indexikalische aufgefasst – auch wenn sie theoretisch nicht mehr unter diese Kategorie fallen. Führt man sich vor diesem Hintergrund noch einmal das Beispiel von Peirce vor Augen, dem zufolge Crusoe die Fußspuren unter Zuhilfenahme ihres Kontexts und eines Vorwissens als Index auf die Existenz eines zweiten Inselbewohners interpretiert hat, so ist diese Kontextualität auch 52

53

54

55

Auch hier wird Peirce sehr deutlich: „An index is a sign which would, at once, lose the character which makes it a sign if its object were removed, but would not lose that character if there were no interpretant“ (ebd., S. 104). Diese ‚falschen‘ Spuren bleiben strenggenommen indexikalisch, weil auch sie sich durch eine kausale Relation zu ihrem Objekt auszeichnen. Es handelt sich dabei nur – wie auch schon bei den weiter vorne angeführten fotografischen Fälschungen – um andere Objekte als die durch die Interpretation angenommenen. Damit ist beispielsweise, wie man in Anlehnung an Ecos Definition der ikonischen Codes der figurae formlieren könnte, das Erkennen von Figur-Hintergrund-Beziehungen gemeint (vgl. Eco: „Die Gliederung des filmischen Code“ (wie Anm. 1), S. 237). Dies gilt auch für die eingangs angeführten Geisterfotografien Mumlers.

ZUR INDEXIKALITÄT DES DIGITALEN

79

bei audiovisuellen Medien von entscheidender Bedeutung: Nicht nur bei der Fotografie, sondern auch bei Film und Video sind neben der komplex zustande kommenden visuellen Information der Einzelbilder – sei es, dass man darin ein Wissen von ihrer Indexikalität investiert oder sie zudem ikonisch deutet – weitere Kontextualisierungen am Werk, die über ihre Evaluation maßgeblich entscheiden. Walter Benjamin hat diesen grundlegenden operativen Zusammenhang von Bewegtbildern – semiotisch formuliert: ihre syntagmatischen Beziehungen, d. h., in welcher Reihung sie erscheinen – in einem Satz zusammengefasst: Die Direktiven, die der Betrachter von Bildern in der illustrierten Zeitschrift durch die Beschriftung erhält, werden bald darauf noch präziser und gebieterischer im Film, wo die Auffassung von jedem einzelnen Bild durch die Folge aller vorangegangenen vorgeschrieben erscheint.56

Neben dem maßgeblichen Einfluss, den die Verkettung von Filmeinstellungen auf ihre Einzelevaluation hat – ein Effekt, den schon sehr früh Kuleschow bei seinen Experimenten entdeckt hat –, ist im Bereich des Filmischen noch eine Reihe weiterer Elemente nicht zu vergessen, die sich in der Vorstellung des Zuschauers zu einem filmischen Gesamteindruck oder zu einer dokumentarischen Behauptung synthetisieren: Sprache (in Grafik und Wort) ebenso wie Ton. Denn obwohl es die Bezeichnung nahelegt, muss man sich vergegenwärtigen, dass man es beim Film nicht nur mit einem Sehen, sondern seit der Einführung des Tonfilms mit einem Hören und damit auch mit dem sinnfälligen Verhältnis zwischen Ton und Bild, zwischen Text und Bild zu tun hat. Diese textlichen und auditiven Elemente haben einen entscheidenden Anteil an der Bedeutungsproduktion, weil sie auf bestimmte Bildaspekte hinweisen oder andere in den Hintergrund treten lassen.57 Zerlegt man die Bild-Sprache-Ton-Relationen in ihre Einzelteile, wird deutlich, dass mit Voice-over, Schrifteinblendungen und Geräuschen Bildern ein Sinn supplementiert wird, der ihnen äußer56

57

Walter Benjamin: „Das Kunstwerk im Zeitalter seiner technischen Reproduzierbarkeit“ [Dritte Fassung]. In: Gesammelte Schriften. Hg. v. Rolf Tiedemann/Hermann Schweppenhäuser, Bd. I.2. Frankfurt a. M. 1991, S. 471-508, hier: S. 485. Strenggenommen handelt es sich bei bestimmten Geräuschen bzw. Soundeffekten und textlichen Erklärungen wiederum um indexikalische Zeichen, bedenkt man Peirces umfassende Definition, dass „[a]nything which focusses the attention is an index. Anything which startles us is an index, in so far as it marks the junction between two portions of experienece. Thus a tremendous thunderbolt indicates that something considerably happended, though we may not know precisely what the event was. But it may be expected to connect itself with some other experience“ (Peirce: „Logic as Semiotic“ (wie Anm. 28), S. 108).

80

MARTIN DOLL Abb. 14: Standbild des Videos von der Demonstration

lich ist. Mit anderen Worten: Der Gebrauch, den man von Filmeinstellungen macht, ist durch die einzelnen Bilder nicht vorgeschrieben.58 Denkt man die zuletzt zitierten Überlegungen Peirces und Benjamins zusammen, werden Bilder meist erst kraft der Beiordnung sonorer und sprachlicher Zeichen oder anderer Bilder zu Aussagen verdichtet – zu Aussagen, die trotz der Indexikalität der visuellen Darstellungen wahr oder falsch sein können. Der Kontext der Aufnahme ist also in den Bildern nie restlos abgelegt und lässt sich auch nie vollkommen reproduzieren, sondern allenfalls unter Zuhilfenahme sprachlicher und filmischer Mittel (re)konstruieren; umgekehrt lässt er sich daher mit weitreichenden Konsequenzen variieren. Was als Kontext oder Umfeld eines Bildmotivs erscheint – sei es noch in einer Liveübertragung – ist daher immer Ergebnis zahlreicher Wahlentscheidungen oder Ausschlüsse sowie montagebedingter und sprachlicher Deutungen. Eine medienmaterialistische Betrachtung der digitalen Prozessierung bzw. Manipulierbarkeit von Bildern und Tönen sorgt daher allenfalls dafür, diese mit einem berechtigten grundsätzlichen Zweifel zu versehen, der allerdings angesichts analoger Bildtechniken – denkt man an die bereits angeführten frühen Foto(ver)fälschungen oder seien es mit entsprechenden ‚Direktiven‘ versehene Fotografien oder Videos – auch immer schon angebracht war. Berühmte Beispiele dafür wären die ‚Bildberichterstattung‘ über Trittins Beteiligung an einer gewalttätigen Demonstration (Abb. 14, 15) und die gefälschten Magazinbeiträge von Michael Born für stern TV. 58

Chris Marker hat die Maßgeblichkeit der genannten Korrelationen zum Gegenstand seines Films Lettre de Sibérie (1957) gemacht, in dem an einer Stelle eine bestimmte Filmsequenz mit identischen Bildern dreimal wiederholt wird, aber jeweils mit einem anderen Text-Kommentar (einmal pro-sowjetisch, einmal politisch neutral, einmal anti-sowjetisch) versehen ist, wodurch sich die Bedeutung, die der Zuschauer im Gezeigten sieht, jedes Mal radikal ändert.

ZUR INDEXIKALITÄT DES DIGITALEN

81

Abb. 15: Abbildung zu „Was machte Minister Trittin auf dieser Gewalt-Demo?“, in: Bild-Zeitung (29. 1. 2001)

Damit dürfte hinreichend begründet sein, dass aus semiotischer Perspektive zwischen Indexikalität und Wahrheitsanspruch von Fotografien bzw. Filmbildern unterschieden werden muss. Zum Ende bleibt noch die Frage zu beantworten, ob mit der Verfügbarkeit digitaler Technik aus medienmaterialistischer Sicht die semiotischen Vorraussetzungen für die Indexikalität des Fotografischen oder Filmischen verloren gegangen sind. Um die gesamte Dimension des indexikalischen Zeichens zu erfassen, soll daher von dessen Verstehensbedingungen noch einmal zu dessen notwendigen Entstehungsbedingungen übergegangen werden.

Zur Indexikalität des digitalen Signals Hier gilt es zu rekapitulieren, dass für Peirce ein Index zwangsläufig eine existentielle Verbindung zu seinem Gegenstand zur Voraussetzung hat. Bei der analogen Fotografie ist diese Kontiguität physikalisch dadurch gegeben, dass die Lichtstrahlen, die von einem Objekt reflektiert werden, bei der Belichtung des Films eine chemische Reaktion des Filmkorns zur Folge haben, die sich durch Entwicklungsprozesse als dessen Schwärzung auswirken. Bei genauerer Betrachtung kann auch im Falle der digitalen Bildspeicherung von einer existentiellen Beziehung gesprochen werden, insofern das Licht zwar nicht von Filmmaterial aufgezeichnet wird, aber durch CCDs in elektrische Ladungen verwandelt wird, welche wiederum digital gewandelt und so gespeichert werden. Eine physische oder kausale Verbindung bleibt, selbst wenn es, wie schon beim Analogen gezeigt, auf der phänomenalen Ebene keine visuelle Garantie dafür gibt. Wenn man die Materialität des analogen Films gegen den digitalen ausspielt, argumentiert man fast so, als wäre das Digitale etwas geisterhaft Non-Substanzielles, das kei-

82

MARTIN DOLL

ne physische Realität beansprucht. Aber auch Phänomene im Nanobereich, Magnetisierungen auf einer Festplatte und Einschreibungen eines Lasers auf einer DVD oder einer Blu-ray Disc sind materielle Phänomene.59 Noch ein anderer technischer Aspekt bedarf in diesem Zusammenhang einer Klärung: Denn häufig wird als Differenzkriterium zwischen dem Analogen und dem Digitalen generell die CCD-Technologie angeführt bzw. diese mit einer digitalen und damit nicht mehr indexikalischen Bildaufzeichnung in eins gesetzt. Das ist jedoch falsch: CCD-Chips, wie sie in ihrer technisch weiterentwickelten Variante mittlerweile beim Dreh von Kinofilmen zum Einsatz kommen, müssten nämlich korrekterweise mit der Quantenphysik, einer analogen Technik, und nicht mit dem Digitalen in Verbindung gebracht werden. Sie befanden sich auch schon in analogen elektronischen Kameras (anfangs eher im Consumer-Bereich und ersetzten später zunehmend im Profi- und Studiobereich die Röhrenkamera-Technik). Aber was ist ein CCD? CCD steht für „Charge Coupled Device“, zu deutsch: ladungsträgergekoppelte Schaltung. Man muss sich die CCD-Chips als Raster von einzelnen Zellen vorstellen (mehr Zellen auf dem Raster, mehr Bildpunkte, mehr Megapixel). Durch Belichtung der einzelnen Zellen entsteht ein elektrisches Potential analog zum Lichteinfall, bei mehr Licht entsteht mehr Ladung. Nach jeder Belichtungsphase (bei der digitalen Kinematografie also in der Regel 1/24 Sekunde) werden die angesammelten Potentiale wie in einer Eimerkette von Zelle zu Zelle in eine Leitung abgeleitet, wo sie – verkürzt gesagt – ausgemessen werden und ein Signal bilden. Dabei wird – wie man in Anlehnung an Luhmann formulieren könnte60 – ein Nebeneinander von elektrischen Potentialen in ein Nacheinander verwandelt, schließlich gemes59

60

Hans-Ulrich Reck schreibt in seinem Buch Mythos Medienkunst zu Recht, dass in diesem Zusammhang die Bezeichnung Virtuelle Realität häufig für alles bemüht werde, „das real ist, ohne prinzipiell einer physikalischen Ausdehnung in einer für menschliche Größenverhältnisse typischen Weise zu bedürfen.“ Die Behauptung von dimensions- und raumlosen, jenseits physikalischer Gesetze situierten Phänomenen sei jedoch strikter Unfug, denn zum Beispiel Lichtgeschwindigkeit und nanomillimeter-große Operatoren oder Roboter gehörten immer noch zum physikalischen Universum, wenngleich manche physikalischen Phänomene schlicht die Vorstellungskraft überstiegen (vgl. Hans-Ulrich Reck: Mythos Medienkunst. Köln 2002, S. 45 f.). Bereits Luhmann rückt dies in den Zusammenhang der Umformung analoger in „digitale Verhältnisse“. Für ihn ist diese Transformation jedoch schon „eine Funktion der Sprache, die ein kontinuierliches Nebeneinander in ein diskontinuierliches Nacheinander verwandelt.“ (Niklas Luhmann: Die Gesellschaft der Gesellschaft, Bd. 1, Frankfurt a. M. 2006, S. 101)

ZUR INDEXIKALITÄT DES DIGITALEN

83

sen und so in eine Reihe von Datenwerten übersetzt. Wie diese Messwerte dann gespeichert werden, ob als analoge Schwingungen oder in binärer Form, also digital, hat mit der CCD-Technik gar nichts zu tun. Dieser Übersetzungsprozess von einem Nebeneinander in ein Nacheinander zeichnete indes auch von Anfang an die analoge Fernsehtechnik mit ihren in Punkte auf Zeilen ‚aufgelösten‘ Bildern aus und ist auch das Grundprinzip elektronischer Röhrenkameras. Der Unterschied zwischen Analog- und Digitaltechnik besteht also nur im digitalen Sampling und der nachfolgenden digitalen Aufzeichnung dieser quantisierten Daten.61 Wenn Peirce als Beispiele für einen Index eine Barometeranzeige, eine Sonnenuhr, ein Metermaß und – besonders instruktiv – von der Küstenwache herausgegebene Mitteilungen mit Zahlenangaben zum Längen- und Breitengrad bestimmter ozeanischer Objekte62 anführt, müsste jedoch für jede auch digitale Form von Messergebnis gelten, dass es indexikalisch ist. Tom Gunning reißt daher völlig zu Recht die an digital quantisierten Messwerten festgemachte Unterscheidung zwischen dem vormals Indexikalischen und dem angeblich nicht mehr indexikalischen binären Code des Digitalen ein: Long before digital media were introduced, medical instruments and other instrument [sic] of measurement, indexical instruments par excellance [sic] – such as devices for reading pulse rate, temperature, heart rate, etc, or speedometers, wind gauges, and barometers – all converted their information into numbers.63

Obwohl soeben von einem „Nur“ des digitalen Samplings als Differenzierungsmerkmal zur analogen Bildtechnik die Rede war, hat dies eklatante Auswirkungen auf den Status der Zeichenphänomenalität. Denn während beim chemisch-physikalischen Filmprozess die empfangenen Lichtdaten ausschließlich visuell umsetzbar bzw. übersetzbar sind64, sind im Vergleich 61 62 63

64

Die Ausführungen zum CCD-Chip sind angelehnt an: Hagen: „Die Entropie der Fotografie“ (wie Anm. 18), S. 221 f. u. 234. Vgl. Peirce: „Logic as Semiotic “ (wie Anm. 28), S. 108 f. Gunning: „What‘s the Point of an Index?“ (wie Anm. 50), S. 40 Wolfgang Hagens in seinem ansonsten äußerst instruktiven Aufsatz getroffene Schlussfolgerung, „eine Messung ergibt niemals das Zeichen des Dings“, ist daher in diesem Zusammenhang zurückzuweisen, weil dabei die Komplementarität der Entstehungs- und Erscheinungsmodi eines indexikalischen Zeichens, d. h., wie es zustande kommt und wie es sich zeigt, außer Acht gelassen wird (Hagen: „Die Entropie der Fotografie“ (wie Anm. 18), S. 234). Auch dies gilt nur mit Einschränkungen für sämtliche analogen Bildmedien, denn eine gewisse Bedeutungsoffenheit müsste schon für analoge elektronische Schwingungen gelten, weil diese ebenfalls durch eine Verschiebung des Frequenzspektrums

84

MARTIN DOLL

dazu die indexikalischen Digitalsignale bezüglich ihres Darstellungsmodus weitaus ergebnis- und bedeutungsoffener. Während im ersteren Fall – um mit Peirce zu sprechen – eine Verkörperung des Indexikalischen nur mittels ikonischer Zeichen möglich war, können digital gewandelte Lichtmessdaten z. B. auch zu Tönen prozessiert werden. Dennoch hat man es dabei mit indexikalischen Zeichen zu tun, denn die weiter oben angeführte Unbestimmtheit des Indexikalischen hat theoretisch auch zur Folge, dass etwas indexikalisch sein kann, ohne zugleich Bild zu sein bzw. ohne notwendig in eine bildliche Repräsentation übersetzt werden zu müssen.65 Dabei ist ebenfalls vor Augen zu halten, dass, wenn von digitaler Fotografie oder digitalem Kino die Rede ist, immer nur die digitale Aufzeichnung, Speicherung und Übertragung von Lichtdatenanordnungen gemeint sein kann. Auf der Darstellungsebene, sei es auf dem Monitor oder auf der Kinoleinwand, müssen die digitalen Signale in analoge übersetzt werden. Dafür sorgen die sogenannten D/A-Wandler. Denn digitale Signale kann man nicht sehen, „weil menschliche Sinne nur kontinuierliche Schwingungen wahrnehmen können“.66 Auf der phänomenalen Ebene kann man daher strenggenommen gar nicht von digitalem Kino sprechen, sondern allenfalls seine analogen Effekte betrachten. Insofern könnte vielleicht sogar der hohe Abstraktionsgrad der in digitale Signale übersetzten Bildmessdaten (die zwar informationstechnisch da sind, aber nicht verstanden oder wahrgenommen werden können) zu einem besseren Verständnis der eigentümlichen Bedeutungsleere des Indexikalischen als rein Zeigendes beitragen. Denn dadurch wird intelligibel, dass das Fotografische immer schon auf ein zweites Prinzip, das Ikonische angewiesen war. Zugespitzt formuliert hat man es bei digitalen Signalen vielleicht wirklich erstmals in der Geschichte mit reinen, „puren“ Indizes zu tun. Sie sind da und zeugen als Zeichen nur von einer exis-

65

66

hörbar gemacht werden können. Darüber hinaus wäre es auch eine interessante Frage, ob es nicht vielleicht sogar schon historische Experimente gab, Filmbilder durch Lichttonabnehmer hörbar zu machen. Der umgekehrte Weg, Töne in Lichtbilder (zumindest für den Filmprojektor) zu übersetzen, gehört hingegen zum technischen Standard der Lichttontechnik. Bei der sogenannten Sonifikation oder Audifikation macht man sich dies insofern zunutze, als Messdaten auf akustischem Wege dargestellt werden, etwa um Abweichungen zu erkennen oder die Erstellung von Datenclustern zu erleichtern. Diese hörbaren Messdaten sind ebenfalls als indexikalisch zu verstehen (vgl. dazu die Webseite der ‚International Community for Auditory Display (ICAD)‘: www.icad. org). Jens Schröter: „Analog/Digital – Opposition oder Kontinuum?“. In: ders./Alexander Böhnke (Hrsg.): Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung, Bielefeld 2004, S. 7-30, hier: S. 24.

ZUR INDEXIKALITÄT DES DIGITALEN

85

tentiellen Relation zu ihrem Objekt, harren aber ihrer weitergehenden Signifikation und Versinnlichung, d. h. bleiben so lange bedeutungsoffen, bis sie, in welcher Form auch immer, (analog) verkörpert bzw. wahrnehmbar gemacht werden. Insofern kann auch vielleicht wirklich erstmals in der Geschichte von einer Wahrheit des Indexikalischen gesprochen werden, aber von einer, die unsinnig bleibt, weil sie nur innerhalb der mathematischen Kommunikationstheorie ihren Platz hat und semiotisch (noch) nicht fassbar ist. Mit Verweis auf Bernhard Siegert lässt sich diese prekäre Wahrheit des indexikalischen digitalen Signals – eine Wahrheit, die auf dessen Nichtverstehbarkeit oder Bedeutungsleere, auf einem „bloßen Dass“ beruht – auf die von Claude E. Shannon theoretisierte radikale Trennung zwischen Information und Sinn, zwischen mathematischen und semantischen Aspekten der Kommunikation zurückführen: „Entweder hat man die Wahrheit (mathematische Kommunikationstheorie, M.D.): dann versteht man nichts oder man hat den Sinn (semantischer Aspekt der Kommunikation, M.D.): dann ist man betrogen.“67

Ausblick Durch die Ausführungen dürfte hinreichend klar geworden sein, dass die Peirce’sche Zeichenkategorie des Indexikalischen nur bedingt geeignet ist, als fundamentales Unterscheidungsmerkmal zwischen dem Analogen und dem Digitalen zu dienen. Zugleich dürfte einsichtig geworden sein, dass im Rückgriff darauf weder eine generelle nostalgische Verklärung analoger Medien noch eine allgemeine medienskeptizistische Ächtung des Digitalen sinnvoll zu leisten ist. Aber möglicherweise können die vorgebrachten, vornehmlich destruktiven Überlegungen dazu beitragen, bestimmte notorische Argumentationsmuster fragwürdig werden zu lassen, so dass ein Blick frei werden kann auf die signifikanten Unterschiede, auf die eigentlichen Bezugspunkte einer – wenn man so will – digitalen Revolution. Angesichts der Herausforderungen durch die Digitalisierung bietet sich nämlich tatsächlich die Chance, auch vergangene Medien wissenschaftlich in einem anderen Licht erscheinen zu lassen. Doch dafür bedarf es der Kon67

Bernhard Siegert: Relais. Geschicke der Literatur als Epoche der Post 1751-1913, Berlin 1993, S. 281. Shannon schreibt selbst: „Frequently the messages have meaning; that is they refer to or are correlated according to some system with certain physical or conceptual entities. These semantic aspects of communication are irrelevant to the engineering problem.“ (Claude Elwood Shannon: „The Mathematical Theory of Communication“. In: The Bell System Technical Journal 27.3-4 (1948), S. 379423 u. 623-656, hier: S. 379)

86

MARTIN DOLL

struktion von Differenzkriterien, die mehr Bestand haben als die gerade infrage gestellten. Abschließend sei daher noch einmal daran erinnert, dass die Zeichenhaftigkeit von Fotografie und Kinematografie nur ein Teilaspekt von deren sinnlicher Erfahrung ist. Die weitreichenden auch ästhetischen Veränderungen des Kinos durch die Digitaltechnik sind – insbesondere angesichts des noch jungen und noch lange nicht künstlerisch ausgeschöpften 3DFilms – nicht zu unterschätzen. Vielleicht besteht das Wesentliche auch dieser Filmkunst eben nicht in ihrem Abbildcharakter, sondern in ihrer Kraft – wie man in Anlehnung an Bazin formulieren könnte –, etwas unseren Realitätsvorstellungen hinzufügen zu können.68

68

Bazin: „Ontologie des fotografischen Bildes“ (wie Anm. 7), S. 63.

Teil II Effekte der Digitalisierung

Klaus Kohlmann

Illumination und Material – technische Komponenten des computergenerierten Films In der Filmwissenschaft wird der computergenerierte Spielfilm vor allem unter ästhetischen Gesichtspunkten analysiert und oft in einen Vergleich mit dem Realfilm gesetzt. Dieser Analyseweg geht aus von der Frage nach dem Stellenwert und der Verortung des computergenerierten Films im Diskurs über den Film. In der Literatur zum Film sind daher Fragen nach der Ästhetik des computergenerierten Films nahezu allgegenwärtig, und Antworten hierauf werden in der Regel aus der (vermuteten) ästhetischen Wirkung von elektronisch berechneten Bildern abgeleitet, denen ein dreidimensionaler Raum zugrunde liegt. Der hier zum Einsatz kommende dreidimensionale virtuelle Raum begünstigt den wissenschaftlichen Vergleich mit dem Computertrickfilm, da Räumlichkeit im Trickfilm konventionell hinreichend bekannt ist, etwa in Form des Puppentrickfilms. Als computergenerierter Film wird in den folgenden Ausführungen der Spielfilm verstanden, dessen Bildebene über den Computer berechnet und ausgegeben wurde1, ohne den Einsatz realer Filmkameras. Hierfür ist seit Mitte der neunziger Jahre auch der Begriff vollständig computergenerierter Film in das Vokabular des Cineasten gelangt, was daran liegt, dass entsprechend computerbasierte Filme jetzt die Dimension abendfüllender Spielfilmlänge erreicht haben. Der dazu einschlägige Diskurs hält für die hier maßgebenden computerbasierten Bewegtbilder den speziellen Begriff der Computeranimation bereit, obwohl damit streng genommen nur ein Teilgebiet des gesamten Herstellungsprozesses beschrieben wird. Warum man mit einer solchen pars pro toto-Terminologie nicht den gesamten Arbeits- und Produktionsprozess computergenierter Spielfilme beschreiben kann, wird zu erläutern sein. 1

Ungeachtet der Bildebene werden vielfältige Computerprogramme auch für die Nachbearbeitung des Films verwendet, z.B. die bekannte Avid-Software für Filmschnitt oder Soundprogramme zur Vertonung eines Films. Diese Nachbearbeitungssoftware findet auch bei Realfilmen ihren Einsatz und gehört nicht ausschließlich zum Untersuchungsgegenstand des computergenerierten Films.

90

KLAUS KOHLMANN

Um dies zu zeigen, wird es in den folgenden Ausführungen darum gehen, die visuellen Komponenten des elektronisch erzeugten Bewegtbildes zu skizzieren, wozu seine bildliche Ebene in terminologisch benennbare Unterscheidungen gegliedert werden kann. Dazu sollen im nachfolgenden Schritt mit Material und Illumination zwei Begriffe genauer erläutert werden, die bis dato einen eher geringen Stellenwert in der wissenschaftlichen Analyse einnehmen; damit soll versucht werden, der in der Fachliteratur häufig übergewichtigen Betonung der Komponente Animation ein wenig entgegenzuwirken. Grundsätzlich kann vorab gesagt werden, dass in computergenerierten Filmen mit Hilfe einer 3-D-Anwenderapplikation, die im Rechner einen virtuellen, dreidimensionalen Raum zur Verfügung stellt, inszeniert wird. In diesem Raum kann sich der 3-D-Grafiker frei bewegen, was genau genommen meint, seinen Betrachterstandpunkt frei wählen. Die Applikation bietet des Weiteren eine Fülle von Werkzeugen, die es dem Grafiker erlauben, dreidimensionale Geometrieobjekte zu modellieren und zu positionieren. Im Rahmen solcher Modellierungsprozesse entstehen szenische Hintergründe, Vordergründe, Figuren, Requisiten, Architekturen und Landschaften, wodurch virtuelle, d.h. ausschließlich errechnete Welten, und in ihnen virtuelle Figuren erschaffen werden können; sie erinnern, wie sich noch zeigen wird, zumal in der ersten Phase des computeranimierten Spielfilms an die Merkmale eines Puppentrickfilms in einem Miniaturset. Der weitere Produktionsprozess sieht dann so aus, dass nach der Modellierung alle Geometrieobjekte mit einem Material versehen werden, das ihnen auf der Basis gewohnter Erfahrungswerte eine optisch simulierte Materialität zuweist: Metall, Stein, Holz oder menschliche Haut für Protagonisten sind hier vor allem zu nennen. Danach werden die Reaktionen dieser Materialien auf das einfallende Licht mit Hilfe von sog. Schattierern=Shader-Algorithmen berechnet, um die für die jeweilige mise en scène beabsichtigten Lichteffekte zu ermitteln. Maßgebend für diese Phase der Illumination ist der Versuch, die Sehgewohnheiten von Rezipienten zu treffen, die auch die neuen, virtuell erzeugten Szeneninhalte in einer den Ausleuchtungsdramaturgien von Hollywood adäquaten Lichtgebung sehen wollen. Erst wenn diese Arbeitsphasen abgeschlossen sind, kommt es in der Phase der Animation darauf an, allen Geometrieobjekten eine Positions-, Orientierungs- oder Gestaltänderung in der Zeit zu geben, was entweder einfach oder auch sehr komplex ausfallen kann. Das für die Verwandlung in einen zweidimensional belichteten Film noch fehlende Glied in der Kette der Komponenten ist die Bildberechnung, die auch als Rendern (engl. to render = übergeben) bezeichnet wird.

ILLUMINATION UND MATERIAL

91

Der Prozess generiert zweidimensionale Abbilder aus dreidimensional entworfenen virtuellen Szenen, die einer virtuellen Kamera entstammen, die Teil der virtuellen Szene selbst ist; diese Abbilder werden entweder als Standbild oder als digitaler Filmclip generiert.2 Aus der Montage verschiedener Filmclips, die je einer virtuellen Szene mit Figuren und Landschaften entsprechen, entsteht im Filmschnitt als Resultat der computergenerierte Film, der daher oft auch als ‚gerenderter Film‘ bezeichnet wird.

Die Komponenten des computergenerierten Bewegtbildes Die Methodik zur Zerlegung der visuellen Ebene des computergenerierten Spielfilms in mehrere Komponenten geht auf Unterscheidungen zurück, die in designkreativen Entwicklungsprozessen in jeweils unterschiedlichen Gewichtungen vorkommen. Eine gegenüber unserer bisherigen Terminologie leicht erweiterte Unterscheidung ist danach wie folgt möglich: Figuration, Umgebung (Material und Oberflächen), Illumination (Licht und Beleuchtung), Animation. Dies soll kurz skizziert werden.3 Figuration meint alle bildlichen Geometrieobjekte, in denen sich die Protagonisten des Films darstellen. Dazu gehören die Figuren des Films – Haupt- und Nebenfiguren – einschließlich Kleidung, Frisur und Requisiten. Umgebung definiert die Welt der Materialien und Oberflächen, in denen die Figuren ihren Auftritt haben. In Analogie zum Realfilm sind hierfür dessen Setbezeichnungen gebräuchlich, weshalb auch für den computergenerierten Spielfilm die Unterscheidung zwischen Außen- und Innenset als legitim gilt, obwohl für den virtuellen dreidimensionalen Raum eigentlich keine dieser Kategorien zutrifft. Für den Bereich der Illumination hat diese traditionelle Unterscheidung zur Folge, dass man hier nach wie vor von den Beleuchtungsanforderungen für den Realfilm ausgeht und diese begrifflich auf das computergenerierte Filmset überträgt. Ein Außendrehort soll dann auch jetzt normal erscheinendes Tagesoder Nachtlicht aufweisen, während ein Innenraum vornehmlich mit (high key- bis low key-)Lichteffekten erhellt wird.

2 3

In der Filmindustrie konkurrieren zwei bekannte Renderer; Renderman der Produktionsfirma Pixar, sowie mental ray der Berliner Firma mental images GmbH. Vgl. Kohlmann, Klaus: Der computeranimierte Spielfilm, Bielefeld 2007, S. 81 ff.

92

KLAUS KOHLMANN

Abb. 1

Neben den eben genannten Komponenten erfreut sich die Animation eines deutlich größeren Bekanntheitsgrads außerhalb der Expertenwelt der 3-D-Computergrafik. Die dabei vorherrschende Frage, ob sich Trickfilmfiguren geschmeidig-natürlich oder mechanisch-rigide bewegen, beschäftigt den Trickfilm schon von Anbeginn seiner Geschichte, und Diskussionen hierzu finden in der 3-D-Entwicklungsumgebung ihre Fortsetzung. Aus dieser Anlehnung an die Geschichte des Trickfilms leitet sich der verbreitete Begriff Computeranimation ab, der leicht übersieht, dass alle zuvor aufgezählten Prozesse zuerst mit dem Computer ausgeführt werden müssen, bevor sie animiert werden können. Der Schwerpunkt dieser Untersuchung soll auf die Komponenten Material und Illumination gelegt werden, da sie die visuelle Ästhetik des computergenerierten Films maßgeblich bestimmen. Die Untersuchung der Oberflächenbeschaffenheit gibt Aufschluss über die Wirksamkeit computergenerierter Filme und die Lesbarkeit und Kategorisierbarkeit von gerenderten Filmen. Insofern ist die Analyse von Material- und Oberflächenbearbeitungen ein geeignetes Mittel zur Unterscheidbarkeit und Entwicklungsforschung von Typologien der Visualistik innerhalb des computergenerierten Films. Hierauf aufbauend lassen sich aus heutiger Sicht grob zwei Formen einer solchen Visualistik unterscheiden. Die erste Ausprägung beginnt mit dem ersten vollständig computergenerierten Film Toy Story (USA, 1955, Regie John Lasseter), dessen geome-

ILLUMINATION UND MATERIAL

93

trische Objekte nach heutigem Standard eine eher rudimentäre Oberflächenbeschaffenheit haben, sah doch zu dieser Zeit alles, was aus dem Rechner kam, nach „Blech und Plastik“ aus.4 Gleichwohl hat es der Regisseur John Lasseter, der sich bis dahin als Innovator mehrerer computergenerierter Kurzfilme ausgezeichnet hatte, geschickt verstanden, die damalige Schwäche der Computerbilder in eine Stärke zu verwandeln. Die dazu verfolgte Strategie lief darauf hinaus, den Film so zu inszenieren, als ob er von Plastikpuppen und -spielzeug handelt, was dazu geführt hat, dass dem Film ein vom längst etablierten Comic her bekannter Cartoon-Stil bescheinigt wurde. Entscheidend hierfür ist, dass die im Vergleich zur Realität reduzierte Materialität der Geometrieobjekte die Rezipienten an die Charakteristik von Comic-Zeichnungen oder auch den konventionellen Zeichentrickfilm erinnert (vgl. Bild 1). Gezeigt werden zwei Figuren, die im Ambiente einer dreidimensional gezeichneten Comic-Zeichnung auftreten. Aufgrund eines ausgesprochen starken Farbkontrastes sind die Geometrieobjekte – dazu gehören die Figuren selbst, aber auch ihre Kleidung, Ausrüstung, Requisiten, das Bett und die Zimmerwand – gut von einander unterscheidbar, geben aber in der gleich bleibenden glatten Gestaltung ihrer Oberflächen keinerlei nennenswerte Hinweise auf die materielle Beschaffenheit dieser Oberflächen, ihre jeweilige Materialität also zu erkennen. Hinweise in diese Richtungen lassen sich weder der völlig ungerasteten Oberfläche des Kopfkissenbezugs noch den Flügeln des Astronauten Buzz Lightyear zuordnen, und das Holzmaterial der rückwärtigen Wand wird lapidar durch eine Bildtextur gekennzeichnet. Sebastian Richter spricht im Hinblick auf diese für Figuren wie Inventar geltenden Charakteristika von einem stilistischen Mittel, das daher rührt, dass sich Produktionsstudios (noch) der Arbeit verweigern, digitalen Figuren und ihrer Umwelt ein menschennahes Aussehen oder gar das Erscheinungsbild eines realen Schauspielers zu verleihen: Um diesem direkten Vergleich zu entgehen, werden in computergenerierten Animationsfilmen wie Toy Story (USA 1998), The Incredibles (USA 2004), Shrek (USA 2001) oder Finding Nemo (USA 2003) menschliche Körperbilder von vorneherein cartoonhaft inszeniert und mit den klassischen Mitteln des Animationsfilms deutlich als künstliche Figuren gekennzeichnet, weshalb die meisten

4

Giesen, Rolf/Meglin, Claudia: Künstliche Welten. Tricks, Special effects und Computeranimation im Film von den Anfängen bis heute. Hamburg/Wien 2000, S. 36.

94

KLAUS KOHLMANN Zuschauer und Zuschauerinnen bei Cartoon Figuren den digitalen Look als stilistisches Mittel empfinden.5

Der Cartoon-Stil des ersten computeranimierten Spielfilms ist also aufgrund der vorerst begrenzt verfügbaren Speicherressourcen der Computerhardware sowie der aus heutiger Sicht nur schwach ausgebildeten Algorithmen als Inszenierungsstil durchaus beabsichtigt, und die Computergrafik hat erst danach den Kurs auf die digitale Königsdisziplin des Fotorealismus genommen. Was nicht ausschließt, dass es bis heute zahlreichen Filmen im Cartoonstil gelingt, die Herzen der Kinozuschauer zu gewinnen und damit die Kinos zu erobern. 6 Schon wenige Jahre nach Toy Story kam der Film Final Fantasy (USA/ Japan 2000, Regie: Hironobu Sakaguchi und Motonori Sakakibara) in die Kinos, und er gilt als erster Versuch, fotorealistisch anmutende computergenerierte Bilder kommerziell zu verwerten. Denn jetzt sollte Computergrafik Bilder berechnen, die mit bloßem Auge von realen Fotografien nicht zu unterscheiden sind, und maßgeblich hierfür waren in erster Linie ökonomische Gründe: es galt mit Hilfe des Computers Drehorte zu erschaffen und Inhalte zu inszenieren, die als Real-Film einfach zu teuer und daher in ökonomischer Hinsicht gar nicht durchführbar gewesen wären. Für diese Kunstrealität hat sich in der 3-D-Grafik der Begriff des Fotorealismus durchgesetzt, wozu der Medientheoretiker Manovich kritisch anmerkt: Was die digitale Simulation (fast) erreicht hat, ist nicht Realismus, sondern Photorealismus, also die Fähigkeit, nicht unsere sinnliche und körperliche Erfahrung der Realität, sondern deren Filmbild nachzuahmen. […] Was nachgeahmt wird, ist nur ein filmisches Bild.7

Heute aber erreichen den Zuschauer Renderings, die einem nahezu perfekten Fotorealismus zugeschrieben werden können. Zu nennen sind Avatar (USA 2009, Regie: James Cameron), der viele computergenerierte fotorealistische Sequenzen aufweist, oder Pirates of the Caribbean: Dead Man‘s Chest (USA 2005, Regie Gore Verbinski), der auf figurativer Ebene computergenerierte fotorealistische Fischmenschen zeigt. 5 6 7

Richter, Sebastian: Digitaler Realismus: Zwischen Computeranimation und Live-Action. Die neue Bildästhetik in Spielfilmen. Bielefeld 2008, S. 151. Aktuell läuft gerade Brave (USA 2012, Regie: Mark Andrews, Brenda Chapman) in den Kinos an. Manovich, Lev: „Kino und digitale Medien“. In: Schwarz, Hans Peter/Shaw, Jeffrey: Perspektiven der Medienkunst; Museumspraxis und Kunstwissenschaft. ZKM/ Zentrum für Kunst und Medientechnologie. Karlsruhe 1996, S. 47.

ILLUMINATION UND MATERIAL

95

Insgesamt gesehen lässt sich sagen, dass beide Stile – Cartoon wie Fotorealismus – bis heute vom Kinopublikum akzeptiert werden und parallel zueinander hohe Einnahmen einspielen. Während die Möglichkeiten des Fotorealismus grenzenlos zu sein scheinen, spricht für die Cartoon-Filme ihre vergleichsweise einfache und das heißt weniger kostenaufwendige Technik. So greift der Cartoon mit dem Phong-Schattierer8 immer noch auf algorithmische Ressourcen zurück, wie sie bereits zur Zeit des ersten computergenerierten Films verfügbar waren.

Material: Die Modellierung von Oberflächen am Beispiel Wall-E Der qualitative Standard von Oberflächen ist im gegenwärtigen computergenerierten Film aufgrund der rasanten Entwicklung der Computertechnik sehr hoch geworden. Oberflächen wirken hier daher keineswegs mehr nur ,oberflächlich‘, vielmehr glauben wir in computergenerierten Filmen die Plastizität von Metallen förmlich fühlen zu können, mit unserem Blick die Kunstfertigkeit von virtuellem Steinmaterial abzutasten, Holz lebensecht knarren zu hören, und sogar Plastiken werden zu Kunststoffen mit veredeltem Ambiente verarbeitet. Mit anderen Worten: Der Rezipient meint, die optisch vermittelte Materialität von Keramik, Glas, Gummi zu fühlen, und Hochkonjunktur haben mehrschichtige Materialien wie Autolacke oder menschliche Haut, wobei sich zumal hier die letzten Grenzen zwischen organischen und anorganischen Bild-Gebungen fotorealistisch auflösen. Hinzu kommt: Materialien sind nicht mehr nur homogen, sondern unterscheiden sich von einander aufgrund von Attributen wie Abnutzung, Verwitterung, Verschmutzung. Sogar ihr Alter und die Art ihres Verschleißes soll man aus ihrer optischen Gestaltung gleichsam ,ablesen‘ können. Glas ist dann zum Beispiel nicht länger nur transparent, sondern auch poliert oder verkratzt, und man sieht die sich spiegelnde Welt darin einschließlich der Lichtbrechung. Und, aus der fotorealistischen Plastizität von Materialien lassen sich Möglichkeiten zu ihrer narrativen Integration in den Erzählfluss eines Films ableiten. Dies lässt sich im jetzt als Beispielfilm vorzustellenden Film Wall-E (USA 2008, Regie: Andrew Stanton) daran erkennen, wie hier Materialien und Oberflächenbeschaffenheiten mit narrativ pointierten dramaturgi8

Vgl. dazu unten S. 97.

96

KLAUS KOHLMANN

Abb. 2

Abb. 3

schen Konstellationen verknüpft werden. So platzieren materielle Kontraste die schmutzig-versandete Erde in einen Gegensatz zum blankpolierten Raumschiff Axiom, und ein ähnliches Gegensatzpaar entsteht auf figurativer Ebene: Der rostig-kantige Roboter Wall-E (vgl. Bild 2) bildet einen Kontrast zur geschmeidig-glänzenden Eve (vgl. Bild 3). Die Produktionsfirma Pixar, die für Wall-E verantwortlich zeichnet, hat aufgrund ihrer Geschichte zwar den Ruf einer Verfechterin des Cartoonstils, doch ist die Aussage zulässig, dass Wall-E als Beispiel moderner computerbasierter Filmproduktion deutlich diffizilere Ästhetiken aufweist als dies in der Toy Story dem ersten computergenerierten Animationsfilm gelang.

Beispiel Metallplatte Im folgenden, fachpraktisch nachgestellten Beispiel soll eine Metallplatte nach dem Vorbild der Metallplatte entwickelt werden, auf der der Roboter Wall-E in Bild 2 steht. Um die Grafik, die dazu zu entwickeln ist, optisch

ILLUMINATION UND MATERIAL

97

aufzuwerten und einen Vergleich zwischen zwei verschiedenen Objekten zu ermöglichen, wurde auf der Platte ein weiteres einfaches Objekt – ein Trinkgefäß – modelliert. Es gilt, das Augenmerk auf solche auszuführenden Prozesse in der 3-D-Grafik zu werfen, mit deren Hilfe die jeweils erwünschte Materialität geometrisch modellierter Gegenstände visualisiert werden kann. Ausgangspunkt ist eine 3-D-Szene, in der zwei Objekte modelliert vorhanden sind.9 Es handelt sich um eine Tischplatte, auf der ein Trinkgefäß steht (Bild 4). Beide Objekte haben noch keine besondere Oberflächeneigenschaft zugewiesen bekommen und besitzen das Standardmerkmal, welches von der 3-D-Applikation für unbearbeitete Objekte vorgegeben wird. In der Regel handelt es sich hierbei um einen Phong-Schattierer, einen Algorithmus zur Oberflächenberechnung aus dem Jahr 1972. Im Ergebnis kann der Rezipient in den bisher dargestellten Objekten keine andere Materialeigenschaft erkennen als das Erscheinungsbild eines nicht näher spezifizierten Kunststoffs, weshalb die Aufgabe für den 3-D-Grafiker nunmehr darin besteht, die Platte zu einer Metallplatte werden zu lassen, während das Trinkgefäß aus farblosem Glas bestehen soll. Um dies zu erreichen, besitzen 3-D-Applikationen einen sog. Materialeditor, der Werkzeuge zur Verfügung stellt, mit denen für bestimmte Objekten ein spezifisches Material erstellt und ihnen dann zugewiesen werden kann. Diese Werkzeuge sind in sog. Schattierern zusammengefasst. Der Begriff Schattierer (engl. Shader, vgl. o. S. 90) ist ein Sammelbegriff für die Vielzahl an Algorithmen, die entwickelt wurden, um Farbe, Glanzeigenschaft, Reflexion, Refraktion und Rauheit berechnen und darstellen zu können. Beinahe jedes im Alltag gebräuchliche Material kann in den heutigen 3-D-Applikationen mit den Werkzeugen eines Materialeditors simuliert werden, vorausgesetzt, der 3-D-Grafiker weiß über die farbliche Nuancierung, die physikalischen Eigenschaften und das Erscheinungsbild seiner Oberfläche bzw. seines zu bearbeitenden Objektes Bescheid. Es handelt sich also nicht um eine automatische Eigenleistung des Computers, sondern um das Fachwissen des 3-D-Grafikers, der Entscheidungen treffen muss, wie die Materialität auszugestalten ist, um sich der Realität anzunähern bzw. diese fotorealistisch zu simulieren. Um bei dem Beispiel der Metallplatte zu bleiben, steht am Beginn des Gestaltungsprozesses die Frage nach der für das Objekt eigentümlichen Farbgebung. Metall erscheint meist gräulich, wobei zu beachten ist, dass 9

Die hier verwendete 3-D-Applikation ist Autodesk 3ds max Design 2011.

98

KLAUS KOHLMANN

Abb. 4

Abb. 5

seine Fähigkeit zur Farbigkeit durch seine Reflexionseigenschaft bestimmt wird. Neben der Farbigkeit muss sich der 3-D-Grafiker also darüber Klarheit verschaffen, ob sein Metall eine niedrige, mittlere oder hohe Reflexionseigenschaft besitzen soll. Jedes Material besitzt einen bestimmten Reflexionsgrad, der hoch bis niedrig eingestuft werden kann, Metall besitzt klassischerweise eine hohe Reflexionseigenschaft und danach muss der 3-D-Grafiker seine Parameter einstellen. Metall besitzt außerdem im Gegensatz zu anderen glänzenden Materialien wie Glas oder Wasser die Eigenart, dass sein Glanzpunkt mit der eigenen Metallfarbe getönt wird. Im Gegensatz dazu werden Glanzpunkte

ILLUMINATION UND MATERIAL

99

nichtmetallischer Oberflächen mit der Farbigkeit der Lichtquelle getönt. Der Materialeditor stellt die Option dieser Unterscheidbarkeit zur Verfügung, und die Kunstfertigkeit besteht darin, zu wissen, wie die Parameter für Glanzpunkte zu justieren sind. Bild 5 zeigt den mit den bisher beschriebenen Operationen erreichten Entwicklungsstatus des Metallmaterials mit einer ihm jetzt zugewiesenen grauen Farbe, der eingestellt hohen Reflexionsfähigkeit und der Glanzeigenschaft für Metall. Die Reflexionseigenschaft wird durch die Spiegelung anderer Gegenstände und der Umgebung erkennbar. Dabei handelt es sich nicht um eine willkürliche Spiegelung, sondern um eine, die für Metall als typisch angesehen werden kann, was der unscharf werdende Spiegelungsverlauf zeigt. Erkennbar werden Computerbilder oft an der Perfektion ihrer abgebildeten Gegenstände, und auch die Metallplatte sieht bisher so perfekt aus, wie sie in Realität nie vorkommen würde. Aus diesem Grund erscheint es nicht ganz abwegig, sondern ist es vielmehr sehr notwendig, dass nachträglich Attribute wie Verschmutzungen und Verunreinigungen sowie Abnutzungen mit Ornamentfunktion zugewiesen werden, um den Grad des Realismus zu steigern, wie es eingangs bereits angesprochen wurde. Bell schildert die Notwendigkeit von optischen Materialverunreinigungen wie folgt: Nichts bleibt lange sauber. Das mag jetzt sehr negativ klingen, doch ist es eine Tatsache, die man beachten sollte, möchte man natürliche Farbeffekte erzielen. Nahezu alles in der Natur […] wird verwittern, sei es durch Abnutzung oder den Einfluss der Elemente.10

Als zu beachtende Arten der Verunreinigungen zählt Bell sodann auf: Abnutzungserscheinungen auf Oberflächen fabrikneuer Gegenstände können viele Ursachen haben: Ausbleicherscheinung durch Sonneneinstrahlung, Splitterungen, Dellen oder Kratzer, Fleckenbildung durch Spritzer, Tropfen oder Schmiere, Staub, Asche oder andere Schwebeteilchen, Abschliff durch häufige Nutzung, abblätternde Farbe, Risse im Lack, Oxidation und allgemeine PatinaBildung.11

Laut Bell sind Gegenstände gleich welcher Art nicht nur einem Alterungsprozess unterworfen, sondern unterliegen auch einer mechanischen Abnutzung. Die optisch erkennbaren Spuren von Verschleiß können sich auf viele Arten zeigen, für die der 3-D-Grafiker ebenfalls Antworten finden 10 11

Bell, Jon A.: 3D Studio MAX R3. Professionelle 3D-Effekte. Bonn 2000, S. 71. Ebd.

100

KLAUS KOHLMANN

Abb. 6

muss. Bell hat somit prägnant einen Ansatz formuliert, der eine unabdingbare Voraussetzung zum Erreichen von Fotorealismus darstellt. In unserem Falle soll die Absicht verfolgt werden, die Metalloberfläche durch imaginäre Beanspruchung mittelstark abgenutzt erscheinen zu lassen. Dies erreicht man mit Hilfe einer Bildtextur. Bei einer Bildtextur handelt es sich um eine digital vorliegende Fotografie oder Zeichnung, welche auf die Oberfläche des Bezugsobjekts wie ein Aufkleber gestülpt wird (mapping). Das Bild 6 zeigt die Fotografie einer stark korrodierten Metallplatte, die wir in unsere Glanzeigenschaften hineinrechnen wollen. Mit Hilfe dieses mappings kann unsere Platte jetzt in unregelmäßig-zufälliger Weise an manchen Stellen glänzender, an anderer Stelle matter erscheinen. Die Bildtextur ist absichtlich schwarzweiß, weil nur die Helligkeitsstruktur genutzt und keine Farbigkeit hineingerechnet werden soll. Somit handelt es sich um die spezialisierte Nutzung einer Bildtextur, die nicht als Farbbildtextur genutzt wurde, wie es bei der Holztextur des Bettes im Bild 1 von Toy Story der Fall war. Betrachtet man das Zwischenstadium in Bild 7, so zeigt es beabsichtigte Unregelmäßigkeiten in den Glanzeigenschaften. Die Metallplatte sieht nun nicht mehr fabrikneu aus, sondern hat anscheinend einen gerade begonnenen Verwitterungsprozess durchlaufen. Zur Vervollkommnung der virtuellen Metallplatte mit einem fotorealistischen Material fehlt noch ein weiteres Attribut. Die Rauheit einer

ILLUMINATION UND MATERIAL

101

Abb. 7 Abb. 8

Oberfläche gehört zu den Materialeigenschaften und muss in der Ausführung als letzter Aspekt zugewiesen werden. Eine perfekt glatte Oberfläche ist in Realität praktisch nirgends anzutreffen, weswegen es realistischer erscheint, wenn Unebenheiten und unregelmäßige Rauheiten berücksichtigt werden, die einen gewissen Grad an subtiler Feinheit nicht überschreiten sollen. In Analogie zur eben ausgeführten Verwitterung kann Rauheit auch als eine Folge des Alterns bzw. der Abnutzung angesehen werden. Eine der hier zur Verfügung stehenden Möglichkeiten ist die Nutzung einer weiteren Bilddatei, die für Unebenheiten auf der Oberfläche zuständig ist. Bild 8 zeigt eine solche Bildtextur, die aus einem schwarzweißen Grundmuster besteht, das genutzt werden kann, um Oberflächen aufzurauen. Dabei bedeutet die Farbe Schwarz keine Veränderung in der Oberfläche, während helle Farben – in unserem Fall Weiß – sanfte Erhebungen auf der Oberfläche bewirken.

102

KLAUS KOHLMANN

Abb. 9

Das Verfahren der Übertragung einer solchen Bild-Textur in eine bereits vorliegende 3-D-Abbildung wird als 3-D-Verschiebung (displacement) bezeichnet. Bild 9 präsentiert das dadurch zu erzielende Ergebnis: Die Verwendung von zweidimensionalen Bildtexturen ist nicht die einzige Möglichkeit, um ein solch noppenartiges Muster zu erhalten. Es wäre alternativ auch denkbar gewesen, das Noppenmuster im Materialeditor nach prozeduraler Methode berechnen zu lassen. Prozedurale Grafiken werden algorithmisch auf der Basis vorgegebener grafischer Muster erstellt, deren Größe, Aussehen und andere Einstellungen vorgenommen werden können, bis das gewünschte Noppenmuster erreicht wird. Eine dritte Möglichkeit wäre es, das Muster als zusätzlichen Geometriekörper in hoher Anzahl mit Modellierungswerkzeugen zu ergänzen. Hierbei müsste der Modellierer nur eine einzelne flache Noppe mit Prototypcharakter erstellen, diese gleichmäßig über einen Kopier- und Ausrichtungsprozess zahlenmäßig über die Oberfläche der Metallplatte verteilen und mit dem selben Material wie die Platte versehen. Sollte das gewünschte Muster bereits als Bildtextur vorliegen, ist dies meist der schnellste Weg. Mit diesem letzten Schritt ist die Oberflächenbearbeitung der Metallplatte beendet. In dieser Darstellung ist deutlich der Unterschied zwischen einem Geometrieobjekt noch ohne Materialzuweisung (Glas) und einem Objekt bereits mit Materialzuweisung zu erkennen.

ILLUMINATION UND MATERIAL

103

Abb. 10

Beispiel Glas Glas besitzt im Gegensatz zu anderen Materialien wie Holz, Metall oder Stein die Fähigkeit zur Transparenz. Dem zweiten Objekt in der Szene soll ein solches Material zugewiesen werden. Mithilfe eines weiteren Schattierers der 3-D-Anwendung soll ein Glasmaterial erstellt werden. Es müssen erneut Überlegungen angestellt werden, wie es um die Reflexionseigenschaft bei Glas bestimmt ist. Glas besitzt eine sehr hohe Fähigkeit zur Reflexion, weswegen der Parameter ähnlich wie bei Metall hoch einzustellen ist. Aufgabe des 3-D-Grafikers ist die Umsetzung der Kenntnis, dass mit Transparenzen auch Refraktionen berücksichtigt werden müssen, da sonst aufgrund nicht beachteter physikalischer Refraktionsgesetze die Gefahr eines optisch unnatürlich wirkenden Eindrucks besteht. Sobald Licht von einem optisch dünneren Medium (Luft) in ein optisch dichteres Medium (Glas) dringt, werden Lichtstrahlen gebrochen. Das bedeutet, dass Lichtstrahlen durch die Glaswand in eine andere Richtung gelenkt werden. Dank der raytrace-Fähigkeit des verwendeten Renderers mental ray kann diese Refraktion berechnet werden.12

12

Im Gegensatz zum Scanline-Rendering-Verahren kann das rayrace-Verfahren durch Lichtstrahlenrückverfolgung von der Kamera zur Lichtquelle in der Szene vorhandene Lichtbrechungen und Reflexionen von Objekten berechnen und umsetzen. Da dieses Verfahren einen höheren Rechenaufwand einfordert, dauert die Zeit für die Berechnung eines Bildes entsprechend länger.

104

KLAUS KOHLMANN

Der Lichtbrechungsfaktor kann für verschiedene transparente Materialien mit einem individuellen Index angegeben werden. Für Glasmaterialien beträgt der Refraktionsindex 1,5 – ein adäquater Wert, der bei den Schattiererparametern des Materialeditors eingegeben werden muss, um Glas realistisch erscheinen zu lassen. Des Weiteren verzichten wir bei unserem Trinkglas auf Abnutzungseffekte wie Kratzer oder Sprünge. Das Ergebnis zeigt das Bild 10.

Illumination Der Begriff Illumination meint in der 3-D-Grafik sämtliche Facetten der Beleuchtung und Lichtsetzung in virtuellen Setszenen. Licht besitzt in der 3-D-Grafik eine andere Dimension, die im Gegensatz zum Lichtverhalten in der Natur steht, obwohl 3-D-Anwenderprogramme meist so konzipiert sind, dass Lichtsetzungen so erscheinen können wie Lampen und Scheinwerfer des realen Foto- bzw. Filmstudios. Sowohl im realen als auch im virtuellen Set werden lichtgebende Objekte in der Szene an einer adäquaten Stelle eingerichtet und strahlen Licht in die gewünschte Richtung. Doch die benutzerfreundliche Analogie zum Scheinwerfer des realen Studios täuscht über die Vielzahl an Algorithmen hinweg, die mit der Zeit erst entwickelt werden mussten, um virtuelles Licht in der Geschichte der 3-DGrafik langsam dem Verhalten des realen Lichts anzunähern. Das nachfolgende Bild 11 soll dies verdeutlichen. Die Beispielszene zeigt einen geschlossenen Raum mit einer Statue. An der Decke befindet sich ein Lichtstrahler, der als Spotlicht Licht von der Decke abstrahlt und die Statue von oben beleuchtet. Ziel ist es, die real erscheinende Ausleuchtungssituation des Raumes möglichst naturgetreu zu simulieren. Licht besitzt jedoch in der virtuellen Welt keinen Ausbreitungscharakter, womit schon ein erstes Gesetz des realen Lichts annulliert wird. Dies wird in der Abbildung darin deutlich, dass nur die Bildzonen, die sich im Helligkeitsbereich des Spotlichts befinden, erhellt werden. Alles andere bleibt dagegen pechschwarz. In einem realen Raum aber würde das Licht jenseits der jeweils ausgeleuchteten Lichtzonen nicht sofort aufhören, sondern sich erst allmählich, weil über vielerlei Abstufungen hinweg verdämmern, weshalb Beobachter auch in einem von einer schummrigen Glühbirne kaum erleuchten Raum dessen Wände und Ecken noch wahrnehmen können. Die Ursache für diese Differenzen zwischen virtuellem und ,natürlichem‘ Licht ist, dass virtuelles Licht keinen Ausbreitungscharakter besitzt. Es besitzt keinen Ursprung in der Lichtquelle, von dem es sich in eine bestimmte Rich-

ILLUMINATION UND MATERIAL

105

Abb. 11

Abb. 12

tung ausbreiten könnte – die zu erhellenden Bildzonen werden homogen illuminiert. Außerdem besitzt virtuelles Licht keine Fähigkeit zu Streufarbenreflexionen. Das Fehlen einer solchen Streufarbenreflexion bedeutet, dass Licht, nachdem es auf ein erstes Hindernis prallt wie beispielsweise den Boden, diesen zwar erhellt, aber keine weiteren Streuungen mehr ausstrahlt. Das Licht in der Natur unternimmt dagegen weitere Schritte: Ein Teil der Lichtenergie wird vom Boden reflektiert und erneut durch den verfügbaren Raum gestrahlt, bis es an ein zweites Hindernis gerät, wie beispielsweise eine Zimmerwand. Dann wird von der Lichtenergie ein weiterer Teil dazu aufgebracht, die Wand zu erhellen, und danach ein wiederum kleinerer Teil der Lichtenergie abermals reflektiert und erneut durch den Raum gestrahlt. Dieser Vorgang passiert in der Natur unendlich oft, die Lichtenergie strebt hier erst nach und nach und nicht abrupt gegen null. Als weiteres Defizit des virtuellen Lichts kann der fehlende Lichtabfall bei zunehmender Distanz zum angestrahlten Objekt genannt werden. Während natürliches Licht einen Lichtabfall auf 25% bei einer verdoppelten Distanz zum beleuchteten Objekt aufweist, besitzt virtuelles Licht keinen natürlichen Lichtabfall. Ein Objekt mit einem Abstand von 1 Meter zur Lichtquelle wird genauso hell angestrahlt, wie wenn es 20 Meter entfernt ist. Der Lichtabfall ist ein Gesetz, das ebenfalls erst einer algorithmischen Implementierung bedurfte, um im computergenerierten Spiel-

106

KLAUS KOHLMANN

film simuliert zu werden. Erst dann konnte die Errungenschaft der direkten wie indirekten Beleuchtung in die Geschichte der 3-D-Computergrafik eingehen. In der Computergrafik musste eigens eine Technik entwickelt werden, um den komplexen Prozess der Streufarbenreflexion nachzustellen, was bedeutet, dass Licht nicht nur von der Lichtquelle strahlt, sondern auch von umliegenden Objekten reflektiert werden soll. Eine bekannte Methode ist die Photontechnik. Hierzu strahlt die Lichtquelle – vereinfachend beschrieben – unsichtbare Energiepakete, die jenen Weg einnehmen, wie reale Lichtstrahlen dies tun würden. Geraten sie auf ein Hindernis, fragen sie den Materialschattierer nach dessen Oberflächeneigenschaften ab, ob die Oberfläche beispielsweise hell oder dunkel ist, glänzend oder matt. Sodann wird der Lichtanteil berechnet, der zur Illumination der Oberfläche nötig ist, sowie der Lichtanteil, der in den Raum zurückgeworfen wird, der auf ein zweites Hindernis zu prallen hat. In der virtuellen Welt kann dieser Vorgang keinesfalls unendlich oft ausgeführt werden, denn schnell stieße man dann an die Grenzen des Arbeitsspeichers des Rechners. Das Bild 12 zeigt zusätzlich zum in Bild 11 allein ausgeleuchteten Helligkeitsbereich weitere Streufarbenreflexionen, bevor der Prozess abgebrochen wird, aber für einen Raum wie den dargestellten vollkommen ausreicht. In der Entwicklung von Illumination sind, was hier nur angesprochen werden kann, zusätzliche Algorithmen nötig, um das virtuelle Licht dem Verhalten des ,natürlichen‘ Lichts anzunähern. Neben der Streufarbenreflexionen bilden hier Aspekte der Farbtemperatur und der Ausbreitungsrichtung weitere Problemfelder, die erst in einer eher noch langwierigen Entwicklung der Programmierer gelöst werden könnten. Immerhin, der heutige Stand der 3-D-Anwenderprogramme präsentiert Entwicklungen in den sogenannten photometrischen Lichtern, wodurch sogar der unregelmäßige Lichtaustritt verschiedener Lampensorten simuliert wird. Welche Effekte dadurch erzielt werden können, wird dort deutlich, wo zusätzliche zu ladende Hilfsdateien es möglich machen, den Strahlungsverlauf des Wolframfadens in einer 100-Watt-Glühlampe, der sich nicht nach allen Seiten hin gleichmäßig ausbreitet, so zu simulieren, dass dabei sogar der Refraktionsindex des Lampenglases berücksichtigt wird.13 Alle genannten Beispiele, die sicherlich nicht alle Probleme der Illumination in der 3-D-Grafik absprechen, zeigen doch, wie sehr die Computergrafik mit Licht darum bemüht ist, sich der Realität anzunähern. Ge13

Ein bekanntes Dateiformat ist das ies-Format.

ILLUMINATION UND MATERIAL

107

lingt dies nicht, wie in der Frühphase der computergenerierten Filme Ende der 1990er Jahre noch zu beobachten, so kann die bildliche Realität nicht ausreichend simuliert werden, und der Macher eines computergenerierten Films entscheidet sich bewusst für den Cartoonstil, wo eine Unterscheidung beispielsweise zwischen Tages- oder Kunstlicht nicht zwangsläufig notwendig erscheint. Hohes Wissen über die Physik, aber auch Antworten auf Fragen nach dem künstlerischen Erscheinungsbild des Films (production design) müssen vorhanden sein, um Inszenierungsaufgaben in der 3-D-Anwenderapplikation umzusetzen. Nach wie vor bedarf es seitens der 3-D-Grafiker eines genauen Kenntnisstands, wie eine Szene in heller Nachmittagssonne oder unter diffusen Regenwolken auszusehen hat, ob Oberflächen einen fabrikneu-polierten oder einen verwitterten Charakter aufweisen sollen.14

Fazit In den Ausführungen über die beiden Komponenten Material und Illumination wird deutlich, wie intensiv die Computergrafik den Naturalismus des Fotorealismus anstrebt. In diesem Zusammenhang sollte vor allem die fachpraktische Übung aufzeigen, dass der Computer nur eingeschränkt Prozesse automatisieren kann. Die 3-D-Anwendersoftware hält zwar eine Fülle von Werkzeugen bereit, und oft stehen mehrere Möglichkeiten zur Verfolgung eines digitalen Ziels zur Verfügung, doch letzten Endes ist es der 3-D-Grafiker, der über Einsatz und Resultat entscheiden und entsprechende Schachzüge ausführen muss. Insofern stellt der Computer das zur Verfügung, was analog zum Repertoire des für den Zeichentrickfilm arbeitenden Zeichentrickfilmkünstlers das weiße Papier, den Pinsel und die Farbtöpfe des 3-D-Grafikers darstellt. Generell kann daher die These als widerlegt werden, der Computer könne viele, wenn nicht gar alle Komponenten eines computergenerierten Films ohne die Mitwirkung eines kompetenten 3-D-Grafikers herstellen. Computer agieren auch hier nicht von selber, sondern mit Hilfe einer von Menschen gemachten und von Menschen zu bedienenden Software.

14

Dazu mehr in Kohlmann, Klaus: Mental ray mit 3ds max 2011. Heidelberg 2010.

Barbara Flückiger

Computergenerierte Figuren in Benjamin Button und Avatar Technik und Ästhetik Seit den frühen Tagen der Computeranimation gilt die Konstruktion von menschlichen oder menschenähnlichen Figuren als heiliger Gral der emergenten Technologie. So tauchten erste Exemplare von dreidimensionalen, voll animierten Figuren bereits zu Beginn der 1980er Jahre in Werbefilmen oder Musikvideos auf. Aber erst rund zehn Jahre später war die Entwicklung so weit fortgeschritten, dass computergenerierte Figuren in den Kinospielfilm integriert werden konnten, in Terminator 2 (James Cameron, USA 1991), The Lawnmower Man (USA 1992, Brett Leonard) sowie ein digitales Double in Jurassic Park (USA 1993, Steven Spielberg). Nochmals rund ein Jahrzehnt später traten in Final Fantasy (Hironobu Sakaguchi et al., USA/Japan 2001) erstmals Figuren auf, die damals zwar als fotorealistisch eingestuft wurden, aber dennoch beim Publikum keine positiven Reaktionen hervorriefen. Zu reduziert und künstlich wirkten sie, zu hölzern und ebenmäßig. Erst mit Gollum aus Lord of the Rings (Peter Jackson, NZ/USA 2001-2003) gelang es, eine positiv besetzte und überzeugende Figur zu schaffen, die sowohl von Publikum wie Fachwelt akzeptiert wurde. Seither sind mehrere weitere Filme entstanden, in denen solche Figuren, teilweise sogar in Großaufnahme, zu sehen sind. Sowohl mit der historischen Entwicklung wie auch mit technologischen, ästhetischen und narrativen Aspekten solcher computergenerierten Figuren habe ich mich in meiner Monografie Visual Effects, Filmbilder aus dem Computer1 ausführlich auseinandergesetzt und dort eine Reihe von grundlegenden Einsichten in die Probleme ihrer Konstruktion und ihrer Rezeption entwickelt. Im vorliegenden Text werde ich zunächst auf diese 1

Flückiger, Barbara: Visual Effects. Filmbilder aus dem Computer. Marburg 2008. Vgl. besonders das Kapitel „Körper“, S. 417-467, mit zahlreichen Abbildungen in Farbe. Diese Monografie ist eine redigierte Version meiner Habilitationsschrift an der Freien Universität Berlin (2007) und basiert auf einem Forschungsprojekt, das von 2004 bis 2006 vom Schweizerischen Nationalfonds gefördert wurde (siehe Synopsis auf http://zauberklang.ch/vfx_css.html, wo sich auch eine englische Übersetzung des gesamten Kapitels zu den digitalen Figuren zum freien Download findet).

110

BARBARA FLÜCKIGER

Einsichten zurückgreifen und sie in kondensierter Form nochmals darlegen, um mich anschließend in zwei Fallstudien zu Avatar (James Cameron, USA 2009) und The Curious Case of Benjamin Button (David Fincher, USA 2008) mit dem derzeitigen State-of-the-Art zu beschäftigen. Immer geht es mir dabei um den Zusammenhang zwischen Technologie, Ästhetik und Narration.

Grundprobleme der digitalen Figurenkonstruktion Warum ist es so schwierig, eine überzeugende digitale Figur zu konstruieren? Einer der Hauptgründe dafür liegt in unserer lebensweltlichen Erfahrung, denn in unserem Alltag müssen wir seit frühester Kindheit lernen, die gestischen und mimischen Signale der Menschen in unserer Umwelt zu entschlüsseln, um erfolgreich kommunizieren zu können. Deshalb haben wir ein unglaublich feines Sensorium noch für unwichtig erscheinende Details entwickelt. Es ist sogar zulässig anzunehmen, dass die Wahrnehmung der menschlichen Gestalt und besonders des menschlichen Gesichts wohl jener Bereich ist, in welchem wir in der Regel über die feinste Ausdifferenzierung verfügen.

Grundproblem 1: Verknüpfung von Erscheinungsbild und Verhalten Nun ist es so, dass in unserer Erfahrung alle diese Details in einem systemischen Zusammenhang integriert sind. Im Unterschied dazu werden computergenerierte Figuren in einem hochgradig arbeitsteiligen Prozess aus einer Vielzahl von isolierten Details zusammengesetzt, und es gestaltet sich äußerst schwierig, diese Details in einen übergreifenden Zusammenhang zu stellen und sinnvoll miteinander zu verknüpfen. Zur analytischen Diskussion des Sachverhalts habe ich vorgeschlagen, die Figuren unter den Aspekten Erscheinungsbild und Verhalten zu untersuchen, wobei sich das Erscheinungsbild weiter ausdifferenzieren lässt in die Komponenten Form und Oberfläche.2 Während das Verhalten in den Kompetenzbereich der Animationsabteilung gehört, wird die Form mit einer 3D-Software modelliert und die Oberflächeneigenschaften sind durch Shader definiert. Shader beschreiben die Reaktionen von Oberflächen auf das einfallende Licht. 2

Flückiger: Visual Effects, S. 433.

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

111

Abb. 1: Das dynamisch-interaktionistische Persönlichkeitsmodell

In der lebensweltlichen Realität bestehen zwischen Erscheinungsbild und Verhalten enge Verbindungen, die sich mit dem dynamisch-interaktionistischen Paradigma der Persönlichkeitspsychologie fassen lassen;3 es geht von einer engen Wechselwirkung zwischen Person und Umwelt aus und berücksichtigt somit sowohl genetische als auch umweltbedingte Faktoren der Entwicklung, die einander gegenseitig bedingen (vgl. Abb. 1). Es ist nach wie vor anspruchsvoll, eine solche natürlich wirkende Interaktion zwischen allen Eigenschaften einer künstlich geschaffenen Existenz herzustellen.

Grundproblem 2: Modellieren von Komplexität Computergenerierte Objekte tendieren aus prinzipiellen Gründen dazu, unorganisch und unterkomplex auszufallen. Denn weil jedes Detail von Grund auf definiert werden muss, fehlen zufällige Variationen, welche die allzu starren Muster aufbrechen und unvorhersehbare Schwankungen hinzufügen. Alles in diesen Bildern muss geplant werden. Zwar gibt es prozedurale Verfahren, welche auf stochastischen oder fraktalen Algorithmen aufbauen, um pseudo-zufällige Muster zu erzeugen. Aber diese Verfahren eignen sich nicht für die Erzeugung von menschlichen oder menschenähnlichen Lebewesen. Wie ich in meinen grundsätzlichen Überlegungen zu den Modellbildungsprozessen, die im Zentrum von computergenerierten Bildern stehen, herausgearbeitet habe, ist Komplexität immer das Resultat 3

Asendorpf, Jens B.: Psychologie der Persönlichkeit. Berlin 2005, S. 84 ff.

112

BARBARA FLÜCKIGER

eines Prozesses, also einer Geschichte.4 Und diese Geschichte muss in computergenerierten Figuren doppelt vorhanden sein: einerseits als eine Konzeptionsgeschichte, welche mittels einer Backstory den Designprozess steuert, der Figur also eine Herkunft zuweist, die über den unmittelbaren erzählerischen Kontext hinausgeht, und andererseits als eine Entstehungsgeschichte jedes einzelnen computergenerierten Exemplars, die im Schreiben und Umschreiben von Codes besteht. Wie ich zeigen werde, haben sich deshalb verschiedene Aufzeichnungsverfahren etabliert, welche Komplexität sozusagen aus der äußeren Welt abgreifen und in die computergenerierte Welt importieren.

Grundproblem 3: Interaktion der digitalen Figur Anders als im reinen Animationsfilm werden die digitalen Figuren, von denen in diesem Text die Rede ist, in eine Live-Action-Umgebung eingefügt, müssen also sowohl mit den anderen, von Schauspielern verkörperten Figuren sowie mit dem Terrain und den Requisiten interagieren. Das bringt eine Reihe von Problemen mit sich und erfordert verschiedene Maßnahmen, die idealerweise schon in der Vorproduktion angelegt werden. Denn die digitale Figur muss ja irgendwie am Set vertreten sein, damit die Schauspieler darauf reagieren und ihr Timing anpassen können. Im einfachsten Fall sind es Kartontafeln, die ungefähr andeuten, wo die Schauspieler die Blicke hinwenden müssen. Vielseitiger und besser etabliert ist ein Ansatz, den ich mit dem Begriff Proxy fasse, also ein Stellvertreter am Set, der die Figur vertritt und damit auch eine physische Interaktion inklusive Berührungen ermöglicht. Denn Berührungen – das haben meine Untersuchungen gezeigt5 – sind die wohl beste Grundlage für die Glaubwürdigkeit und Präsenz der digitalen Figuren. Außerdem sind sie ein wichtiger Pfeiler für die emotionale Partizipation der Zuschauer, welche die Figur immer in Beziehung zum Ensemble wahrnimmt und deren Verhalten entsprechend bewertet. Der Proxy-Ansatz verlangt jedoch eine hoch entwickelte Trackingund Retuschentechnik, es sei denn, dass mit einer computergesteuerten Motion-Control-Kamera gedreht wird, die dann sowohl die Raumdaten wie auch den Clean Pass ermöglicht – einen Aufnahmedurchgang ohne Schauspieler, der die Hintergründe für die Retusche liefert.6 4 5 6

Flückiger, Visual Effects (vgl. Anm. 1), Kapitel „Abbildung“, S. 275-356. Flückiger, Visual Effects, Abschnitt „Berührungen, Blicke, physische Interaktion, Konsequenzen“, S. 249-256. Vgl. Flückiger, Visual Effects, Abschnitt „Raum- und Bewegungsanpassung: Motion Control und Tracking“, S. 239-249.

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

113

Abb. 2: Die Theorie des Uncanny Valley

Zwei Modelle zur Evaluation von digitalen Figuren Die populäre Theorie des „Uncanny Valley“ Seit einigen Jahren diskutieren Visual-Effects-Spezialisten ein Modell, das zu Beginn der 1970er Jahre ursprünglich im Kontext der Robotik entstanden ist: die populäre Theorie des „Uncanny Valley“(japanisch bukimi no tani) von Masahiro Mori.7 Mori hat dabei folgende Regeln in der emotionalen Bewertung von künstlichen Figuren beobachtet und beschrieben: Je menschenähnlicher eine solche Figur – zum Beispiel ein Roboter – wirkt, desto positivere Emotionen löst er aus. Wenn die Figur aber nicht ,wirklich‘ menschlich, sondern nur fast menschlich erscheint, tritt ein distanzierender Effekt ein, den Mori als „Uncanny Valley“ bezeichnet hat (Abb. 2). Erst wenn die Figur als vollständig menschlich wahrgenommen wird, lässt sich dieser Effekt überwinden und die Emotionen fallen uneingeschränkt positiv aus. Zur Illustration dieses Sachverhalts zieht Mori eine prothetische Hand heran, die äußerlich gesehen zwar überzeugend aussieht, sich bei einer Berührung aber kalt, weil plastifiziert anfühlt und damit unwillkürlich einen Schauer auslöst.. Ganz ähnlich verhält es sich mit digitalen Figuren. Als Paradebeispiel gilt Final Fantasy, das bei der Rezeption diesen befremdlichen Effekt hervorgerufen hat und entsprechend gescheitert ist. 7

Mori, Masahiro: „Bukimi no tani. (The Uncanny Valley)“ In: Energy, 1970, Nr. 7.

114

BARBARA FLÜCKIGER

Die Theorie des „Uncanny Valley“ ist aber nur bedingt universell. Einerseits gibt es Figuren, die nur fast vollständig menschlich wirken und dennoch nicht Befremden hervorrufen. Andererseits – und das ist aus methodischer Sicht fast problematischer – muss die Theorie im Einzelfall empirisch überprüft werden, denn ob der Effekt eintritt oder nicht, kann strittig sein und eventuell auch intersubjektiv variieren, wie sich am Beispiel von Avatar zeigen lässt.

Modell der Distanz Als Alternative habe ich deshalb das Modell der Distanz vorgeschlagen. Es geht von der These aus, dass sich die Aspekte Erscheinungsbild und Verhalten in einer ähnlichen Distanz zu einer als Standard gesetzten fotorealistischen Abbildung befinden sollten. Wenn also eine Figur sehr stilisiert ist, sollte sie entsprechend stilisiert animiert werden; eine Regel übrigens, die schon in Disneys Regelkatalog unter der Nr. 10 („exaggerate“) figurierte. Der Begriff Distanz bezieht sich entsprechend seiner Verwendung in der Prototypentheorie auf die Abweichung von einem als Norm definierten Standardwert. Zur Darstellung dieses Sachverhalts habe ich eine Matrix entwickelt, in welche sich verschiedene digitale Figuren projizieren lassen (Abb. 3). Dabei ist die feine, aber essenzielle Linie zu beachten, die zwischen einer fotorealistischen und einer stilisierten Darstellung gezogen werden muss, denn ob und wie diese Linie überschritten wird, ist nach meiner Hypothese entscheidend für die Rezeption. So ist in Final Fantasy eine klare Trennung zwischen fotorealer Oberfläche und einem stilisierten, weil in seinem Ausdrucksrepertoire deutlich reduzierten Verhalten zu beobachten. Im Gegensatz dazu sind die Disney-Figuren eindeutig in der stilisierten Domäne angesiedelt. Gollum aus Lord of the Rings (2001-03) schließlich ist ein anderer Fall. Wie meine größere Fallstudie gezeigt hat, wirken Verhalten und Erscheinungsbild hauptsächlich fotorealistisch und organisch mit einigen Abweichungen, die als fantastisch oder zumindest ungewöhnlich einzustufen sind, so die großen Ohren und Augen oder seine Fortbewegungsart. Diese Abweichungen stören jedoch nach meiner Hypothese das Gleichgewicht der Darstellung nicht, weil sie gleichermaßen in Verhalten und Form vorkommen. Sie sind eher wie Satelliten zu verstehen.8

8

Vgl. Flückiger, Visual Effects (vgl. Anm. 1), Abschnitt „Von der Fallstudie Gollum zu grundsätzlichen Überlegungen“, S. 451-461.

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

115

Abb. 3: Das Modell der Distanz

Fallstudie 1: The Curious Case of Benjamin Button (2008) Es gilt nun also in der Fallstudie zunächst zu Benjamin Button zu analysieren, wie die Figur konstruiert worden ist, ob und wenn ja wie sie die zuvor benannten Grundprobleme meistert und schließlich wie sie in den Modellen zur Evaluation abschneidet. Mit Benjamin Button ist unter der Regie von David Fincher ein Film entstanden, der sich nicht leicht in etablierte Kategorien einordnen lässt. Es ist ein Film, der in der Tradition des pikaresken Romans steht. Entsprechend schildert er die Lebensreise eines armen, aber bauernschlauen Helden von der Geburt bis zum Tod und kann damit in Verwandtschaft zu Forrest Gump (Robert Zemecki, USA, 1994) gesetzt werden. Die erzählerische Anordnung unterscheidet sich davon aber durch ein fantastisches Element, denn der Protagonist wird als alter Mensch geboren und verjüngt sich zunehmend. Diese Konstellation hat besonders schmerzhafte Konsequenzen für sein Liebesleben, denn es gibt nur eine kurze Zeitspanne, in welcher er und seine Liebste ein ähnliches Alter teilen und somit zueinander finden können. Es galt also, den Protagonisten in verschiedenen Lebensaltern darzustellen, eine Herausforderung, die frühere Filme klassisch und überzeugend mit Prothetik und Maske gelöst haben, so wie für Dustin Hoffmann in Little Big Man (Arthur Penn, USA 1970), F. Murray Abraham in Ama-

116

BARBARA FLÜCKIGER

Abb. 4: Head Replacement in Benjamin Button

deus (Milos Forman, USA 1984) oder Marlon Brando in The Godfather (Francis Ford Coppola, USA 1972). Nur weist dieser Ansatz ein grundlegendes Problem auf, das Visual Effects Supervisor Eric Barba folgendermaßen schildert: „The problem with old-age makeup is that it is additive, […] whereas the aging process is reductive. You have thinner skin, less musculature, everything is receding.“9 Ein weiterer traditioneller Lösungsansatz sind Darsteller unterschiedlichen Alters, die eine Rolle in verschiedenen Lebensabschnitten verkörpern. Diesen Ansatz wollte Fincher vermeiden, denn er stellt einen Bruch in der Figurenidentität dar. Zusätzlich wurde die Anforderung verschärft durch die Dissonanz zwischen wachsendem Körper und altem Aussehen, und deshalb wollte Fincher eine Lösung mit einer computergenerierten Figur wagen. Allerdings ist die jeweils altersgerechte Version von Brad Pitt nur teilweise computergeneriert, denn der dazu gehörende Körper stammt von einem menschlichen Darsteller, während der Kopf vollständig digital erzeugt und mittels Head Replacement auf den Darstellerkörper gesetzt wird (Abb. 4). Um die Anordnung zu testen, realisierten Fincher und das Team von Digital Domain einen Werbefilm für „Orville Redenbacher’s“ Popcorn,10 der auf YouTube zu Recht als „creepy“ bezeichnet und im Internet als „Orville Deadenbacher“ zirkulierte, eben weil die Figur ganz klar ein Opfer des Uncanny Valley war.11 „‚On the Orville Redenbacher spot, we learned 9 10 11

Duncan, Jody: „The Unusual Birth of Benjamin Button.“ In: Cinefex, 2009, Nr. 116, S. 70-99 und 118, hier S. 72. http://www.youtube.com/watch?v=Fcn4p213Zg8 Zur Problematik der digitalen Rekonstruktion von verstorbenen Personen, die hier ebenfalls eine Rolle spielt, habe ich an der Tagung NECS in Lund am 26.6.2009 den Vortrag „Digital Reconstruction of Deceased Persons“ gehalten. Es ist dies ein

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

117

everything not do on Benjamin Button,‘ Fincher elaborated. ‚We learned that we needed to minimize the amount of keyframe animation […] what I wanted was a process by which you could literally xerox an actor’s performance.“12 Finchers Statement passt exakt in meine Überlegungen zum Mangel an Komplexität, denn Keyframe-Animation – also die Animation von Schlüsselposen, wie sie seit jeher in der Zeichenanimation üblich war – tendiert eben als Modellbildungsprozess dazu, sehr vereinfachte Resultate zu liefern, denen die Eigenheiten und Irregularitäten einer individuellen Existenz fehlen.

Animation des Verhaltens Für die Animation – und das bedeutet eben: für die Darstellung des Verhaltens – wurden deshalb Aufzeichnungsprozesse gewählt, welche Brad Pitts mimische Muster auf das computergenerierte Gesicht projizieren sollten. Dazu kamen zwei Techniken zum Einsatz, die ineinander greifen bzw. aufeinander aufbauen.13 Zunächst wurde mit Mova’s Contour, einem volumetrischen Aufzeichnungsverfahren,14 eine Datenbank von dreidimensionalen mimischen Informationen von Brad Pitt aufgezeichnet. Dazu hat man sein Gesicht mittels eines Schwamms mit einem phosphoreszierenden Make-up eingefärbt und mit mehreren Kameras aufgenommen (Abb. 5). Das Make-up dient dazu, ein kontrastreiches Muster auf die Haut zu applizieren. Denn Mova’s Contour basiert auf der computergestützten Analyse von bis zu 10‘000 Punkten im Raum, das heißt der Position von individuellen Pixeln im dreidimensionalen Koordinatensystem.15 Im Unterschied zu Performance-Capture-Verfahren, welche mit Markern oder farbigen Punkten im Gesicht arbeiten, ist dieser sogenannte PixelFlow wesentlich genauer, denn es wird jede kleinste Bewegung erfasst, da-

12 13

14 15

Thema, das über eine ausgesprochen ethisch-moralische Komponente verfügt und die Angst vor einem posthumanen Kino schürt. Duncan, „The Unusual Birth of Benjamin Button“ (vgl. Anm. 9), S. 75. [Herv. i. O.] Die folgenden Darstellungen basieren auf mehreren Quellen. Neben dem erwähnten Cinefex-Text von Jody Duncan sind es drei Präsentationen, die vom 5. bis 8. Mai 2009 an der Tagung fmx 09 (http://09.fmx.de/start.php?lang=E&navi=1& page=pages) in Stuttgart vorgestellt wurden, nämlich zur Animation von Steve Preeg, Animation Supervisor, und Jonathan Litt, CG Supervisor, Digital Domain; Patrick Davenport, Executive Producer, Image Metrics; Paul Debevec, Professor für Computer Grafik an der University of Southern California USC. Volumetrisch bezieht sich auf die Verteilung der Punkte im Raum. Eine anschauliche Visualisierung des Verfahrens findet sich auf http://www.mova. com/flash/ [Zugriff am 18. März 2011].

118

BARBARA FLÜCKIGER

Abb. 5: Mova’s Contour als volumetrisches Verfahren

mit auch die Mikro-Expressionen, die wesentlich für das Verständnis der mimischen Kommunikation sind. Mit Mova’s Contour entstand eine Datenbank mit 170 sogenannten Blend-Shapes, also Grundposen. Das waren in diesem Fall mimische Grundeinheiten, die gemäß den Regeln des Facial Action Coding Systems FACS von Paul Ekman et al. systematisiert wurden.16 Zusammenfassend wurde also in diesem ersten Prozess das Gesicht in verschiedenen Posen ohne zeitliche Komponente erfasst. Als problematisch an dieser Technik erwiesen sich die fehlenden Informationen für die Augen und das Innere des Mundes, also Zähne und Zunge, die später von mehreren Modellierern in einem Monate dauernden Prozess von Hand hinzugefügt werden mussten.17 Für den nächsten Schritt, eben die Aufzeichnung der Bewegung in der Zeit, kam ein bild-basiertes Verfahren zum Einsatz, nämlich Image Metrics’ Performance Capture, das ebenfalls den Pixel-Flow analysiert. Vier hochauflösende Viper-Kameras nahmen Brad Pitts mimische Performance aus unterschiedlichen Perspektiven auf (Abb. 6). Zunächst studierte Brad Pitt die am Set aufgenommenen Einstellungen der Proxies,18 die

16

17 18

FACS: System zur Beschreibung des emotionalen Ausdrucks auf dem menschlichen Gesicht; beruht auf der Analyse des Gesichtsausdrucks anhand der darunter liegenden Muskelstruktur. Ekman, Paul; Friesen, W.: Facial Action Coding System. A Technique for the Measurement of Facial Movement. Palo Alto 1978. Vgl. zur Anwendung von FACS in der Gesichtsanimation Flückiger, Visual Effects, S. 446. Preeg, fmx 09 (vgl. Anm. 13). Es kamen drei Schauspieler zum Einsatz, die Benjamin Button in drei verschiedenen Lebensaltern spielten (Duncan, „The Unusual Birth of Benjamin Button“, S. 79)

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

119

Abb. 6: Aufzeichnung der Mimik mit Image Metrics

mit einer blauen Haube versehen Benjamin Button spielten. Die Animatoren fürchteten, dass Brad Pitt die Aufnahmen gefühlte 150‘000 mal studieren müsste, bis er einigermaßen in der Lage wäre, das Timing in allen Nuancen zu erfassen, aber tatsächlich schaffte er es nach rund zweimaligem Schauen.19 Man muss sich diesen Prozess so ähnlich vorstellen wie eine optische Nachsynchronisation (visual automated dialogue replacement, ADR), ein Konzept übrigens, das auch bei Avatar Anwendung fand, wie ich später ausführen werde. Wie immer bei mehr oder weniger automatischen Aufzeichnungssystemen, sind die Resultate weit davon entfernt, sofort perfekt auszufallen. „Every shot felt a little dead and required a lot of massaging by hand.“20 So stellten die Animatoren fest, dass kleinste Verschiebungen der Position des Augenlids im Bereich von 1 mm zu dramatischen Veränderungen des Ausdrucks führten, eben weil jeder Zuschauer ein Experte im Dekodieren des Gesichtsausdrucks ist. Schließlich hat man das digitale 3D-Modell zusätzlich mit einem physikalisch-basierten Animationssystem, Dynamik flexibler Körper (soft body dynamics) genannt, ausgestattet, um die Verformungen der gealterten Haut, die besonders markant schwabbeln sollte, und die Faltenbildung regelbasiert zu erstellen.

Erscheinungsbild: Form und Haut Für die Form hat man zunächst von Brad Pitts Kopf einen Gipsabdruck hergestellt, der als Grundlage für drei Silikonmodelle diente. Diese Silikonmodelle wurden von Hand angefertigt und entsprachen drei verschiedenen Lebensaltern – 60, 70 und 80 Jahre. Sie wurden bemalt und mit Hautdetails wie Poren und Haaren versehen. Es wurde also in einer manu19 20

Preeg, fmx 09 (vgl. Anm. 13). Preeg, fmx 09.

120

BARBARA FLÜCKIGER

Abb. 7: Subsurface Scattering

ellen Art und Weise eine Extrapolation von Brad Pitts möglichem Alterungsprozess vorgenommen. Nicht direkt davon, sondern von einer Gipsvorstufe dieser Modelle hat Digital Domain einen 3D Scan erstellt, um das Modell in die digitale Domäne zu importieren. Dabei wird das Modell von einem Laserstrahl rundherum abgetastet und so Punkt für Punkt die Oberfläche erfasst, der es aber noch an allen Details fehlt, die schließlich im Materialisierungsprozess als Shader appliziert wird. Diese Shader sind als Netzwerke organisiert, in welchen mehrere Elemente die Materialeigenschaften definieren, also die Farbverteilung, kleinräumige geometrische Variationen oder das Reflexionsverhalten sowie Aspekte der Lichtbrechung, der Diffusion, der Lichtbeugung und volumetrische Effekte, um nur einige wenige zu nennen. Bis heute ist menschliche Haut eines der anspruchvollsten Materialien für die Darstellung in computergenerierten Bildern, und zwar besonders wegen ihrer Transluzenz, also ihrer halbtransparenten oder durchscheinenden Materialität. Denn die Lichtstrahlen dringen durch die Oberfläche in die tieferen Hautschichten ein, wo sie in komplexer Weise gestreut werden und dabei die Farbwerte des Gewebes und der Blutgefässe annehmen (Abb. 7). Verzichtet man auf dieses sogenannte Subsurface Scattering, wirkt die Haut wie Gips. Ein Shader für Haut setzt sich – vereinfacht dargestellt – aus folgenden Komponenten zusammen: Texture Maps, welche in Form von Bildern die Farbverteilung definieren; Displacement Maps für die kleinräumigen Oberflächenvariationen der Haut wie Poren und Falten; Albedo Maps, welche die diffus reflektierenden Anteile der Haut erfassen, die zur Verweißlichung führen; Specularity Maps für die Glanzreflexionen; Reflectance Maps für die Farbreflexionen sowie Texture Maps der unter der äußeren Haut liegenden Farbinformationen für das Subsurface Scattering (Abb. 8).

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

121

Abb. 8: Shader-Elemente

Dieser Shader wurde mit Light-Stage-Aufnahmen21 von den Silikonmodellen abgeglichen, die ein nicht vollständig realistisch wirkendes Resultat lieferten, da das Ausgangsmaterial ja aus Silikon bestand, aber doch eine sehr gute Vorlage darstellten.

Fazit Es dürfte klar sein, wie hybrid und verschränkt sich der Konstruktionsund Animationsprozess gestaltete. Zwar bilden Aufzeichnungsverfahren ein wesentliches Gerüst in diesem System – und dazu möchte ich in der analogen Domäne den Gipsabdruck zählen, immerhin vergleichen sowohl Roland Barthes als auch André Bazin die Fotografie mit einem Abdruck –,

21

Die Light Stage – an der University of Southern California unter der Leitung von Paul Debevec entwickelt – ist eine Lichtbühne, in welcher der Schauspieler in der Mitte platziert, von allen Seiten mit steuerbaren Lichtdioden beleuchtet und von mehreren Kameras aufgenommen wird. Es ist also ein fotografisches Aufzeichnungsverfahren, welches die Lichtreflexion direkt erfasst. Damit lassen sich alle normalerweise in einem Shader separat definierten und verknüpften Informationen integriert aufnehmen (siehe http://gl.ict.usc.edu )

122

BARBARA FLÜCKIGER

Abb. 9: Brad Pitt und Benjamin Button

aber an vielen Stellen sind es Prozesse der Modellbildung sowohl bei einzelnen Shadern, bei der Animation mit der Dynamik flexibler Körper als auch im Renderprozess, der vollständig auf Modellbildung beruht. Die organisch wirkende Komplexität der Figur ist ohne Zweifel dem dominanten Einsatz von Aufzeichnungsverfahren zuzuschreiben. Referenz der Aufzeichnung war immer Brad Pitt. Damit ist die Figurenkonsistenz schon zu weiten Teilen gesichert. In der gealterten Version von Benjamin Button ist eindeutig Brad Pitt zu erkennen (Abb. 9), und das ist nicht zuletzt als ein Resultat der Technik einzustufen, aber eben nicht nur. Wie die Darstellungen insbesondere der Animation, aber auch der Materialisierung und der Form gezeigt haben, bilden selbst fortgeschrittene technische Verfahren nicht mehr als das Rohmaterial, das erst durch die manuelle Bearbeitung sowie die geschickte Verknüpfung der unterschiedlichsten Bausteine einen einheitlichen und überzeugenden Eindruck hervorruft. Das Problem der Interaktion mit den anderen Figuren, den Objekten und dem Raum wurde mit dem Einsatz von Proxies, deren Körper im Film zu sehen sind, elegant gelöst. Nicht nur ist damit die physische Interaktion gegeben, sondern die Körperanimation als Ganzes entfällt und damit ein weiteres Problem der Erzeugung von digitalen Figuren. Typischerweise findet sich im Film die obligate Berührung des computergenerierten Gesichts, welche die digitale Domäne in die analoge Welt integriert. Neben der körperlichen Interaktion liegt ein weiterer Faktor für die erfolgreiche Integration der digitalen Figur in der ästhetischen Kohärenz, die einerseits auf eine sehr gute Materialisierung der Haut mit allen Details, andererseits aber auf eine ausgefeilte Übertragung der Lichtsituation am Set mittels bild-basierter Beleuchtung zurückzu-

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

123

Abb. 10: Benjamin Button in Großaufnahme

führen ist.22 Damit wird eine sehr natürlich wirkende Beleuchtungssituation auch in der digitalen Domäne möglich. Mit einem adaptiven Rendering in 20 Durchgängen, ließ sich die Figur im Compositing extrem flexibel in die Live-Action-Umgebung einpassen.23 Das Ergebnis ist jedenfalls sehr beeindruckend ausgefallen (vgl. Abb. 10) Schließlich ist Benjamin Button noch in die anfangs erwähnten Modelle einzuordnen. Man kann davon ausgehen, dass die Figur das Uncanny Valley überwunden wurde. Es sind nur sehr wenige kurze verunsichernde Momente zu beobachten, die Zweifel aufkommen lassen, und diese Momente werden immer durch die Krisenzonen Augen und Mund hervorgerufen, die nach wie vor am schwierigsten zu bewältigen sind. Im Modell der Distanz schließlich lässt sich Benjamin Button eindeutig dem fotorealistischen Bereich zuordnen. Anders als Gollum und auch anders als eine andere gelungene digitale Figur, Davy Jones aus Pirates of the Caribbean: Dead Man‘s Chest (Gore Verbinski, USA 2006), der mit seinen Tentakeln im Gesicht deutlich verfremdet erscheint und sich damit dem Vergleich mit einem Menschen weitgehend entzieht, sieht Benjamin Button sehr normal aus. Dennoch ist er eben ein Sonderling. Einige merkwürdige Entgleisungen des Gesichts erscheinen narrativ motiviert. Jeden22

23

Bildbasierte Beleuchtung (image-based lighting): ein Verfahren, bei welchem die Beleuchtung aus High-Dynamic-Range-Fotografien einer realen Umgebung abgetastet und in die computergenerierte Szene importiert wird (Vgl. Flückiger, Visual Effects, [vgl. Anm. 1, S. 164 ff.). Eines der Hauptprobleme dieses Verfahrens war bisher der beschränkte Bewegungsspielraum (Vgl. Flückiger, Visual Effects [Anm. 1], S. 166). Wie Jonathan Litt an der fmx 09 ausführte, hat das Team von Digital Domain dieses Problem mit Nuke, einer Compositing-Software, gelöst. Litt, fmx 09 (vgl. Anm. 13).

124

BARBARA FLÜCKIGER

falls erlaubt die Geschichte einen größeren Spielraum. Und es handelt sich um eine alte Figur, deren Haut nicht mehr so elastisch und auch nicht mehr so transparent ist. Auch das hat die Arbeit erleichtert, aber das soll die überaus großartige Leistung des Teams von Digital Domain nicht schmälern.

Fallstudie 2: Avatar James Camerons Science-Fiction-Film sprengte im Winter 2009/2010 alle Box-Office-Rekorde. Das ist Indiz genug für das Funktionieren der digitalen Figuren, denn wie sonst sollten sich Millionen von Zuschauern rund um den Globus emotional so stark berühren lassen? Tatsächlich griffen im Kino gestandene Männer in den entscheidenden Momenten zu den Taschentüchern. Es entstand ein regelrechter Hype um den Film, der als revolutionärer Meilenstein der Visual Effects gefeiert wurde. Mit der fantastischen Welt Pandora jedenfalls war ein computergeneriertes Universum in nie zuvor gesehener Komplexität und schierer Quantität entstanden, mit fluoreszierenden Lebewesen und Pflanzen, mit riesigen, mythisch aufgeladenen Bäumen, mit schwebenden Inseln und fantastischen Tieren, und nicht zuletzt bevölkert von Massen von digital konstruierten, fremdartigen Eingeborenen namens Na’vi und den Avataren, gentechnisch hergestellten Hybriden zwischen Mensch und Na’vi, die sich von Menschen steuern ließen. Wie in der Fallstudie zu Benjamin Button wird es hier nun darum gehen, die Entstehung dieser digitalen Figuren in Avatar zu analysieren24 und basierend auf den eingangs dargelegten Problematiken kritisch zu diskutieren. Seinen eigenen Ausführungen zufolge hatte James Cameron die Idee zu Avatar schon Mitte der 1990er Jahre.25 Wie in Benjamin Button wären tra24

25

Als Quellen dienen die umfangreiche Darstellung in der Fachzeitschrift Cinefex: Duncan, Jody: „The Seduction of Reality.“ In: Cinefex, 2010, Nr. 120, S. 68-146; Holben, Jay: „Mauro Fiore, ASC Helps James Cameron Envision Avatar, a 3-D Science-fiction Adventure That Combines High-definition Video and Motion Capture.“ In: American Cinematographer, Bd. 91 (2010), Nr. 1, Januar S. 32–47, die Präsentationen am 7. Mai 2010 an der Tagung fmx 10 von Shawn Dunn, Animation Technical Supervisor, und Stephen Rosenbaum, Visual Effects Supervisor, Weta Digital (siehe http://2010.fmx.de/effects.E.224.html, Zugriff am 26.5.2011). Duncan, „The Seduction of Reality “ (vgl. Anm. 24), S. 70. Spiegel, Simon: „Wie James Camerons Avatar den Zuschauer in eine fremde Welt entführt“. In: Mamczak, Sascha/Jeschke, Wolfgang (Hrsg.): Das Science Fiction Jahr 2010. München 2010, S. 361–388. Ein Scriptment mit einer frühen Version von James Cameron

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

125

ditionelle Ansätze denkbar gewesen, die Geschichte umzusetzen, nämlich eine Kombination von Make-up und Skalierung, um die größeren Figuren in Relation zu den Menschen zu setzen. Cameron jedenfalls überlegte sich, digitale Figuren mit Aufnahmen eines Regenwalds zu kombinieren. Zu jener Zeit aber war die Technik zu wenig ausgereift, um eine digitale Figur zu schaffen, die als Träger von Emotionen einen Spielfilm hätte ausfüllen können. Gemäß der Fama ließ Cameron das Projekt deshalb erstmal ruhen, wandte sich anderen Projekten wie Titanic zu und wartete darauf, dass sich die Technik weiterentwickelte.

Animation des Verhaltens Schon früh bestand der Plan, mit einer erweiterten Form von Motion Capture, nämlich Performance Capture zu arbeiten. Performance Capture ist ein integrierter Ansatz zur simultanen Aufzeichnung von grobmotorischen und mimischen Bewegungen, der erstmals für Robert Zemeckis’ The Polar Express (USA 2004) Verwendung fand.26 Dieses Verfahren geht von der richtigen Annahme aus, dass sich die Mimik in Abhängigkeit von den Körperbewegungen verändert und dass deshalb die früheren Techniken, die Mimik und Gestik getrennt behandelt haben, keine überzeugenden, systemisch verknüpften Bewegungsmuster von Gesicht und Körper liefern können. „‚Our goal in using performance capture,‘ noted Avatar producer and longtime Cameron collaborator Jon Landau, ‚was […] to preserve the actor – because what a great actor does and what a great animator does are antithetical to each other. A great actor withholds information.‘“27 Es ging also im Kern wie bei Benjamin Button genau darum, einen natürlich wirkenden Stil zu entwickeln anstelle einer akzentuierten Stilisierung in der Tradition des Animationsfilms. Und wie in Benjamin Button wurde ein bildbasiertes Verfahren mit Pixel-Flow gewählt: Die Idee bestand darin, die Schauspieler mit einer Helmkamera in Standardauflösung zu bestücken und diese Aufnahmen des Gesichts zur Basisinformation für die Animation zu erklären. Auf der Motion-Capture-Bühne waren zudem High-Definition-Kameras installiert, welche die Szene als Ganzes erfassten und damit weiteres Referenzmaterial für die Animation lieferten. Während der Motion-Capture-Ses-

26 27

findet sich auf http://www.docstoc.com/docs/14294813/Avatar-Scriptment-by-James-Cameron. Vgl. Flückiger, Visual Effects (vgl. Anm. 1) S. 449 ff. sowie den Abschnitt „Motion Capture“, S. 145-153. Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 70.

126

BARBARA FLÜCKIGER Abb. 11: James Cameron mit der virtuellen Kamera

sions in den Giant Studios, die mehrere Monate dauerten,28 setzte James Cameron eine virtuelle Kamera ein (Abb. 11). Als virtuelle Kamera bezeichnet man üblicherweise den Blickpunkt, aus dem eine computer-generierte Szene dargestellt wird, weil dieser Blickpunkt dem einer Kamera entsprechen würde. Im Fall von Avatar hat James Cameron einen beweglichen Monitor, dessen Bewegung im Raum unmittelbar erfasst wurde, wie eine Kamera verwendet. Damit legte er die einzelnen Einstellungen der Szenen bereits fest und konnte in Echtzeit die Performance der digitalen Figuren sowie deren Integration in die computergenerierte Umwelt überprüfen, allerdings in einer niedrigen Auflösung und mit einer bescheidenen Ästhetik der gerenderten Bilder, die an frühe Computerspiele erinnert (Abb. 12). Außerdem ging es bei dieser Technik darum, sofort einen Eindruck von den geplanten Einstellungen zu bekommen, was ohne Zweifel die Zusammenarbeit sehr erleichterte und auch für die Schauspieler von Nutzen war, denn auf der Motion-Capture-Bühne arbeiten sie in einem abstrakten, äußerst reduzierten sinnlichen Vakuum, in dem alles nur angedeutet ist, weil es gilt, Verdeckungen durch Objekte möglichst zu vermeiden, damit die Bewegungsdaten lückenlos aufgezeichnet werden können. Ein weiterer Vorteil war es für Cameron, dass die Schauspieler anders spielten, wenn sie eine Beziehung zur Kamera aufbauen und nicht nur allgemeine Daten für ein indifferentes Kamera-Array liefern mussten: 28

In Holben, „Mauro Fiore“ (vgl. Anm. 24), ist die Rede von 18 Monaten, in Duncan, „The Seduction of Reality“, S. 124 (ebd.), werden 6 Monate genannt.

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

127

Abb. 12: Echtzeitvisualisierung in Avatar

„,Actors act differently depending on the camera,‘ noted [digital effects supervisor Nolan] Murtha, ‚if you are doing a wide master of a scene, they’re going to be a little more grand in their motion than they would be on a close-up.‘“29 Ähnliche Echtzeitvisualisierungen, sogenannte On-set Previz, sind aber schon in früheren Produktionen anzutreffen, so das Encodacam-System aus dem Broadcastbereich unter anderem in A.I. Artificial Intelligence (Steven Spielberg, USA 2001) und in I, Robot (Alex Proyas, USA 2004) sowie einiges früher ein videobasiertes System in Who Framed Roger Rabbit (Robert Zemeckis, USA 1988).30 Zemeckis hatte diese Idee weiterverfolgt und insbesondere für Beowulf (USA 2007) eingesetzt. Zu den Ergebnissen der Bilder aus der Helmkamera ist anzumerken, dass diese Bilder – anders als das Image-Metrics-System aus Benjamin Button – keine verlässlichen Bewegungsdaten liefert. Das hat zwei Gründe. Erstens braucht es eine sehr hochauflösende Bildqualität, damit die Pixel-Flow-Analyse funktioniert; denn ohne hohe Auflösung hat man ähnliche Filterprobleme wie mit Markern.31 Zweitens hat man nur eine Perspektive von vorne statt mehrerer Aufnahmewinkel zur Verfügung, und dies mit den Verzerrungen eines Fischaugenobjektivs. Deshalb hat man – wie in Benjamin Button – die Aufnahmen nachsynchronisiert mit 29 30 31

Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 120. Flückiger, Visual Effects (vgl. Anm. 1), S. 237 f. Weil nicht jeder Punkt exakt erfasst wird, müssen die Bewegungen in den Zwischenbereichen berechnet werden.

128

BARBARA FLÜCKIGER

einem System, das sich analog zum Automated Dialogue Replacement (ADR) Facial Performance Replacement (FPR) nannte.32 Dabei wiederholten die Schauspieler ihre Mimik sitzend vor einem Monitor und wurden von mehreren Kameras aufgenommen. Mit diesem Prozedere hat man allerdings einen wesentlichen Vorteil von Performance Capture verloren, nämlich die Integration von Körperbewegung und mimischem Ausdruck: „So we were uncoupling the facial performance from the physical performance.“33 Geblieben ist von der ursprünglichen Idee also in erster Linie das Referenzmaterial, das die Helmkamera geliefert hat. Wie in Benjamin Button hat man für Avatar das Facial Action Coding System FACS von Ekman und Friesen verwendet, jedoch mit einem anderen Ansatz. Im Unterschied zur Blend-Shape-Technik nämlich von Benjamin Button, welche nur die Oberflächenveränderungen erfasst, wurden die Figuren mit einem robusten und ausgereiften Gesichtsmuskelsystem ausgestattet, das die Mimik genau nach den 44 mimischen Einheiten steuerte, die Ekman et al. definiert und mit den sechs Basisemotionen Glück, Überraschung, Trauer, Angst/Furcht, Ekel/Abscheu und Zorn verknüpft hatten. Mit dieser anspruchsvollen Technik wollte man die geringe Datenmenge des Performance-Capture-Materials ausgleichen.34 Da die Gesichter der Na’vi mit ihren breiten Nasen und ihren Raubtieraugen sich deutlich von menschlichen Gesichtern unterscheiden – ein Aspekt, der uns im Kontext der Uncanny-Valley-Diskussion nochmals beschäftigen dürfte –, bestand eine Schwierigkeit darin, die Daten von den Performance-Capture-Aufnahmen entsprechend zu übertragen. Ähnliches gilt für die Körperproportionen. Die Na’vi sollten ungefähr 2.50 m groß sein, was zu erheblichen Problemen bei der Skalierung der Bewegungsdaten führen kann, wie meine Untersuchungen gezeigt haben.35 Denn die Bewegungsmuster verändern sich in Abhängigkeit von Alter, Größe und vor allem Masse. Tatsächlich wirken die Na’vi oftmals zu leicht, und es ist enorm schwierig, ihre Größe korrekt wahrzunehmen, wenn keine menschlichen Figuren als Vergleichsobjekte zu sehen sind.

32 33 34 35

Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 119. James Cameron in Duncan, „The Seduction of Reality“, S. 119. Duncan, „The Seduction of Reality“, S. 137. Das Skalierungsproblem bei Motion Capture ließ sich schon andernorts beobachten, so bei The Polar Express (Robert Zemeckis, USA 2004) und Hulk, siehe Flückiger, Visual Effects (vgl. Anm. 1), S. 151 f.

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

129

Erscheinungsbild: Form und Haut Im Entstehungsprozess des Erscheinungsbilds unterscheidet sich Avatar fundamental von Benjamin Button, denn die Na’vi und die Avatare sind frei erfundene Fabelwesen mit variierenden menschlichen Anteilen. In solchen Fällen gibt es üblicherweise einen längeren Konzeptionsprozess, der mit Zeichnungen beginnt. Die ersten Entwürfe hatte Cameron selbst angefertigt, schon da mit blauer Haut, an welcher er durch den ganzen Prozess festhielt, um die Figuren von allen etablierten grünen Monstern und Marsmännchen klar abzusetzen. Ebenfalls von Camerons Design stammten die großen Katzenaugen, die breiten Löwennasen, die großen beweglichen Ohren und die großen, schlanken, muskulösen Körper.36 Es ist aber nicht überraschend, dass der Konzeptionsprozess insgesamt immer stärker zu menschenähnlichen Figuren konvergierte, denn die Anschlussfähigkeit, um einen Begriff von Niklas Luhmann zu verwenden,37 ist die Basis für den Verstehensprozess und damit auch für die empathische Partizipation. Diese Erkenntnis gewannen auch die Filmemacher: „eventually we went back to a much more traditional foundation. We came to realize that if we wanted the audience to relate emotionally to these characters, there needed to be familiar touchstones.“38 Um den Performance-Capture-Abgleich zu erleichtern, hat man die Mundpartie möglichst von den Schauspielern übernommen. Bei den Avataren – besonders bei Sigourney Weaver – musste die Ähnlichkeit mit der menschlichen Figur gegeben sein, zumindest im Gesicht. Dafür hat man sicherlich 3D-Scans der Schauspieler angefertigt. An den Konzeptionsprozess schließt die Übertragung in den dreidimensionalen Raum an. Es werden meist Tonmodelle angefertigt, die man anschließend in 3D scannt, um sie in den Computer zu laden. Bei Avatar war es etwas anders. Zwar gab es diesen Weg, aber parallel dazu hat man die Zeichnungen in eine Software namens ZBrush von Pixologic geladen, um dort in einem Sculpting genannten Prozess 3D-Modelle im Computer zu erstellen (Abb. 13). ZBrush kam vor wenigen Jahren auf und ist heute ein sehr etabliertes Verfahren, um komplexere organisch wirkende Objekte oder Figuren zu erstellen.39 Es ist eine Art dreidimensionales 36 37

38 39

Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 75. Luhmann, Niklas: Die Realität der Massenmedien. Wiesbaden 2004 (zuert 1995), S. 35 ff. Vgl. dazu meine Überlegungen zur filmischen Fiktion: Flückiger, Visual Effects (vgl. Anm. 1), S. 282-289. Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 75. Kingslien, Ryan (2004): ZBrush 2.0 Review (= http://vfxworld.com/?atype=articles &id= 2310).

130

BARBARA FLÜCKIGER

Abb. 13: ZBrush-Modell von Neytiri, rechts im Bild

Malprogramm, mit dem sich im Raum Formen, Texturen, kleinräumige Variationen und weitere Materialeigenschaften erzeugen lassen.40 Lebensgroße Modelle der Figuren hat das Stan Winston Studio hergestellt, das wohl etablierteste Studio in diesem Sektor, das schon für die Dinosaurier in Jurassic Park zuständig war. Solche Modelle haben den Zweck, das Design für die Kommunikation zu veranschaulichen und als Stand-ins am Set Referenzmaterial sowohl für die Interaktion mit den Schauspielern als auch für die Beleuchtung zu bieten. Je ein weibliches und männliches Modell der Na’vi in Lebensgröße hat man in 3D gescannt und daraus die großen Massen von Na’vi-Figuren abgeleitet.41 Das Stan Winston Studio war aber auch in den Prozess der Materialisierung der Hauteigenschaften involviert, angefangen mit der Bestimmung des Blautons: „The battle was coming up with a blue that would still look believable as flesh. There are blue-colored fish and birds, but no mammals with blue that we could reference.“42 Zusätzlich mussten die Streifenmuster mit leuchtenden Farben entworfen und festgelegt werden, welche auf die Körper und Gesichter aufgetragen werden sollten. Aber wie Shawn Dunn43 ausführte, waren diese Streifen schwierig zu handhaben, denn sie konfligierten mit der Lesbarkeit des Gesichtsausdrucks. Im 40 41 42 43

Siehe Website von Pixologic (= http://www.pixologic.com/home.php) sowie verschiedene Videos auf YouTube, die den Prozess veranschaulichen. Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 109. Effects Supervisor John Rosengrant in Duncan, „The Seduction of Reality“, S. 109. Dunn, fmx 10 (vgl. Anm. 24).

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

131

Vergleich mit den Na’vi hatten die Avatare einen etwas helleren Hautton und ein ausgeprägteres menschliches Aussehen.44 Sie sollten auch ihren menschlichen Pendants gleichen, um den Wiedererkennungswert zu stützen. So behielt der Dr. Grace Augustine-Avatar die typische schmale Nase der Schauspielerin Sigourney Weaver. Außerdem war die Korrespondenz zwischen steuerndem Schauspieler in der Performance Capture und digitaler Figur notwendig zur Übertragung der Daten. Besonders die Mund- und Augenpartie waren kritisch, weshalb hier die größte Übereinstimmung anzustreben war. Wie sich an einem Vergleich zwischen der Na’vi-Häuptlingstochter Neytiri und der für sie agierenden Schauspielerin Zoë Saldana leicht sehen lässt, stimmt die Übereinstimmung in erster Linie für den Mund, während die Augen in Form, Farbe und Position im Gesicht deutlich davon abweichen, so wie der Rest des Gesichtes. Neben der auffällig veränderten Nase und den hochstehenden, beweglichen Ohren hatten die Na’vi nur angedeutete Augenbrauen, was die Gesichtsanimation deutlich erschwerte, denn die Veränderungen der Augenbrauen sind wesentlich für den Ausdruck.45 Vielleicht würde man annehmen, dass blaue Haut leichter zu materialisieren ist als die übliche menschliche Haut, weil die Referenz fehlt und daher ein großer Anteil an kritischer Begutachtung durch den Zuschauer entfallen könnte. Offenbar war das Gegenteil der Fall, wie die Praktiker berichten. Das Problem bestand darin, dass blaue Haut nie natürlich aussieht und besonders bei orangefarbenem Licht wie Feuerschein einen gräulichen, widerwärtigen Farbton produzierte, der mit entsprechenden Maßnahmen beseitigt werden musste, indem man die spektrale Reflexion der Na’vi-Haut mit einem Algorithmus verschob. Zudem ebnete der Blauton die kleinen üblichen Unebenheiten der Haut aus. Daher mussten Mitarbeiter von Weta-Digital herhalten: „Courageous Weta crew members subjected themselves to extremely close-up photography […]; but texture artists found that they had to exaggerate […] the freckles and other imperfections: ‚Our texture maps looked a lot more ratty than the real person’s face.‘“46 Auch diese Beobachtung stimmt mit meiner Einsicht überein, dass es notwendig ist, das allzu glatte Erscheinungsbild von CGI (Computer Generated Imagery) mit Störungen anzureichern und aufzurauen, damit es organisch und natürlich wirkt.47 Des Weiteren ist 44 45 46 47

Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 75. Dunn, fmx 10 (vgl. Anm. 24). Visual Effects Supervisor Guy Williams in Duncan, „The Seduction of Reality“, S. 133. Flückiger, Visual Effects, (vgl. Anm. 1), S. 341.

132

BARBARA FLÜCKIGER

anzunehmen, dass die Differenzierungsfähigkeit des menschlichen Auges im Blauspektrum geringer ist, eben weil diese Farbe in der natürlichen Hautwahrnehmung fehlt und wir entsprechend auf keine Erfahrungswerte zurückgreifen können. Und natürlich musste das zuvor erwähnte Subsurface Scattering berücksichtigt werden, wie schon bei Hulk mit seiner grünen Haut, bei welchem sich ähnliche Probleme ergaben.48 Dafür wählte man ein Absorptions- statt des üblichen Streuungsmodells, um die Farbtöne der Unterhaut und des Gewebes aus dem Pink-Orange-Spektrum kontrolliert durchscheinen zu lassen.

Fazit In der Marketingstrategie von Avatar wird Performance Capture sehr in den Vordergrund gestellt. In einem kurzen Clip, der zum Electronic Press Kit gehörte, das den Journalisten zur Verfügung gestellt wurde, kommentiert Cameron: „Alles, was wir auf der Leinwand sehen, wird von den Schauspielern zum Leben erweckt.“ Und Sam Worthington (Jake Sully) doppelt nach: „Das Aufregendste ist, das bin wirklich Ich.“ Cameron: „Wir kriegen 100% von dem, was der Schauspieler tut.“ Sam Worthington: „Es ist meine Persönlichkeit. Das bin Ich.“ Zu sehen sind Gegenüberstellungen von Performance Capture und ausgearbeiteter Animation (Abb. 14).49 Cameron ging sogar so weit, eine Screen-Actor’s-Guild- oder Oscar-Nomination für seine Schauspieler einzufordern,50 ein Ansinnen, das Kristin Thompson kritisch reflektiert.51 Die Stoßrichtung ist klar und sie deckt sich mit meinen Beobachtungen zu Gollum. Wie ich dort schon belegt habe, war es sinnvoll, die Figur Gollum im öffentlichen Bewusstsein der Leistung eines Schauspielers zuzuschreiben: „Aus rezeptionspsychologischer Sicht […] war das ein cleverer Schachzug, denn indem diese Leistung einer Person attribuiert wird, erlangt die digitale Figur so etwas wie eine physische Präsenz, die weitaus konkreter ist als die abstrakte und unverständliche Tätigkeit eines Heers 48 49 50

51

Flückiger, Visual Effects, S. 442 Diese Gegenüberstellung mit Split-Screen scheint sich etabliert zu haben, siehe auch Abb. 9 für Benjamin Button. Abramowitz, Rachel: ‚Avatar’s‘ animated acting. Hollywood debates whether film work used by actors such as Zoe Saldana for computer-generated characters deserves equal recognition. Los Angeles Times, 18. Februar, 2010: http://articles.latimes. com/2010/feb/18/entertainment/la-et-avatar-actors18-2010feb18 Thompson, Kristin (2010): Motion-capturing an Oscar, auf David Bordwells Blog: http://www.davidbordwell.net/blog/?p=7126

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

133

Abb. 14: Performance Capture und animierte Version

von Animatoren.“52 Weiter wollte Cameron natürlich auch seinen Status als Regisseur sichern, das wird aus seinem Statement im oben zitierten Artikel aus der Los Angeles Times deutlich, wo er betont, dass er in der Zusammenarbeit mit den Schauspielern den Ausdruck kontrolliert und seine Intention nicht durch die Animatoren verändert haben möchte, ein Befund, der von Shawn Dunn gestützt wurde: „He was very religious to the performance. Whatever was shot on the mocap stage had to be in the movie.“53 Insofern geht es über reine Marketingstrategie hinaus, und hier können wir den Bogen schließen zu den Grundproblemen, namentlich zum Problem der Komplexität, die – wie erwähnt – durch die Aufzeichnungsverfahren wie Motion Capture wesentlich gestützt wird. Mehr noch als bei Benjamin Button jedoch ist bei Avatar eine hybride Mischung am Werk, die Aufzeichnungs- und Modellbildungsverfahren miteinander kombiniert, und zwar in allen Bereichen, vom Modellieren über die Materialisierung bis hin zur Animation. So sind die Figuren mit ZBrush modelliert, aber teilweise auch von Modellen oder Schauspielern in 3D gescannt; so setzen sich die Shader aus gemalten und fotografierten sowie algorithmisch bestimmten Elementen zusammen; und schließlich wird aus der reinen Betrachtung der Bewegungsabläufe klar, dass nicht alles auf der Motion-Capture-Bühne aufgezeichnet, sondern mindestens punktuell keyframe-animiert sein musste. Im Cinefex-Artikel schätzt Ca-

52 53

Flückiger, Visual Effects (vgl. Anm. 1), S. 460. Dunn, fmx 10 (vgl. Anm. 24).

134

BARBARA FLÜCKIGER

meron selbst den Anteil auf 10%.54 Diese Schätzung dürfte zu tief liegen, denn sie bezieht sich hauptsächlich auf jene Körperteile, welche die Schauspieler nicht oder in anderer Form besitzen wie die Ohren und den Schwanz, nicht aber auf das Mundinnere, das Dunn erwähnte,55 das schon bei Benjamin Button überaus anspruchsvoll war und das generell eine Krisenzone darstellt. Mit der Keyframe-Animation verbunden ist aber das schon oben erwähnte Problem der Konsistenz. Wie Animation Supervisor Richard Baneham ausführte, war das Animationsgerüst (animation rig) des Gesichts mit der ausgeklügelten Muskelstruktur entscheidend für die konsistente Mimik, denn die Animation ging durch sehr viele Hände. „But the fine nuance of the actor’s performance had to be done by keyframe. The facial rig just freed the animators to concentrate on those all-important details.“56 Immer, wenn der Aktionsradius des Menschen überschritten werden soll, wie vor allem bei den Sprüngen und den Tauchern in die Tiefe in Avatar, muss man auf Keyframe-Animation zurückgreifen. Damit wird aber auch ein typisches Problem computergenerierter Figuren deutlich, nämlich dass sie nicht durch die physikalischen Gesetze limitiert sind. Diese annähernd unlimitierten Möglichkeiten können dazu führen, dass die Zuschauerpartizipation einbricht.57 Merkwürdigerweise tendieren die Körperformen der Na’vi und der Avatare dazu, unterkomplex auszufallen. Es ist jedenfalls die deutliche Tendenz festzustellen, die Körper stereotypen Geschlechtermustern unterzuordnen, der schon für die frühe Computeranimation typisch ist und als Resultat der grundsätzlichen Tendenz von computergenerierten Bildern, generische Prototypen hervorzubringen, gewertet werden muss, eben weil alles geplant und von Grund auf kreiert werden muss. Die Na’vi entsprechen außerdem einem vereinfachten und traditionell festgelegten Bild des edlen Wilden, wie sie beispielsweise in Leni Riefenstahls Fotografien der Nuba zu sehen sind. Diese unterschwellige Tendenz wird als latent rassistische und oder imperialistische Ideologie des Films teilweise sehr kritisch unter die Lupe genommen, obwohl sie der weit herum rezipierten antikolonialistischen Botschaft der Erzählung zuwiderzulaufen scheint.58 Das Hauptziel für die Gestaltung

54 55 56 57 58

Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 138. Dunn, fmx 10 (vgl. Anm. 24) Duncan, „The Seduction of Reality“ (vgl. Anm 24), S. 138 Vgl. meine Diskussion des Superheldenproblems in Flückiger, Visual Effects (vgl. Anm. 1), S. 462 ff. http://io9.com/5422666/when-will-white-people-stop-making-movies-like-avatar

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

135

von Neytiri jedenfalls lautete gemäß Dunn: „People should think: ‚Wow, she’s beautiful!‘“59 Trotz des überaus hybriden Herstellungsprozesses und einer Vielzahl von Referenzen ist die Figurenkonsistenz erstaunlich überzeugend ausgefallen, denn der Bezug zu den Proxies sowohl im Erscheinungsbild als auch im Verhalten ist deutlich und schafft – ungeachtet der signifikanten Abweichungen – eine Brücke zwischen Erscheinungsbild und Verhalten, wenn auch die Bewegungsmuster oftmals der postulierten Körpermasse nicht gerecht werden, wegen der Skalierung, die dem Verhältnis zwischen Schauspielerkörper und Avatarkörper zuzuschreiben ist, das etwa einem Maßstab 1:1.5 entspricht. Das Problem der Interaktion der Figuren fällt wesentlich komplexer aus als in Benjamin Button. Verschiedene Problemzonen spielen eine Rolle. Zunächst gibt es öfter eine direkte Konfrontation zwischen Live-Action und computergenerierten Bildern, so in der Einführungsszene der Avatare. Wie beschrieben, sind das schwierige Momente, weil die beteiligten Figuren ,ontologisch‘ gesehen verschiedene Welten bevölkern. In der Einführungsszene und einigen weiteren Szenen hat man das Problem mit Motion-Capture am Set gelöst. Das klingt wesentlich einfacher, als es ist, aber James Cameron ist – anders als von ihm postuliert60 – nicht der Erste, der diese Idee hatte. Schon in The Lord of the Rings und Pirates of the Caribbean: Dead Man‘s Chest hat man diesen Ansatz verwendet.61 Grundsätzliche Schwierigkeiten resultieren daraus, dass die Lichtsituation am Set für die Motion-Capture-Kameras alles andere als optimal ist. Im Fall von Avatar kam als wesentliches Hindernis das Skalierungsproblem ins Spiel, denn Sam Worthington war ja deutlich kleiner als sein Avatar. Deshalb hat man das Set teilweise ebenfalls skaliert gebaut und die Handlungen ließen sich nicht in einem Durchgang aufzeichnen, sondern mussten in zwei Teile gesplittet werden: „Typically, the crew would capture the Na’vi or Avatar character first, and then map that performance to the digital character when Cameron shot live-action.“62 Grundlegend für das Funktionieren dieses Systems war die Echtzeitvisualisierung, welche das Team Simulcam nannte und das auf einer Kombination des Motion-CaptureSystems und der Live-Action-Kamera beruhte. Weitere Problemfelder der Interaktion mussten auf der Motion-Capture-Bühne gelöst werden. So war auch dort die Skalierung ein Thema, 59 60 61 62

Dunn, fmx 10 (vgl. Anm. 24). Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 126 Vgl. Flückiger, Visual Effects, S. 151 Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 127

136

BARBARA FLÜCKIGER

das man gelöst hat, indem man die Menschen von Kindern spielen ließ, um die Proportionen abzubilden.63 Die Topografie wurde mit einfachen Bauelementen angedeutet und für die Flüge auf den drachenähnlichen sogenannten Banshees hat man bewegliche Plattformen aufgehängt, deren Positionswechsel von Hand gesteuert wurden, um die Verbindung Tier-Reiter zu schaffen. Nicht nur die vielen Objekte, sondern vor allem die zahlreichen Personen, die gleichzeitig während der Motion-CaptureSessionen aktiv waren, brachten große Verdeckungsprobleme mit sich, die man in der Vergangenheit zu vermeiden versuchte, weil die Marker dann aus dem „Sichtfeld“ der Kameras verschwinden und ihre Bewegungspfade deshalb Lücken aufweisen. Mit einem robusten Skelett und einer fortgeschrittenen Interpolationssoftware der Giant Studios ließen sich diese Probleme offenbar lösen.64 Entscheidend aber für die gelungene Interaktion war gemäß Dunn die zuvor beschriebene Echtzeitvisualisierung der bewegten Figuren in der computergenerierten Umwelt über die virtuelle Kamera.65 Denn in der Regel haben die Schauspieler in der Vergangenheit völlig sinnentleert auf der kargen Motion-Capture-Bühne agiert, ohne eine Vorstellung davon zu haben, wie sich ihre Performance in das Gesamtgefüge integrieren würde. Am Ende dieses Textes geht es nun noch um eine Diskussion von Avatar im Kontext der beiden Modelle. Während Cameron in verschiedenen Interviews explizit und im Cinefex-Artikel implizit postuliert, dass seine Figuren das Uncanny Valley überwunden haben, wäre hier sicherlich eine empirische Überprüfung notwendig. Die Differenzen in der Physiognomie sind doch sehr ausgeprägt, es gibt viele Abweichungen von einem komplett menschlichen Gesicht, die den Schluss nahe legen, dass die Figuren eben nicht völlig anthropomorph sind. Im Modell der Distanz verhalten sich die Figuren ähnlich wie Gollum aus The Lord of the Rings: Sie sind hauptsächlich fotorealistisch mit einigen Abweichungen, die das Gleichgewicht nicht stören, weil sie Erscheinungsbild und Verhalten ausgeglichen betreffen. Somit scheint dies ein durchaus robuster Ansatz zu sein, überzeugende digitale Figuren zu schaffen. Denn welche Kritik man auch immer an Avatar formulieren mag: Diese digitalen Figuren waren in der Lage, die Massen zu begeistern und ins Kino zu locken.

63 64 65

Dunn, fmx 10 (vgl. Anm. 24). Duncan, „The Seduction of Reality“ (vgl. Anm. 24), S. 99 Dunn, fmx 10 (vgl. Anm. 24).

COMPUTERGENERIERTE FIGUREN IN BENJAMIN BUTTON UND AVATAR

137

Schlussbemerkung Ohne Zweifel zeigen die beiden Fallstudien, dass die Konstruktion und Animation von digitalen Figuren inzwischen so weit ausgereift ist, dass die Resultate zu überzeugen vermögen. Für alle drei genannten Grundprobleme – Verknüpfung von Erscheinungsbild und Verhalten, Komplexität sowie Interaktion – haben sich inzwischen Lösungsansätze etabliert. Dieser Befund entspricht meiner Feststellung, dass Komplexität immer das Resultat einer Geschichte sei,66 und diese Geschichte ist eben auch die Geschichte der Computergrafik und -animation, die bis heute eine junge Disziplin geblieben ist und ihren eigenen kulturellen Speicher noch entwickeln muss. Jedenfalls ist alle überprononcierte Fortschrittsrhetorik, wie sie besonders von James Cameron gerne und überaus medienwirksam zelebriert wird, fehl am Platz. Trotz der zunehmend komplexeren Ausgestaltungen der Figuren, die in Benjamin Button und Avatar zu konstatieren sind, greifen alle dort verwendeten Verfahren auf Vorläufer zurück, die mehrere Jahre früher schon Verwendung gefunden haben und die mir alle in meiner Forschung schon begegnet sind. Nicht zuletzt deshalb erweisen sich meine dort gewonnenen Einsichten sowie meine Analysen und Modelle als erstaunlich robust. Wenn man die einzelnen Techniken im Detail verfolgt, so sieht man ein komplexes Netzwerk von Einflüssen und Erkenntnissen, die aus der akademischen Grundlagenforschung aber auch aus den Research- und Developmentabteilungen der Firmen selbst stammen. Dieses Netzwerk differenziert sich stetig, aber nicht in Sprüngen aus. Besonders im direkten Austausch mit den Akteuren – den Visual-Effects-Spezialisten und den Forschern an den Universitäten – wird deutlich, wie mühsam und anspruchsvoll sich diese Arbeit gestaltet. Immer noch befindet sich die Disziplin in einem Stadium der Bricolage, wo inzwischen viele hoch entwickelte Bausteine schon zur Verfügung stehen, wo aber nach wie vor um jede einzelne Lösung gerungen werden muss. Deshalb wird die Konstruktion und Animation von digitalen Figuren weiterhin einer der aufwändigsten, aber auch spannendsten Gegenstandsbereiche computergenerierter Bilder bleiben.

66

Flückiger, Visual Effects (vgl. Anm. 1), S. 317.

Jens Eder, Jan-Noël Thon

Digitale Figuren in Kinofilm und Computerspiel Medienfiguren haben weit reichende Wirkungen.1 Sie dienen der Kunst, Unterhaltung, Information, Bildung und Werbung, der Arbeit und dem Spiel. In all diesen Bereichen beeinflussen sie Mediennutzer auf vielfältige Weise. Wenn Medien beispielsweise neue Menschenbilder entwerfen2, geschieht dies nicht zuletzt durch die Gestaltung ihrer Figuren. Populäre Figuren lassen sich vor diesem Hintergrund als wesentlicher Faktor des kulturellen Imaginären verstehen: Sie verbreiten sich oft über Mediengrenzen hinweg und prägen das Denken, Fühlen und Handeln verschiedener Menschengruppen. Die außerirdischen Na’vi aus James Camerons Avatar: Aufbruch nach Pandora (2009) erschienen auch in Fernsehtrailern, im zugehörigen Computerspiel Avatar: Das Spiel (2009), in Büchern, auf Plakaten oder als Actionfigurinen. In Na’vi-Kostümen demonstrierten Palästinenser gegen den Sperrzaun im Westjordanland, britische Aktionisten gegen Bergbauvorhaben in Indien.3 Angebot und Wirkung von Figuren sind eng an Eigendynamiken der Medien geknüpft, die sich aus deren Zeichensystemen, Technik, Ökonomie, Institutionen und Konventionen ergeben. Gegenwärtig führen Prozesse der Digitalisierung in all diesen Hinsichten zu Umbrüchen. Zugespitzt: Die Digitalisierung beeinflusst, welche Figuren uns beeinflussen. Digitale Figuren, die durch computergenerierte Bewegtbilder (Computer

1

2

3

Einen Überblick über die aktuelle Forschung zu Figuren bieten Rainer Leschke/ Henriette Heidbrink (Hrsg.): Formen der Figur. Figurenkonzepte in Künsten und Medien. Konstanz 2010 und Jens Eder/Fotis Jannidis/Ralf Schneider (Hrsg.): Characters in Fictional Worlds. Understanding Imaginary Beings in Literature, Film, and Other Media. Berlin 2010. Thomas Elsaesser ist der Ansicht, eine Aufgabe der Medienunterhaltung bestehe darin, dasjenige „lust- und reizvoll zu besetzen, was notwendig ist im Sinne einer Anthropologie, die das Selbstbild […] des Menschen für das 21. Jahrhundert neu definiert“ (Daniela Kloock: „Zurück in die Zukunft. Daniela Kloock im Gespräch mit Thomas Elsaesser“. In: Film-Dienst 15 (2009), S. 6-9, hier S. 9). Vgl. etwa http://www.20min.ch/news/dossier/nahost/story/31000804 (letzter Zugriff: 01.03.2011); http://www.survivalinternational.de/nachrichten/6293 (letzter Zugriff: 01.03.2011).

140

JENS EDER, JAN-NOËL THON

Generated Imagery, CGI) dargestellt werden, haben sich inzwischen in den meisten Bereichen der audiovisuellen Produktion verbreitet: Sie finden sich in Computerspielen und virtuellen Welten ebenso wie in vielen Kinofilmen und Fernsehproduktionen. Auch werden sie zunehmend als Teil transmedialer Unterhaltungs-Franchises und Werbekampagnen angelegt.4 Die Entwicklung digitaler Figuren hängt dabei mit der Entwick4

Als ‚transmedial‘ lassen sich in einem allgemeinen Sinne jegliche medienübergreifenden Phänomene bezeichnen. Die wissenschaftliche Diskussion zum Begriffsund Themenfeld ‚Transmedialität‘ lässt sich dabei grob in drei Richtungen mit jeweils unterschiedlichen, präziseren Begriffsbestimmungen unterteilen. Ein erster, vorwiegend literaturwissenschaftlicher Diskurs stellt ästhetische oder semiotische Aspekte von Kunstwerken in den Mittelpunkt. Dabei werden als ‚transmedial‘ meist medienunspezifische Phänomene bezeichnet, etwa Stoffe oder ästhetische Verfahren, die in verschiedenen Medien vorkommen. ‚Transmedialität‘ wäre hier weiter von ‚Intermedialität‘ abzugrenzen, die etwa Bezüge zwischen mindestens zwei konventionell distinkten Medien umfasst (vgl. Irina O. Rajewsky: Intermedialität. Tübingen 2002; es kursieren aber auch andere Verwendungsweisen, vgl. etwa Urs Meyer/Roberto Simanowksi/Christoph Zeller (Hrsg.): Transmedialität. Zur Ästhetik paraliterarischer Verfahren. Göttingen 2006). Ein zweiter, stärker medienwissenschaftlich orientierter Diskurs konzentriert sich auf medienübergreifende (meist fiktionale) Angebotskonstellationen, in deren Mittelpunkt Kinofilme, Fernsehserien oder Computerspiele stehen. Diese Konstellationen werden mittels Begriffen wie Transmedia Storytelling, Transmedial Worlds oder Transmedia Practice beschrieben. ‚Transmedialität‘ bezieht sich hier also in erster Linie auf die medienübergreifende Darstellung bestimmter Inhalte, insbesondere (fiktiver) Welten, Figuren und Geschichten (vgl. etwa Henry Jenkins: Convergence Culture. Where Old and New Media Collide. New York 2006; Lisbeth Klastrup/ Susana Pajares Tosca: „Transmedial Worlds – Rethinking Cyberworld Design“. In: Proceedings of the International Conference on Cyberworlds 2004. Los Alamitos/CA 2004, o.S; Christy Dena: Transmedia Practice. Theorising the Practice of Expressing a Fictional World across Distinct Media and Environments. Sydney 2009 [PhD thesis]). Ein dritter, vor allem sozial- und kommunikationswissenschaftlich ausgerichteter Diskurs untersucht die medienübergreifende Darstellung bestimmter Inhalte oder Angebote unter dem Begriff der ‚Crossmedialität‘, wobei der Schwerpunkt hier insbesondere auf Angeboten des Journalismus und der Werbung in Print- und Onlinemedien oder auch auf dem Nutzungsverhalten in konvergierenden Medienumgebungen liegt (vgl. etwa Wolfgang Schweiger: „Crossmedia zwischen Fernsehen und Web. Versuch einer theoretischen Fundierung des Crossmedia-Konzepts“. In: Helga Theunert/Ulrike Wagner (Hrsg.): Medienkonvergenz. Angebot und Nutzung. München 2002, S. 123-135; Uwe Hasebrink/Lothar Mikos/Elisabeth Prommer (Hrsg.): Mediennutzung in konvergierenden Medienumgebungen. München 2004). Unser Beitrag orientiert sich vor allem an dem zweiten, medienwissenschaftlichen Diskurs und bezieht den Transmedialitätsbegriff primär auf die Ebene des Dargestellten, also bestimmter ‚Inhalte‘ (insbesondere Figuren), gelegentlich auch auf die Ebene der Darstellungsformen und -techniken (etwa auf Digitalität als einer

DIGITALE FIGUREN

141

lung neuer Medien zusammen: Die Figuren in Computerspielen sind notwendigerweise digital konstruiert. Dagegen wurden Filmfiguren bis vor wenigen Jahrzehnten bekanntlich entweder durch gefilmte Schauspieler (Real- oder Live-Action-Film) oder durch klassische Animationstechniken (Trick- oder Animationsfilm) dargestellt. Die Digitaltechnik bot hier großes Potenzial: freie Gestaltbarkeit der Figuren, Spektakularität, ökonomische Vorteile, vereinfachte Produktionsabläufe, leichte Vervielfältigung und transmediale Übertragbarkeit. Man muss keinen mediengeschichtlichen Technik-Determinismus vertreten, um festzustellen, dass die Digitalisierung der Medienproduktion das Angebot medialer Figuren innerhalb der letzten 30 Jahre tiefgreifend verändert hat. Dabei ist ,Digitalität‘ kein absolutes, sondern ein graduelles Merkmal. Digitale Figuren unterscheiden sich zwar in ästhetischer, inhaltlicher und pragmatischer Hinsicht von nicht-digitalen, aber die Differenzen sind nicht prinzipieller, sondern gradueller oder statistischer Art. Das gilt zum einen für die einzelnen Figuren: Zwischen rein analogen und rein digitalen Figurendarstellungen liegt ein breites Spektrum von Mischformen. Am einen Ende der Skala stehen vollständig analoge Figuren, die visuell durch die fotografische Aufzeichnung von Schauspielern, Puppen, Zeichnungen oder anderen Vorlagen repräsentiert werden. Über die Aufzeichnung durch digitale Kameras und Rekorder, die digitale Manipulation und Mischung aufgezeichneter Bilder und Töne in der Postproduktion und die digitale Modellierung zentraler Elemente oder Phasen von Figurendarstellungen erreichen wir das andere Ende der Skala, an dem sich digitale Figuren im engeren Sinne finden, die hauptsächlich mittels Computeranimation konstruiert werden; entweder unter Rückgriff auf schauspielerische Arbeit mittels Motion Capture (bzw. Performance Capture) oder, indem Figuren in Anlehnung an klassische Animationstechniken gänzlich im Computer aufgebaut werden. Die technisch-ästhetische Konstruktion digitaler Figuren ist bereits ausführlich untersucht worden5 und soll hier nur kurz in Erinnerung gerufen werden. Die 3D-Figurenanimation durchläuft mehrere Phasen: Ein dreidimensionales Drahtgittermodell der Figur kann direkt im Computer oder aber durch das Einscannen von Schauspielern bzw. Skulpturen ge-

5

transmedialen Qualität von Figuren). In beiden Fällen gehen wir davon aus, dass ‚Transmedialität‘ eine analytische Abstraktion darstellt und dass sich transmediale Phänomene notwendigerweise im Kontext medienspezifischer Eigenschaftskonstellationen – der ‚Medialität‘ – konventionell distinkter Medien wie dem Film oder dem Computerspiel manifestieren. Vgl. vor allem Barbara Flückiger: Visual Effects. Filmbilder aus dem Computer. Marburg 2008, bes. S. 436-451, und ihren Beitrag in diesem Band.

142

JENS EDER, JAN-NOËL THON

schaffen werden. Das Figurenmodell erhält ein äußeres Liniennetz zur Formung der Oberfläche und ein inneres Skelett als Grundlage konsistenter Bewegungen. Bei der Motion Capture werden Bewegungen von Schauspielern aufgezeichnet und auf das Modell übertragen; bei der KeyframeAnimation werden Phasenbilder im Computer entworfen, der die Lücken zwischen ihnen füllt. Das anfangs grobe Modell kann in weiteren Arbeitsschritten differenzierte Texturen (z.B. Haut, Haare), Lichteffekte usw. erhalten. All dies kann ungeheuer aufwändig sein; das Rendern einzelner Bilder kann Stunden dauern und die arbeitsteilige Konstruktion von Figuren erhebliche Schwierigkeiten mit sich bringen und zu Inkonsistenzen führen. Freilich können nicht nur einzelne Figuren ‚mehr oder weniger digital‘ sein: Eine graduelle Verschiebung anderer Art zeigt sich im Blick auf das gesamte Figurenangebot. Aufgrund der Möglichkeiten digitaler Gestaltung haben sich im Kino bestimmte Arten von Figuren verbreitet, die zuvor weniger präsent waren. So liegen die Vermutungen nahe, dass die Entwicklung der technischen Möglichkeiten zu einer Zunahme metamorphotischer Figuren geführt haben und dass sich in Familienfilmen ,spielaffine‘ Figuren häufen.6 Auch das Zusammenfallen der Verbreitung digitaler mit der Verbreitung transmedialer Figuren lässt sich kaum als Zufall betrachten: Digitale Techniken erleichtern die Übertragung von Figuren von einem Ursprungstext auf andere Medien. Mehr noch: Manche digitale Figuren werden von Anfang an für transmediale Welten konzipiert (etwa The Kid oder Niobe im Matrix-Franchise). Die Digitalisierung von Figuren bildet dabei einen Ausgangspunkt für die Verbreitung transmedial verfestigter Imaginationen der Mediennutzer, für das ,Hineinwachsen‘ fiktiver Welten in die Alltagspraxis (etwa in Form von Spielen) und für die Verbreitung spezifischer Metadiskurse (z.B. DVD-Bonusmaterial, Internet-Infos, Fan-Fiction, Clips auf Video-Sites). Derartige transmediale Imaginationen wiederum vereinnahmen einen erheblichen Teil des Zeitbudgets vieler Mediennutzer und berühren nicht selten deren Identitätskonstruktion, wie das Beispiel der als Na’vi verkleideten Palästinenser zeigt. Trotz der zunehmenden Verbreitung und soziokulturellen Relevanz digitaler Figuren gibt es bisher allerdings kaum Forschungsarbeiten, die sich aus einer systematischen, medienkomparatistischen Perspektive mit ihnen beschäftigen. Am ehesten werden sie im Rahmen allgemeinerer Ar6

Vgl. Jens Eder: „Spielfiguren? Zum Wandel von Figurenkonzeptionen im gegenwärtigen Kino“. In: Rainer Leschke/Jochen Venus (Hrsg.): Spielformen im Spielfilm. Bielefeld 2007, S. 271-298.

DIGITALE FIGUREN

143

beiten zum computeranimierten Film, zu visuellen Effekten oder zum Computerspiel mit behandelt; zudem setzen sich medienpraktische Lehrschriften mit ihnen auseinander.7 Das Ziel dieses Beitrags besteht darin, solche Arbeiten miteinander in Verbindung zu bringen und weiter zu denken, um der Beantwortung verschiedener Fragen näher zu kommen: Welche Eigenschaften haben digitale Figuren in Film und Computerspiel gemeinsam, die sie von nicht digitalen Figuren unterscheiden? Welche Charakteristika sind jeweils spezifisch für die Figuren der beiden Medien? Welche Zusammenhänge bestehen zwischen diesen Figuren? Und zwischen welchen Spielarten digitaler Figuren lässt sich differenzieren? Wir orientieren unsere Überlegungen zur Medialität und Transmedialität digitaler Figuren dabei am Analysemodell der ,Uhr der Figur‘.8 Danach lassen sich Medienfiguren unter vier Aspekten analysieren: als Artefakte, fiktive Wesen, Symbole und Symptome. Als Artefakte sind Figuren auf bestimmte Weise gestaltet, wobei medienspezifische Verfahren zum Einsatz kommen (z.B. Kameraführung im Film; Interaktionsmöglichkeiten im Computerspiel). Als fiktive Wesen weisen Figuren körperliche, psychische und soziale Eigenschaften innerhalb einer dargestellten Welt auf. Als Symbole vermitteln sie übergeordnete Bedeutungen und Aussagen (z.B. als Stellvertreter für soziale Gruppen in der Realität). Als Symptome lassen sie auf Ursachen ihrer Produktion und Wirkungen ihrer Rezeption schließen (etwa auf Absichten der Produzenten, Nutzungsformen usw.). Im Mittelpunkt dieses Beitrags steht dabei die Frage, inwiefern sich die digitale Gestaltung von Figuren als Artefakte auf ihre Eigenschaften als fiktive Wesen, Symbole und Symptome auswirkt – auf ihre Körperlichkeit, Psyche und Sozialität; ihre Bedeutungen; ihre Produktions- und Rezeptionsverhältnisse. Wir konzentrieren uns mit unseren Fragen nach der Medialität und Transmedialität digitaler Figuren auf den Kinofilm und das Computerspiel, da sich diese beiden Medien nicht zuletzt im Hinblick auf den Einsatz digitaler Figuren signifikant unterscheiden: Im Computerspiel ist digitale Figurengestaltung eine unvermeidliche Grundvoraussetzung, im 7

8

Vgl. etwa Klaus Kohlmann: Der computeranimierte Spielfilm. Forschungen zur Inszenierung und Klassifizierung des 3-D-Computer-Trickfilms. Bielefeld 2007; Flückiger: Visual Effects (wie Anm. 5); Sebastian Richter: Digitaler Realismus. Zwischen Computeranimation und Live-Action. Die neue Bildästhetik in Spielfilmen. Bielefeld 2008; Rune Klevjer: What Is the Avatar? Fiction and Embodiment in Avatar-Based Singleplayer Computer Games. Bergen 2007 [Dissertation]; Rob O’Neill: Digital Character Development: Theory and Practice. Burlington/MA 2008. Vgl. Jens Eder: Die Figur im Film. Grundlagen der Figurenanalyse. Marburg 2008; „Understanding Characters“. In: Projections 4.1 (2010), S. 16-40.

144

JENS EDER, JAN-NOËL THON

Film dagegen dient sie als optionale Alternative zur Figurengestaltung durch Schauspieler oder klassische Animation. Damit Computerspiele Interaktion ermöglichen können, müssen die Figuren zudem in Echtzeit gerendert, also (bisher noch) weniger komplex als im Kinofilm gestaltet werden. Dennoch stehen Kinofilm und Computerspiel in vielfältigen Verhältnissen der Konkurrenz, Kollaboration, Konvergenz und Komplementarität: Sie konkurrieren um Rezipienten und Kreative, kollaborieren z.B. im Rahmen von Adaptionen oder transmedialen Franchises, konvergieren etwa im Bereich der Produktion und Distribution und bieten komplementäre Erlebnisangebote, Nutzungsformen und Rezeptionsmodi.9 Vor diesem Hintergrund wollen wir zunächst aus einer historischen und theoretischen Perspektive einen Überblick über die Formen und Funktionen digitaler Figuren in Kinofilmen und Computerspielen geben, bevor wir am Beispiel von James Camerons Film Avatar: Aufbruch nach Pandora und dem zugehörigen Computerspiel Avatar: Das Spiel auf die neuen Möglichkeiten zur Produktion und Rezeption digitaler Figuren insbesondere im Kontext transmedial angelegter Franchises eingehen.

Digitale Figuren im Kinofilm Die Geschichte digitaler Figuren im Film ist eng verwoben mit Entwicklungen in anderen audiovisuellen Medien, vor allem dem Computerspiel, der Werbung, dem Musikclip und der Fernsehserie.10 Eine wesentliche Voraussetzung für die Veränderung digitaler Figuren in all diesen Bereichen war – kaum überraschend – die Entwicklung der Computertechnik. Die ersten computeranimierten Filmfiguren erschienen dabei im experimentellen Kurzfilm. Ihre 2D-Ästhetik ähnelt spröden Konturzeichnungen, der Computer füllte die Verwandlungsstufen zwischen zwei Phasenbildern automatisch aus. Der Software-Spezialist Nestor Burtnyk und der Regisseur Peter Foldès verwendeten dieses Verfahren für das Morphing ihrer Figuren: In Metadata (1971) blickt sich ein Paar an, bis ihre Augen die Köpfe wechseln; in Hunger (1974) verwandelt sich ein magerer Mann in ein Fressmonster. Später wurden Computer in Zeichentrick-Produktionen zunehmend zur Arbeitserleichterung eingesetzt, etwa beim Zeichnen an Gra9

10

Auf diese Zusammenhänge hat etwa Gundolf S. Freyermuth hingewiesen. Vgl. Reinhard Kleber: „Digitale Zukunftssicherung“. In: Filmecho/Filmwoche 5 (2011), S. XXVI-XXVII. Vgl. hierzu auch Flückiger: Visual Effects (wie Anm. 5), S. 422-432; Kohlmann: Der computeranimierte Spielfilm (wie Anm. 7), S. 45-56.

DIGITALE FIGUREN

145

fiktabletts, beim Scannen, Rotoskopieren oder bei der Kolorierung. Im heutigen Zeichentrick gehört die Verwendung von Computern zum Standard, soll aber unauffällig bleiben – man bemüht sich um den Eindruck des Handgemachten. Dagegen fielen die ersten 3D-Computeranimationen im kommerziellen Live Action-Kino der 70er Jahre zwar auf, stellten aber zunächst keine Figuren dar, sondern abstrakte Drahtgittermodelle ihrer Umgebungen. Diese wurden oft aus Figurenperspektiven dargestellt, die an First-Person Shooter erinnern wie die Sicht des schießwütigen Androiden in Westworld (1973).11 Wenig später avancierte der Computer zum Zeitgeist-Phänomen, seine Ästhetik zum angesagten Stilmerkmal. Fantasien über die Computeranimation gingen ihrer tatsächlichen Verbreitung voraus. Doch selbst Filme, die solche Fantasien befeuerten und heute als Vorreiter digitaler Produktion gelten, ahmten deren Ästhetik noch vorwiegend mit traditionellen Mitteln nach: So handelt Looker (1981) zwar davon, dass lebendige Fotomodelle durch digitale Doubles ersetzt werden, aber nur eine kurze Sequenz des Films selbst ist computeranimiert. Ähnliches gilt für Tron (1982), der in einer Computerwelt spielt, oder The Last Starfighter (1984), der sich an Arcade Games orientiert. Auch die vermeintliche Computer-Figur Max Headroom, die seit 1984 in Clips, Serien und einem Film auftrat, wurde durch einen Schauspieler und traditionelle Tricktechniken dargestellt. Ein Umbruch in der Produktion digitaler Figuren begann mit der Gründung von Unternehmen, die sich auf CGI spezialisierten, vor allem US-Firmen wie Industrial Light & Magic (1979), Pacific Data Images (1980) oder Pixar (1985). Doch bis zum Ende der 80er Jahre beschränkte sich die digitale Figurendarstellung auf Kurzfilme oder flüchtige Sequenzen und einfache Nebenfiguren im Langfilm. So bestand die Fähigkeit des kristallförmigen Bit in Tron lediglich darin, mit Synthie-Stimme „Yes“ und „No“ zu sagen und dabei die Gestalt zu wechseln, und der Glasfenster-Ritter in Young Sherlock Holmes (1985) erschien nur für Sekunden. Solche simplen Figuren dominierten auch diverse Kurzfilm-Formen: etwa Adam Powers, the Juggler (1981), der bärtige Arbeiter im Musikvideo Money for Nothing (1985) oder der ,Sexy Robot‘ im Werbeclip Brilliance (1984), der als frühes Beispiel für Motion Capture gilt. Ab Mitte der 80er nahm die Raffinesse der Computeranimation zu, wie die belebten Lampen in Luxo Jr. (1985) oder das Blechmännchen in Tin Toy (1988) zeigen. Zugleich lassen Figuren wie das groteske Baby in Tin Toy Probleme bei der 11

Verbreitet ist auch die Darstellung solcher Umgebungen auf Computermonitoren im Film, etwa das Todesstern-Modell in Star Wars (1977).

146

JENS EDER, JAN-NOËL THON

Abb. 1: Rango aus dem Kino-Trailer zu Rango (2011)

Animation menschlicher Körper erkennen, vor allem bei Oberflächen, Gesicht und Bewegung.12 Erst seit den 90er Jahren eignete sich die Computertechnik für die 3DAnimation von Hauptfiguren im abendfüllenden Spielfilm. 1995 machte Toy Story als erster vollständig computeranimierter Langfilm mit seinen Spielzeug-Helden Woody und Buzz Furore.13 Der Erfolg von Toy Story begründete ein neues Genre: den computeranimierten Familienfilm, dessen Franchises heute zu den weltweit einträglichsten Medienproduktionen gehören.14 Die Hauptfiguren dieser familienorientierten CGI-Abenteuerkomödien sind nur selten Menschen, sondern meist Fantasiewesen (Shrek (2001), Monsters Inc. (2001)), belebte Maschinen und andere Dinge (Toy Story, Cars (2006), Robots (2005), Wall-E (2008)), am häufigsten aber anthropomorphisierte Tiere ( A Bug’s Life (1998), Antz (1998), Finding Nemo (2003), Ice Age (2002), Madagascar (2005), Ratatouille (2007), Over the Hedge (2006), Rango (2011), siehe Abb. 1). Treten Menschen auf, werden sie im Cartoon-Stil dargestellt wie die Superhelden in The Incredibles (2004), Despicable Me (2010), Up (2009) oder Megamind (2010). Neben solchen stilisierten Cartoon-Figuren kristallisierte sich eine zweite Haupttendenz digitaler Figurengestaltung heraus: der Versuch, fotorealistische Darstellungen zu erschaffen. Zunächst beschränkte sich die12 13

14

Vgl. auch Flückiger: Visual Effects (wie Anm. 5), S. 432-436. Der Kinofilm stand mit dieser Innovation nicht allein: Im selben Jahr, am 29. Oktober 1995, zeigte der Fernsehsender Fox die „Treehouse of Horror IV“-Episode von The Simpsons, die ein computeranimiertes Segment enthielt, in dem Homer die „third dimension“ erkundet. Vgl. Eder: „Spielfiguren“ (wie Anm. 6).

DIGITALE FIGUREN

147

Abb. 2: Gollum aus Der Herr der Ringe: Die zwei Türme (2002)

ser Versuch auf fantastische Nebenfiguren – das Unterwasser-Alien in The Abyss (1989), die Dinosaurier in Jurassic Park (1993) – oder auf Einzelszenen von Hauptfiguren, die ansonsten durch Schauspieler oder Modelle verkörpert wurden wie der Killer-Android in Terminator 2: Judgment Day (1991), die Titelfigur von The Mask (1994) oder Godzilla (1998). Um die Jahrtausendwende gelang es, fotorealistische Hauptfiguren größtenteils im Computer zu bauen. Manche dieser Figuren bewegen sich in gänzlich computeranimierten Welten wie in Final Fantasy (2001), andere sind in die fotografischen Welten des Realfilms integriert, etwa der Mäuseheld Stuart Little (1999) oder Jar Jar Binks in Star Wars: Episode I – Die dunkle Bedrohung (1999). Als bisherige Höhepunkte des digitalen Fotorealismus gelten Gollum in Der Herr der Ringe (2001-2003, siehe Abb. 2)15, der sensible Riesenaffe King Kong (2005, siehe Abb. 3) sowie Neytiri und Jake in Avatar: Aufbruch nach Pandora (2009, siehe die Abbildungen im letzten Teil dieses Beitrags). Seit 2008 wird der technische Reiz der Computeranimation nicht selten durch stereoskopische Aufnahmen erhöht, die einen Eindruck von der Körperplastik, der Position und Bewegung der Figuren im Raum vermitteln sollen. In solchen Fällen handelt es sich um ,3D-Figuren‘ im doppelten Sinne: erstens werden sie mittels dreidimensionaler Computermodelle entwickelt, zweitens durch stereoskopischen 3D-Film räumlich erfahrbar gemacht. Digitale Figuren sind also in zwei verschiedene Filmgattungen eingedrungen (Animationsfilm und Realfilm), verdrängen ,klassisch produzierte‘ Figuren und tragen dazu bei, die Gattungsgrenzen zu verwischen.

15

Vgl. Flückiger: Visual Effects (wie Anm. 5), S. 451-455.

148

JENS EDER, JAN-NOËL THON

Abb. 3: Der sensible Riesenaffe aus King Kong (2005)

Viele Filme lassen sich nicht mehr klar einer der beiden Gattungen zuordnen: Für Sin City (2005) oder 300 (2007) wurden Aufnahmen realer Schauspieler am Computer nachbearbeitet, um den Look der ComicVorlagen zu imitieren. Final Fantasy: The Spirits Within (2001) oder The Polar Express (2004) sind dagegen vollständig computeranimiert, nähern sich aber dem Fotorealismus an. In Avatar: Aufbruch nach Pandora, der fotografische Aufnahmen und Computeranimation kombiniert, schien dieses Ziel erreicht. Dennoch wird der Film in einer Genre-Studie der Filmförderungsanstalt nicht etwa unter ,Science Fiction‘ aufgeführt, sondern unter ,Animation/Zeichentrickfilm‘ (was die Ergebnisse der Studie verzerrt).16 Der historische Abriss zeigt bereits, dass die meisten digitalen Kino-Figuren als fiktive Wesen spektakuläre Merkmale aufweisen, die deutlich von Realitätsvorstellungen abweichen und sich nur schwer ohne Computeranimation darstellen ließen.17 Sie entsprechen häufig Figurentypen der Komödie, des Action- und Abenteuerfilms sowie der fantastischen Genres Fantasy, Horror und Science Fiction, die sich tendenziell an jüngere Zuschauer bzw. an Familien richten. Der Erfolg dieser Genres seit den 80er Jahren – sie dominieren heute die Kino-Charts – hängt vermutlich auch mit dem Schauwert digitaler Genrefiguren zusammen, seien es Außerirdische, Androiden, Fabelwesen, Monster, Dämonen, Superhelden, Zombies, sprechende Tiere oder belebte Dinge. Auch bei menschlichen Cha16 17

Vgl. Britta Nörenberg: Filmgenres 2007-2009. Eine Auswertung zum Genreanagebot in deutschen Kinos und zur Genrevielfalt deutscher Filme. Berlin 2010. Beispielsweise können Masken und Kostüme einen Schauspieler nicht dünner erscheinen lassen; Zeichnungen erreichen kaum den Detailreichtum und die Plastizität von 3D-Computeranimationen.

DIGITALE FIGUREN

149

rakteren dient die Computeranimation entweder der Darstellung des Außergewöhnlichen (z.B. Metamorphosen, Extremsituationen) oder der cartoonesken Überzeichnung. Der Gedanke, digitale Figuren in realistischen Charakterdramen einzusetzen, erscheint demgegenüber (noch) abwegig, da Schauspieler hier billiger und überzeugender sind. Ein wesentliches Potenzial digitaler Figurenkonstruktion besteht also darin, fiktive Wesen – wie im klassischen Animationsfilm – in weitgehend freier, oft fantastischer Weise zu gestalten und sich dabei zugleich – wie beim Realfilm – einem perzeptuellen Realitätseindruck anzunähern. Bei dieser digitalen Modellierung der Imagination werden Merkmale, die als Emotionsauslöser gelten, auf teils subtile, teils auffällige Weise übersteigert: etwa außergewöhnliche Eigenschaften; Körperformen, die niedlich, erotisch oder bedrohlich wirken (Kindchen-, Partner- und Gefahrenschemata); Zeichen physischer oder psychischer Leistungsfähigkeit, sozialer Gruppen und Rollen; körperliche Expressionen von Gefühlen oder Beziehungen (Liebe, Macht) oder physiognomische Anzeichen werthafter Charakterzüge (Humor, Moral).18 Bewegungen und Interaktionen der Figuren können perfekt choreographiert werden: Das betrifft beispielsweise die Ausrichtung ihrer Körper im Raum, ihr rhythmisches Zusammenspiel, die Form und Grazie ihrer Bewegungen oder den äußeren Ausdruck ihres Inneren.19 Kurz: Die digitale Figurengestaltung ermöglicht es, gezielt affektive Reize zu setzen und sie im Vergleich zum Realfilm zu intensivieren, um Staunen, Angst oder Lachen auszulösen. Der Grad der Übersteigerung hängt dabei von der Wahl eines eher fotorealistischen oder eines eher cartoonesken Stils ab. Der mimetische Wunsch, fiktive Fantasiewesen auf glaubhafte, emotional wirkungsvolle Weise darzustellen, ist ein wichtiges Motiv der Verbreitung digitaler Figuren; die komische Überzeichnung ein anderes.20 Im Umkehrschluss wirkt die Sorge, dass reale Schauspieler eines Tages durch digitale Synthespians – also durch computeranimierte Schauspielerdarstellungen – ersetzt würden, unbegründet. Auch wenn die Computeranimation zunehmend alltägliche Motive mit einbeziehen mag21, dürften reale Darsteller angesichts des Aufwandes und der techni-

18 19 20 21

Vgl. Eder: Die Figur im Film (wie Anm. 8), S. 685f. Vgl. zu einigen Aspekten Paul Wells: Understanding Animation. New York 2006, S. 68-126. Vgl. beispielsweise die Produktionsberichte zu Avatar: Aufbruch nach Pandora; etwa Jody Duncan/Lisa Fitzpatrick: The Making of Avatar. New York 2010. Vgl. Kohlmann: Der computeranimierte Spielfilm (wie Anm. 7), S. 248.

150

JENS EDER, JAN-NOËL THON

schen Herausforderungen auf diesem Gebiet sowohl überzeugender als auch ökonomischer bleiben. Betrachtet man digitale Filmfiguren nun als Artefakte, so fragt sich, mit welchen Mitteln sie gestaltet werden und welche ästhetischen Formen sie annehmen. Die Weiterentwicklung der Produktionsverfahren führt hier zu einem ständigen Wandel der Figuren, die zudem durch den Stil ihrer Produktionsfirmen geprägt sind: King Kong stammt von Weta, Woody von Pixar/Disney, Shrek von Dreamworks. Verallgemeinernd kann aber dennoch festgehalten werden, dass sich im Kino vor allem zwei Grundtypen digitaler Figuren etabliert haben, die sich hinsichtlich ihres Darstellungsstils und ihrer Genres unterscheiden: Cartoonfiguren (z.B. Nemo), die in computeranimierten Familien-Abenteuerkomödien verbreitet sind, und fotorealistische Figuren (z.B. Gollum), die sich eher im Actionfilm und den fantastischen Genres finden. Cartoonfiguren agieren meist in gänzlich computeranimierten Umgebungen, die so stilisiert sind wie sie selbst. Fotorealistische Figuren werden dagegen meist in die Umwelt von Realfilmen eingepasst und sind als Bestandteil ,hybrider Bewegungsbilder‘22 einem ständigen Vergleich mit der fotografischen Umwelt ausgesetzt. Das in Produktionsberichten immer wieder hervorgehobene Ziel der ,Glaubwürdigkeit‘ und ,Emotionalität‘ der Figuren wird bei beiden Figurentypen auf entsprechend unterschiedliche Weise angestrebt: Cartoonfiguren werden meist jenseits, fotorealistische Figuren diesseits des Uncanny Valley angesiedelt (jenes unangenehmen Zustandes, in dem Figuren einem Menschen einerseits zu ähnlich, andererseits noch nicht ähnlich genug sind, um sympathisch zu wirken). Cartoonhafte digitale Figuren ähneln dabei eher den Gestalten des klassischen Zeichen- oder Puppentricks: Sie sind stark stilisiert; ihre Merkmalskonstellation wirkt vereinfacht, verallgemeinert, typisiert und (komisch) übersteigert. Filme wie Toy Story, Antz, A Bug’s Life, Ice Age, Madagascar, Finding Nemo, Shrek, Coraline (2009), Flushed Away (2006) oder Up (2009) setzen die Cartoon-Tradition mit Mitteln der Computeranimation fort. Dabei fehlt ihnen allerdings die Materialität des klassischen Animationsfilms – der Strich von Zeichnungen, die Haptik von Knete. Die 3D-Animation ihrer Körper weicht sowohl vom zweidimensionalen Zeichentrick als auch von der fotografischen Plastizität der Puppenanimation ab, zudem können Oberflächen, Strukturen und Bewegungen mit fotorealistischer Detailliertheit gestaltet sein (z.B. in Rango im Unterschied zu The Incredibles). Digitale Figuren teilen jedoch viele Konventionen des klassischen Cartoons. Durch Stilisierung und Übertreibung von 22

Vgl. Richter: Digitaler Realismus (wie Anm. 7), S. 79-82.

DIGITALE FIGUREN

151

Körpermerkmalen und Verhaltensweisen, durch Künstlichkeit und Hyperexpressivität eignen sie sich für diverse Formen der Komik. Als „flexible Figuren“23 widersprechen sie der Welt der Naturgesetze und den Konventionen des Film-Realismus auf komische oder fantastische Weise. Im Gegensatz dazu steht die Gestaltung genuin fotorealistischer Figuren, etwa in Der Herr der Ringe, King Kong oder Avatar: Aufbruch nach Pandora, die am Vorbild der schauspielerischen Darstellung des Realfilms orientiert sind und deren Funktion in einer illusionistischen Mimesis besteht. Verschiedene Realismusbegriffe lassen sich auf diese Figuren anwenden: Sie sind perzeptuell realistisch, wenn sie einer potenziellen Realitätswahrnehmung entsprechen.24 Sie sind fotorealistisch, wenn sie fotografischen Aufnahmen entsprechen – wenn sie aussehen wie gefilmt und ihre digitalen Bilder die fotografische Bildästhetik nachahmen (z.B. Unschärfen). Und sie sind hyperrealistisch, wenn manche ihrer Eigenschaften (z.B. Muskulosität) zum Zweck der Reizverstärkung mehr oder weniger subtil überdeterminiert werden. Menschenähnliche Figuren bilden dabei die größte Herausforderung der fotorealistischen Animation: Sie müssen einer besonders hohen Sensibilität der Zuschauer für Nuancen äußerer Formen und Bewegungen gerecht werden, und ihr Verhalten muss plausibel auf innere Beweggründe zurückzuführen sein. Die Schwierigkeiten der Gestaltung sind vielfältig: Sie betreffen Haut, Haare, Augen, Mimik, die Geschmeidigkeit von Bewegungen und die Stimmigkeit all dieser Bereiche sowie der Umweltrelationen der Figur. Im US-Kino wurden hohe Grade eines solchen Fotorealismus erreicht (Gollum, King Kong, die Na’vi), im europäischen Film und Fernsehen bislang nur selten.25 Die Gegenüberstellung zwischen cartoonesken und fotorealistischen Figuren ist natürlich eine vereinfachende Zuspitzung. Es existieren vielfältige Zwischenformen hinsichtlich Detailreichtum, Komplexität, Individualisierung, Stilisierung und Realitätsnähe der Figuren. Der (hybride) CGI-Film vereint ästhetische Merkmale des Zeichentricks, des Puppen23 24

25

Jan Siebert: Flexible Figuren. Medienreflexive Komik im Zeichentrickfilm. Bíelefeld 2005. Zum perzeptuellen Realismus vgl. Stephen Prince: „True Lies: Perceptual Realism, Digital Images and Film Theory“. In: Film Quarterly 49,3 (1996), S. 27-37; zum Hyperrealismus in der Animation vgl. Wells: Understanding Animation (wie Anm. 19), S. 27. Europäische CGI-Filme beschränken sich meist auf den Cartoon-Stil (etwa Back to Gaya von 2004) und selbst die Darstellung nichtmenschlicher Figuren wirkt häufig misslungen (etwa Das Biest im Bodensee von 1998, auf dessen Problematik uns Joan Kristin Bleicher hingewiesen hat).

152

JENS EDER, JAN-NOËL THON

tricks und des Realfilms in sich und ahmt dabei nicht nur die Realität nach, sondern auch die Darstellungskonventionen dieser drei Filmgattungen.26 Zudem sind digitalen Figuren bestimmte ästhetische Merkmale gemeinsam: Ihre Darstellung mittels Pixelbildern und die Orientierung ihrer 3D-Modelle an geometrischen Formen verleiht ihnen im Vergleich zum fotografischen Korn meist eine größere Härte, Kälte und Klarheit: Sie tendieren dazu, perfekt, aber auch steril zu wirken. Der arbeitsteilige, komplexe Prozess ihrer Herstellung führt zudem zu einem Verlust an spontaner Improvisation: Digitale Figuren sind meist durchkonstruierte und durchkontrollierte Figuren, wobei ihre manchmal befremdliche Artifizialität eng mit ihrer technischen Spektakularität zusammenhängt. Die genannten Merkmale digitaler Figuren als fiktive Wesen und Artefakte – ihre Typisierung und Merkmalsübersteigerung, ihre ästhetische Verdichtung, Verdeutlichung und Vereinfachung, ihre Künstlichkeit und Hyperexpressivität, ihre Orientierung an werthaften Genretypen und realen Vorbildern – all diese Merkmale tragen dazu bei, dass sie oft explizit als Symbole für etwas Anderes stehen und zur Vermittlung übergeordneter Bedeutungen beitragen. Im Vergleich zum Realfilm steht der Computeranimation – wie dem Animationsfilm allgemein – eine Fülle von Mitteln zur Verfügung, um solche indirekten Bedeutungen stärker hervorzuheben: Physiognomisch ,typische‘ Eigenschaften werden betont, äußere Metamorphosen dienen als Zeichen inneren Wandels, Figuren werden Teil metaphorisch aufgeladener Bildkompositionen und ikonographischer Verweise.27 Vor allem Cartoonfiguren aus CGI-Familienfilmen, etwa Rango oder Shrek, tragen oft didaktische Botschaften und stecken voller intertextueller Anspielungen; sie sind mehrfachcodiert, weil sie sowohl kindliche Zuschauer als auch ihre Eltern ansprechen sollen. Die digitale Produktion erleichtert es also, Figuren übergeordnete Bedeutungen explizit zuzuweisen. Nicht nur dadurch werden digitale Figuren oft als interessante, auffällige Symptome für die kommunikativen Kontexte ihrer Entstehung und Nutzung wahrgenommen. So ist einem großen Teil des Publikums (Kleinkinder ausgenommen) in der Regel bekannt, dass die Figuren durch aufwändige Computeranimation erschaffen wurden – ihre technische Spektakularität ist ein zusätzliches Erlebnisangebot.28 Zugleich können Figuren, die Teil transmedialer Franchises sind, als zirkulierende Waren oder Markensignets aufgefasst werden – 26 27 28

Vgl. Kohlmann: Der computeranimierte Spielfilm (wie Anm. 7), S. 238 sowie 249ff. Vgl. Wells: Understanding Animation (wie Anm. 19), S. 68-126. Vgl. Dan North: Performing Illusions. Cinema, Special Effects and the Virtual Actor. London 2008.

DIGITALE FIGUREN

153

auch die kommerziellen Hintergründe sind den meisten Zuschauern durchaus bewusst. Aus produktionsbezogener Sicht lassen digitale Figuren künstlerische wie ökonomische Absichten der Filmemacher, den Stand der Computertechnik und weitere Produktionsbedingungen erkennen. Dabei fällt, unter anderem, auf, dass digitale Figuren – vor allem aufgrund der Bündelung finanzieller und kreativer Ressourcen – bisher deutlich durch die angloamerikanische Kultur geprägt sind. In vielen Figuren werden Wünsche und Ängste der spätkapitalistischen Leistungsgesellschaft, aber auch Formen der Nostalgie, des Anthropomorphismus und Animismus sichtbar, die einer ausführlicheren Untersuchung bedürften. Andere Konzeptionen und ästhetische Formen der Figur kommen dagegen im Mainstream-Kino äußerst selten vor. Figuren, bei denen dekonstruktiv-kritische Selbstreflexivität oder formale Expressivität, Abstraktion oder Innovation im Vordergrund stehen29 – wie bei Foldès ersten digitalen Wesen – finden sich überwiegend im Feld des Experimentalfilms und in den zahllosen Kurzfilm-Formen und -Foren im Internet. Zusammengefasst lässt sich festhalten, dass die meisten digitalen Kinofiguren heutzutage sehr aufwändig, oft spektakulär gestaltet sind. Die finanziellen, technischen und kreativen Mittel dafür bringen nur wenige Großproduktionen auf, die unter kommerziellem Erfolgsdruck stehen. Es überrascht daher kaum, dass das Angebot digitaler Kinofiguren in inhaltlicher und ästhetischer Hinsicht eng umrissen ist. Die meisten von ihnen entsprechen einem von nur zwei Grundtypen: entweder den komisch überzeichneten Cartoonfiguren des computeranimierten Familienfilms oder den fotorealistischen Kreaturen der Action und Fantastik. Zudem orientieren sie sich meist an spezifischeren Typen dieser Genres (z.B. dem Typ des Vampirs oder des niedlichen Tiers) und an dramaturgischen Konventionen des Mainstreams, wie die Analyse von Avatar: Aufbruch nach Pandora im Detail zeigen wird.

Digitale Figuren im Computerspiel Anders als Figuren im Film waren Figuren im Computerspiel, bedingt durch dessen Medialität, immer schon digitale Figuren. Entsprechend groß ist die Bandbreite an Formen und Funktionen digitaler Figuren in der Entwicklungsgeschichte dieses Mediums, die von frühen Arcade-Spielen wie Pac-Man (1981) oder Donkey Kong (1981) bis zu aktuellen Großproduktionen wie Heavy Rain (2010) oder L.A. Noir (2011) reicht. Spätestens seit 29

Vgl. Wells: Understanding Animation (wie Anm. 19), S. 67-71.

154

JENS EDER, JAN-NOËL THON

The Empire Strikes Back (1982) umfasst diese Geschichte immer wieder auch Adaptionen der Figuren, Stoffe und Welten erfolgreicher Kino-Franchises wie Der Herr der Ringe, Shrek oder eben Star Wars; umgekehrt werden – nach wenig erfolgreichen frühen Versuchen wie Super Mario Bros. (1993) oder Street Fighter (1994) – spätestens seit dem kommerziellen Erfolg von Lara Croft (2001) zunehmend auch Computerspiele verfilmt, wobei ihre Figuren den medialen Bedingungen des Kinofilms angepasst werden müssen. Eine zentrale Voraussetzung für diese Mehrfachverwertung fiktionalen ‚Contents‘ ist die unterschiedliche Medialität von Film und Computerspiel, die den Mediennutzern komplementäre Erfahrungen und Gratifikationen verspricht. Der wesentliche Unterschied zwischen Kinofilm und Computerspiel besteht dabei darin, dass letzteres eben kein ,interaktiver Film‘, sondern vor allem ein Spiel ist. Dementsprechend sind digitale Figuren in Computerspielen primär auf spielerische Interaktion ausgerichtet, d.h. es handelt sich bei ihnen zwar auch um fiktive Wesen, vor allem aber um Spielfiguren mit bestimmten ludischen Funktionen: Sie sind Stellvertreter der Spielerin innerhalb der fiktiven Welt, Gegner mit verschiedenen Stärken und Schwächen oder Verbündete mit unterschiedlichen hilfreichen Fähigkeiten. Desweiteren ist zwischen Spieler-gesteuerten und Computer-gesteuerten Figuren zu unterscheiden, die mit unterschiedlichen Formen der Darstellung, der Interaktion und der (auch affektiven) Reaktion verbunden sind. Diese Tatsachen mögen zunächst trivial erscheinen; sie bilden aber die Grundlage dafür, dass Filmfiguren und Computerspielfiguren den Mediennutzern ganz unterschiedliche Formen ästhetischer Erfahrung und affektiver Gratifikation ermöglichen. Filmfiguren schauen wir beim Handeln zu, ohne eingreifen zu können. Sie rufen vor allem sogenannte ‚Beobachter-Emotionen‘ hervor (Witness Emotions nach Tan).30 Dazu gehören Gefühle der (oft unmittelbar körperlichen) Empathie; der wertenden Sympathie oder Antipathie; der emotionalen Erinnerung; des ParteiErgreifens in Situationen der Bedrohung oder des Triumphs; Gefühle des Amüsements, des Mitleids, Begehrens oder Bewunderns. Darüber hinaus lösen Filmfiguren als Artefakte, Symbole und Symptome vielfältige weitere Emotionen aus, etwa ästhetische Faszination, moralische Entrüstung, lustvolle Erkenntnis usw. Computerspielfiguren dagegen ermöglichen – als Spieler-gesteuerte Figuren – vor allem identifikatorische Gefühle, die 30

Vgl. Ed S. Tan: Emotion and the Structure of Narrative Film. Mahwah/NJ 1996. Zu den folgenden Spielarten figurenbezogener Gefühle vgl. auch Eder: Die Figur im Film (wie Anm. 8), Kap. 13.

DIGITALE FIGUREN

155

mit aktivem Handeln, selbsttätigem Problemlösen oder dem Kämpfen in einer virtuellen Welt verknüpft sind. Als Spieler übernehmen wir in für das Spielgeschehen entscheidenden Hinsichten ihre Ziele, ihre Perspektive, und reagieren – meist unter Zeitdruck – mit entsprechenden Gefühlen in Bezug auf ihre Gegner und Verbündeten. Durch die Verlagerung der Aufmerksamkeit auf das Spielgeschehen schwindet – im Vergleich zum Kino – während des Spiels die Bedeutung von Gefühlen, die Figuren als Artefakte, Symbole und Symptome auslösen.31 Die interaktive Figurengestaltung im Computerspiel bringt zudem die Notwendigkeit mit sich, bildbasierte Figurendarstellungen ,in Echtzeit‘32 zu berechnen. Grundsätzlich lässt sich dabei zwischen zwei Modi der Figurendarstellung unterscheiden33: Darstellungen im Modus der Simulation entstehen während des Spielens, aus der Interaktion mit dem Spiel. Die Spielerin bewegt die Figur und reagiert auf andere, vom Computer gesteuerte Figuren, die wiederum auf das Verhalten der von der Spielerin gesteuerten Figur reagieren. Der Detailgrad der Darstellung – besonders von Gesichtsausdrücken – ist dabei im Rahmen von Echtzeit-Grafikengines oft stark eingeschränkt.34 Darstellungen im Modus der Narration sind dagegen, etwa in Form prägerenderter Cut-Scenes, bereits vor Spielbe31

32

33

34

Für eine konzise Auseinandersetzung mit ,ludischen Emotionen‘ vgl. etwa Jonathan Frome: „Representation, Reality, and Emotions Across Media“. In: Film Studies 8 (2006), S. 12-25. Vgl. auch Christoph Klimmt: Computerspielen als Handlung. Dimensionen und Determinanten des Erlebens interaktiver Unterhaltungsangebote. Köln 2006 zu Formen des Selbstwirksamkeitserlebens; sowie Jan-Noël Thon: „Immersion Revisited. On the Value of a Contested Concept“. In: Amyris Fernandez/Olli Leino/ Hanna Wirman (Hrsg.): Extending Experiences. Structure, Analysis and Design of Computer Game Player Experience. Rovaniemi 2008, S. 29-43 zu durch das Computerspiel ermöglichten Rezeptionsmodi, Spielarten von Immersion und Prozessen der Aufmerksamkeitsverlagerung. Vgl. zu den technischen Grundlagen der Berechnung von Bildern ,in Echtzeit‘ beispielsweise Tomas Akenine-Möller/Eric Haines/Naty Hoffman: Real-Time Rendering. 3rd Edition. Natick/MA 2008 sowie die Internet-Seite http://www.realtimerendering.com/ (Letzter Zugriff: 01.03.2011). Zu dieser Unterscheidung vgl. ausführlicher Gonzalo Frasca: „Simulation versus Narrative. Introduction to Ludology“. In: Mark J. P. Wolf/Bernard Perron (Hrsg.): The Video Game Theory Reader. London 2003, S. 221-235; Marie-Laure Ryan: Avatars of Story. Minneapolis, MN [u. a.] 2006, S. 181-203; sowie Jan-Noël Thon: „Unendliche Weiten? Schauplätze, fiktionale Welten und soziale Räume heutiger Computerspiele“. In: Klaus Bartels/Ders. (Hrsg.): Computer/Spiel/Räume. Materialien zur Einführung in die Computer Game Studies. Hamburg 2007, S. 29-60. „Facial animation shares the same limitations within a game engine as the body motion. Historically, face animation […] has been the area least developed for digital characters in games.“ (O’Neill: Digital Character Development (wie Anm. 7), S. 180)

156

JENS EDER, JAN-NOËL THON

ginn im Programmcode festgelegt. Die Darstellungsoptionen sind hier deutlich umfangreicher. Am häufigsten finden sich ,nicht-interaktive‘ Elemente in Form kurzer Filmsequenzen, doch können sich Cut-Scenes ganz unterschiedlicher semiotischer Systeme und Darstellungsstrategien bedienen.35 Zudem haben sich Cut-Scenes und simuliertes Spielgeschehen in den letzten Jahren einander angenähert, wobei nicht nur neuere ,Echtzeit-Grafikengines‘ detailliertere Darstellungen erlauben, sondern auch Cut-Scenes immer öfter der ,Echtzeit‘-Darstellung angepasst werden. Im engeren Sinne narrative Elemente erscheinen Spielern freilich in der Regel ohnehin weniger zentral als Elemente des interaktiven Spielgeschehens36, und Computerspielfiguren werden analog dazu meist nicht primär als fiktive Wesen mit bestimmten körperlichen, psychischen oder sozialen Eigenschaften, sondern in erster Linie eben als Spielfiguren wahrgenommen. Während die Computerspielfigur als fiktives Wesen, ähnlich wie Filmfiguren, durch eine bestimmte Körperlichkeit, Psyche und Sozialität charakterisiert ist, zeichnet sie sich als Spielfigur durch ludische Eigenschaften, etwa Spielziele, Interaktionsmöglichkeiten oder spielmechanische Fähigkeiten aus. Darüber hinaus fungieren Spieler-gesteuerte Figuren in Multiplayerspielen als Repräsentationen der Spieler im sozialen Raum des Spiels, wobei dieser Aspekt der Computerspielfigur vor allem mit unterschiedlichen Formen der Kommunikation zwischen Spielern verbunden ist.37

35

36 37

Da neuere Computerspiele technisch in der Lage sind, viele andere Medien digital zu reproduzieren, werden auch zahlreiche verschiedene Formen der Cut-Scene verwendet, etwa die monochromen Standbilder im Rollenspiel Neverwinter Nights (2002), die Comicsequenzen im Third-Person-Shooter Max Payne (2001) oder die ,multimedialen Tagebücher‘ von Captain Gabriel Angelos aus dem Echtzeitstrategiespiel Warhammer 40.000: Dawn of War (2004). Vgl. dazu ausführlicher JanNoël Thon: „Zu Formen und Funktionen narrativer Elemente in neueren Computerspielen“. In: Jürgen Sorg/Jochen Venus (Hrsg.): Erzählformen im Computerspiel. Zur Medienmorphologie digitaler Spiele. Bielefeld (im Druck). Vgl. auch Ryan: Avatars of Story (wie Anm. 33), S. 196; Thon: „Immersion“ (wie Anm. 31). Vgl. hierzu im Detail Felix Schröter: Entwicklung eines nutzerorientierten Analysemodells für Computerspielfiguren. Hamburg 2010 [M.A. Arbeit] und Felix Schröter/ Jan-Noël Thon: „Simulierte Spielfiguren und/oder/als Menschenbilder. Zur Medialität von Figurendarstellungen am Beispiel der Computerspielfigur“. Erscheint in: Jens Eder/Joseph Imorde/Maike Reinerth (Hrsg.): Medium Menschenbild (in Vorbereitung). Vgl. auch Jürgen Sorg, „Figurenkonzepte im Computerspiel“. In: Leschke/Heidbrink, Formen der Figur (wie Anm. 1), S. 341-371.

DIGITALE FIGUREN

157

So werden die Spieler-gesteuerten Figuren im Massive Multiplayer Online Role-Playing Game World of Warcraft (2004ff.) vor allem durch einleitende Cut-Scenes und zahlreiche Questdialoge als fiktive Wesen dargestellt. Ihre Körperlichkeit, Psyche und Sozialität steht aber im Zusammenhang mit – und im Dienst von – ihren ludischen Fähigkeiten: Sie können etwa besonders gut heilen, kämpfen oder im Kampf überleben, weisen spielrelevante ,Attribute‘ wie ,Stärke‘ oder ,Intelligenz‘ auf, und ihre Zugehörigkeit zum Lager der ,Allianz‘ oder der ,Horde‘ bestimmt nicht nur ihre Weltsicht als fiktive Wesen, sondern auch die jeweiligen Spielziele. Auf ,Rollenspiel-Servern‘ verwenden die Spieler zudem den Textchat von World of Warcraft und verschiedene Formen vorgegebener Emotes, um in als ,Rollenspiel‘ markierten Situationen selbst zur Ausgestaltung ihrer Figur beizutragen. Die Ziele und Fähigkeiten, die eine Figur im Rahmen der ludischen Struktur eines Computerspiels zugewiesen bekommt, und die Handlungen, die sie ausführt, werden also größtenteils zugleich als Ziele, Fähigkeiten und Handlungen dieser Figur innerhalb einer fiktiven Welt wahrgenommen. Die narrative Rahmung des Spielgeschehens und die Gestaltung von Computerspielfiguren als fiktive Wesen vermitteln folglich Informationen über die Spielmechanik und die Spielziele. Besonders hervorzuheben ist hier das häufig zu beobachtende Zusammenfallen der ,ideologischen Perspektive‘ – im Sinne verfestigter Vorstellungen über die Welt, eines Systems von Normen und Werten, einer Weltanschauung – der Spieler-gesteuerten Figur mit den von der Spielerin zu erreichenden Spielzielen.38 Dies erleichtert letzterer die Orientierung innerhalb der Struktur des Spiels und wird nicht selten durch explizite Handlungsaufforderungen mit doppelter Adressierung an Spielerin und Spielfigur verstärkt. Wenn etwa Captain Foley im First-Person Shooter Call of Duty (2003) nach einem Absprung über feindlichem Gebiet dem durch die Spielerin gesteuerten Private Martin einen direkten Befehl erteilt („Martin, Sie gehen vor und erledigen das 42er MG“), so weiß eben auch die Spielerin, dass es sich beim Ausschalten des MGs um das nächste zu erreichende Spielziel handelt. Eine wichtige Rolle spielen hier auch Gruppenzugehörigkeiten der Spieler-gesteuerten Figur, insofern die Spielerin sich in der Regel nicht nur an individuellen Zielen, sondern auch an kollektiven

38

Vgl. zur ideologischen Perspektivstruktur in Computerspielen auch Jan-Noël Thon: „Perspective in Contemporary Computer Games“. In Peter Hühn/Wolf Schmid/Jörg Schönert (Hrsg.): Point of View, Perspective, and Focalization. Modeling Mediation in Narration. Berlin 2009, S. 279-299.

158

JENS EDER, JAN-NOËL THON

Normen und Werten der jeweiligen Gruppe orientieren kann (siehe etwa die bereits skizzierten Aspekte von World of Warcraft). Die ludischen Funktionen der Spielfigur können allerdings auch zu Diskrepanzen bei der Charakterisierung der fiktiven Wesen führen – beispielsweise, wenn einer Figur innerhalb einer Cut-Scene bestimmte Eigenschaften zugeschrieben werden, die sie dann im simulierten Spielgeschehen nicht aufweist.39 So sind etwa Prinz Arthas aus Warcraft III (2002) oder Jack Carver aus Far Cry (2004) in Cut-Scenes und geskripteten Dialogsequenzen durchaus verhältnismäßig gesprächig, im simulierten Spielgeschehen aber auffällig wortkarg. Da für die Mehrzahl der Computerspieler die ludischen Funktionen Priorität vor den narrativen Funktionen der Figuren haben dürften, stellen solche Inkonsistenzen in den meisten Fällen freilich kein allzu großes Rezeptionsproblem dar, sondern werden als unbeabsichtigtes Nebenprodukt des Computerspiel-Designs ignoriert.40 Vor dem Hintergrund dieser medienspezifischen Besonderheiten hat sich ein breites Spektrum von Formen und Typen digitaler Figuren im Computerspiel entwickelt. Die Figurentypen sind dabei nicht zuletzt durch Genre und Setting der Spiele bestimmt: So verfügen etwa die Spieler-gesteuerten Figuren im Genre des First-Person Shooter typischerweise über außergewöhnliche körperliche und militärische Fähigkeiten, die es ihnen ermöglichen, sich allein gegen eine deutliche Übermacht von Gegnern zu bewähren.41 Über diesen durch die ludische Struktur definierten Rahmen hinaus bestimmt vor allem das Setting die Ausgestaltung der Figur: So spielt etwa die Call of Duty-Reihe (2003ff.) während des Zweiten Weltkriegs, die Heretic/Hexen-Reihe (1994) verwendet ein Fantasy-Setting, die Halo-Reihe (2001ff.) ein Science-Fiction-Setting, die Resident Evil-Reihe (1996ff.) darf als Inbegriff des Survival Horror gelten, und Spiele wie Gun (2005) oder Red Dead Redemption (2010) beziehen sich 39

40

41

Vgl. allgemeiner zu derartigen Diskrepanzen zwischen ,Spiel‘ und ,Fiktion‘ insbesondere Jesper Juul: Half-Real. Video Games between Real Rules and Fictional Worlds. Cambridge/MA 2005. Es handelt sich hierbei um eine medienspezifische Ausprägung des von Kendall L. Walton für ganz verschiedene Repräsentationsformen identifizierten „Principle of Charity“ (Mimesis as Make-Believe. On the Foundations of the Representational Arts. Cambridge, MA 1990, S. 183). Vgl. exemplarisch zum First-Person Shooter Matthias Bopp/Rolf F. Nohr/Serjoscha Wiemer (Hrsg.): Shooter. Eine multidisziplinäre Einführung. Münster 2009. Für einen konzisen Überblick über die Genre-Entwicklung vgl. Simon Egenfeldt-Nielson/Jonas Heide Smith/Susana Pajares Tosca: Understanding Video Games. The Essential Introduction. New York 2008, S. 45-96.

DIGITALE FIGUREN

159

auf Genrekonventionen des Western. Während Computerspielgenres also in erster Linie über ludische Strukturen definiert sind, führt die Wahl des Settings nicht selten zu einer Orientierung an Figurentypen filmischer Genres, etwa ‚typischen‘ Soldaten, Magiern, Aliens, Zombies oder Revolverhelden. Allerdings finden sich im Computerspiel – deutlich öfter als im Kinofilm – auch andere Genres und Figuren; so hat man es in Simulationen wie The Sims (2000), The Movies (2005) oder Heavy Rain (2010) – wenn auch aus unterschiedlichen Gründen – eher mit ‚Normalmenschen‘ zu tun. Spätestens ab der Jahrtausendwende ist darüber hinaus eine zunehmende Hybridisierung bis dato etablierter Computerspielgenres und eine Tendenz zur selbstreflexiven Parodie von stereotypen Konventionen unterschiedlicher Genres und Settings zu beobachten.42 Die Körperlichkeit, Psyche und Sozialität von Computerspielfiguren – als fiktiven Wesen – unterscheidet sich in mehrfacher Hinsicht strukturell von der Körperlichkeit, Psyche und Sozialität von Kinofiguren. Filmfiguren zeigen beispielsweise ein breites Spektrum von Bewegungsformen und -nuancen, Computerspielfiguren sind dagegen oft auf ein enger begrenztes Spektrum von Bewegungsabläufen festgelegt, die sich während des Spiels mit großer Ähnlichkeit wiederholen (das zeigen bereits Genrebezeichnungen wie ,Jump ’n’ Run‘). Die Psyche und Sozialität der Figuren betreffend, haben Filme eher die Möglichkeit, komplexe soziale Situationen zu entwickeln, die den Zuschauern allmähliches Fremdverstehen und partielle, wechselnde Perspektivenübernahmen abverlangen. Sowohl im Kino als auch im Computerspiel unterstützt die digitale Produktion der Figuren dabei eine ästhetische Steigerung ihres Aktionismus und begünstigt die Gestaltung ,hyperkinetischer‘43 Figuren. Zwar werden bereits die Protagonisten des Mainstreamkinos – im Gegensatz zu jenen des Arthouse-Films – vor allem durch ihre klaren Ziele und das Ausagieren offener Konflikte definiert. Für Computerspielfiguren gilt dies aber in noch weitaus höherem Maße: Ihre überwiegende Mehrzahl befindet sich fast

42

43

Vgl. etwa die zunehmend komplexere Kombination von Elementen des Rollenspiels mit Elementen des First-Person Shooters in Spielen wie Deus Ex (2001), Fallout 3 (2008) oder der Mass Effect-Reihe (2007ff.), die Konventionen der Figurengestaltung im First-Person Shooter deutlich übertreibenden Hauptfiguren aus Duke Nukem 3D (1996) oder der Serious Sam-Reihe (2001ff.) sowie die das für Rollenspiele typische Fantasy-Setting parodierenden Figuren aus der Overlord-(2007ff.), der DeathSpank- (2010f.) oder der Grotesque Tactics-Reihe (2010f.). Vgl. Randi Gunzenhäuser: „Hyperkinetic Images: Hollywood and Computer Games“. In: Christian W. Thomsen/Angela Krewani (Hrsg.): Hollywood. Recent Developments. Stuttgart 2005, S. 135-143.

160

JENS EDER, JAN-NOËL THON

unablässig in kompetitiver, meist kämpferischer Aktion, die durch klare Spielziele und definierte Strategien bestimmt ist. Der zentrale Unterschied zwischen digitalen Figuren in Computerspielen und im Film – die Interaktivität – führt also zu neuen Formen von Figuren und neuen Dimensionen des Figurenerlebens, schränkte aber in der Entwicklungsgeschichte der Spiele auch die Möglichkeiten der (audio-) visuellen Figurendarstellung ein. Dies hat unter anderem zu einer Tradition abstrahierter oder stilisierter Figuren (als Artefakte) geführt. So ist die stark vereinfachte Gestaltung der Figuren im ,goldenen Zeitalter‘ der Arcade-Spiele (also der späten 70er und frühen 80er Jahre) keineswegs als freie Design-Entscheidung zu verstehen, sondern vor allem durch die Notwendigkeit bedingt, die Darstellung von Figuren ,in Echtzeit‘ berechnen zu können. Frühe Beispiele einflussreicher Computerspielfiguren wären etwa der an einen Eishockey-Puck44 erinnernde Titelheld in Pac-Man, der Fässer werfende Menschenaffe in Donkey Kong, das noch heute allgegenwärtige Brüderpaar Mario und Luigi aus der Mario Bros.-Reihe (1983ff.), der Prince of Persia (1989ff.) oder der anthropomorphe Igel Sonic the Hedgehog (1991). Das Prinzip der ,Stilisierung‘ gilt darüber hinaus nicht nur in den heute noch für ihre ,cartoonesken‘ Figurendarstellungen bekannten Genres des Jump ’n’ Runs und des Grafik Adventures45, sondern auch in anderen, prinzipiell stärker an einer ,fotorealistischen‘ Figurendarstellungen interessierten Genres wie dem First-Person Shooter, dem Action-Adventure oder dem Rollenspiel. Sieht man sich etwa die Entwicklung des First-Person Shooter genauer an, so findet sich neben 44

45

Der Titel des ursprünglich 1980 in Japan als Puck Man veröffentlichten Klassikers wurde für die Veröffentlichung in den USA in Pac-Man geändert, um den Spielern die Möglichkeit zu nehmen, die Aufschrift „Puck Man“ in „Fuck Man“ zu ändern. Vgl. Steven L. Kent: The Ultimate History of Video Games. New York 2001, S. 142. Mit Blick auf das Genre des Jump ’n’ Run wären, neben Donkey Kong, der Mario Bros.-, der Sonic the Hedgehog- und der Prince of Persia-Reihe, etwa Pitfall! (1982), die Mega Man-Reihe (1987ff.) oder die Rayman-Reihe (1996ff.) sowie zahlreiche weitere Spiele durchaus auch neueren Datums zu nennen. Erwähnenswerte Beispiele für aktuelle Jump ’n’ Runs mit eher unkonventionellen Formen stilisierter Ästhetik wären etwa Little Big Planet (2008) oder Kirby’s Epic Yarn (2010). Mit Blick auf das Genre des Grafik Adventures wären, stellvertretend für viele andere, die King’s Quest-Reihe (1984ff.), die Leisure Suit Larry-Reihe (1987ff ), Maniac Mansion (1987) und Day of the Tentacle (1993), die Monkey Island-Reihe (1990ff.) sowie die gerade recht erfolgreich neu aufgelegte Sam & Max-Reihe (1993ff.) zu nennen. An dieser Stelle sei zudem auf den wachsenden Markt für sogenannte Casual Games verwiesen, die sich der Fotorealismus-Logik etablierter Genres meist ebenfalls von vornherein entziehen. Vgl. hierzu insbesondere Jesper Juul: A Casual Revolution. Reinventing Video Games and Their Players. Cambridge/MA 2009.

DIGITALE FIGUREN

161

Abb. 4: Portrait des Namenlosen Marine mit nahem Gegner aus Doom (1993)

deutlich cartoonesken (und in ihrer Hypermaskulinität ironisch gebrochenen) Figuren wie Duke Nukem oder Serious Sam auch eine Reihe von auf andere Weise ,stilisierten‘ Figuren wie der Namenlose Marine aus der Doom-Reihe (1993ff.). Dessen Gestaltung ist nicht bewusst ,cartoonesk‘, sondern aufgrund technischer Beschränkungen vereinfacht, obwohl die Game Designer wohl fraglos eine möglichst ,fotorealistische‘ Darstellung angestrebt haben. Dies wird an einem Vergleich zwischen Doom (1993) oder Doom 2: Hell on Earth (1994) mit dem signifikant später erschienenen Doom 3 (2004) deutlich: Während sich die Darstellung des Marines in den ersten beiden Teilen im Wesentlichen auf ein deutlich ,stilisiertes‘ Portrait als Teil der grafischen Benutzeroberfläche beschränkt, geht die Figurendarstellung gerade in den Cut-Scenes von Doom 3 sehr viel stärker in Richtung ,Fotorealismus‘ (siehe Abb. 4 und Abb. 5).46 Sowohl in First-Person Shooter-Reihen wie Wolfenstein (1992ff ), Doom (1993ff.), Half-Life (1998ff ) oder Far Cry/Crysis (2004ff.), als auch in Action-Adventure-Reihen wie Tomb Raider (1996ff.), Grand Theft Auto

46

Das Review von Doom 3 auf IGN darf dabei als durchaus typische Reaktion gesehen werden: „DOOM 3 is a great game. Not necessarily for the gameplay aspects, but for the fact that my eyes and ears never went a moment without being completely entertained. […] Visually, it has no peer at the moment.“ (http://uk.pc.ign. com/articles/536/536387p1.html; Letzter Zugriff: 01.03.2011)

162

JENS EDER, JAN-NOËL THON

Abb. 5: Cut-Scene mit dem Namenlosen Marine und Dr. Ishii aus Doom 3 (2004)

(1998ff ) und Max Payne (2001ff.),47 Rollenspiel-Reihen wie The Elder Scrolls (1994ff.), Baldur’s Gate/Neverwinter Nights (1998ff.) oder Dungeon Siege (2002) und verschiedenen anderen Genres lässt sich also durchaus eine Entwicklung hin zu ,realistischer‘ dargestellten Figuren feststellen, die mit der rasanten Verbesserung der technischen Möglichkeiten zum aufwendigen ,Echtzeit-Rendering‘ zusammen hängt. Allerdings kann sich der Grad des Realismus auch hier kaum mit der Figurengestaltung im heutigen Kinofilm messen (für einen direkten Vergleich bietet sich etwa die ansonsten wenig überzeugende Verfilmung der Doom-Spielereihe von 2005 an, siehe Abb. 6).48

47

48

Die Übergänge zwischen Action-Adventure und Third-Person Shooter sind hier fließend, wie überhaupt spätestens seit der Jahrtausendwende eine zunehmende Hybridisierung von in den 1980er und 1990er Jahren etablierten Computerspielgenres zu beobachten ist (vgl. auch Anm. 42). Auch in typischerweise an einer ,fotorealistischen‘ Darstellung interessierten Genres finden sich Vertreter, die sich dieser Logik zu Gunsten unterschiedlicher Formen der ästhetischen ,Stilisierung‘ verweigern. Beispiele hierfür wären etwa der First-Person Shooter XIII (2003), das Rollenspiel Paper Mario: Die Legende vom Äonentor (2004), oder das Action-Adventure Okami (2006).

DIGITALE FIGUREN

163

Abb. 6: Kettensäge und digitale Mutation aus Doom (2005)

Wie im Film ist aber auch im Computerspiel sowohl die Unterscheidung zwischen ,stilisierten‘ und ,fotorealistischen‘ als auch jene zwischen ,digitalen‘ und ,nicht-digitalen‘ Figuren grundsätzlich gradueller Art. Die erste Unterscheidung zielt eher auf die Rezeption von Figurendarstellungen – wenn etwa die ,realistische‘ Lichtquellenberechnung in Doom 3 zu ,realistisch wirkenden‘ Figurendarstellungen führen soll oder Cell-Shading-Technologie eingesetzt wird, um die computeranimierten Figuren im The Simpsons Game (2007) nicht typisch computeranimiert wirken zu lassen. Bei der zweiten Differenz geht es vor allem um die Frage, wie Figurendarstellungen hergestellt wurden. Ihre Produktion ist auch im Computerspiel nicht unbedingt rein ,digital‘, wie die zunehmende Verbreitung von Voice-Acting und Motion Capture-Verfahren beweist. Schon in Computerspielen wie Wing Commander III: Heart of the Tiger (1994) finden sich nachträglich digitalisierte Filmsequenzen, in denen Figuren zunächst durch ,reale‘ Schauspieler dargestellt wurden. Zudem lassen sich hier Konvergenzen der Medien Film und Computerspiel beobachten. So werden digitale Figuren in Computerspielen zunehmend von Kinostars gesprochen – z.B. Samuel L. Jackson als Officer Tenpenny in Grand Theft Auto: San Andreas (2004) oder Kiefer Sutherland als Sgt. Roebuck in Call of Duty: World at War (2008) – und als Teil umfassender TransmediaFranchises konzipierte Computerspiele wie Enter the Matrix (2003), Der Herr der Ringe Online: Die Schatten von Angmar (2007), oder Star Wars: The Force Unleashed (2008) verwenden Filmfiguren als Grundlage für die Gestaltung der entsprechenden Computerspielfiguren.49

49

Vgl. etwa Kristin Thompson: The Frodo Franchise. The Lord of the Rings and Modern Hollywood. Berkeley, CA 2007, S. 193-256.

164

JENS EDER, JAN-NOËL THON

Solche Konvergenzen von Figuren in Filmen und Computerspielen führen jedoch keineswegs zu einer Nivellierung ihrer spezifischen Medialität. Dies beschränkt sich nicht auf den Befund, dass Computerspielfiguren in erster Linie Spielfiguren sind und dass sie eigene Formen und Genretypen aufweisen. Auch ihre Betrachtung als Symbole erfordert die Berücksichtigung ihrer spezifischen Medialität. Zwar finden sich selbst in Mainstream-Spielen verhältnismäßig komplex angelegte Figuren, die beispielsweise Elemente der antiken Mythologie (Kratos und das Figurenensemble aus God of War von 2005) oder kulturelles Wissen über die Figur des Golem aus der jüdischen Mythologie (die ,Big Daddies‘ aus BioShock von 2007) aufrufen. Doch scheinen die höherstufigen Bedeutungen, die sich Computerspielfiguren zuschreiben lassen, zumindest auf den ersten Blick häufig weniger komplex als bei filmischen Figuren. Schon die ludische und interaktive Funktionalität von Computerspielfiguren setzt ihrer Gestaltung als Symbole gewisse Grenzen. Auch führt in vielen Genres die Bindung von Aufmerksamkeit durch das Spielgeschehen dazu, dass den Spielern kaum Zeit zur Interpretation komplex angelegter symbolischer Bedeutungen von Figuren bleibt. Zudem wird die Gestaltung des interaktiven Spielgeschehens – trotz prominenter Game Designer wie Peter Molyneux oder Hideo Kojima, die nachdrücklich als ,Autoren‘ ihrer Spiele auftreten – in der Regel eher zögerlich einer übergeordneten, ,zentralen‘ Kommunikationsinstanz zugeschrieben.50 Dennoch können wir auch Computerspielfiguren nicht nur als Symbole, sondern ebenso als Symptome betrachten. Dies geschieht freilich – im Gegensatz zur Filmrezeption – insbesondere bei Action-orientierten Genres selten während des Spiels, sondern eher danach. Computerspiele sind kommerzielle Produkte, die – ähnlich wie Filme – mit hohem Budget von einer großen Gruppe von Menschen in Teamarbeit entwickelt werden. Neben einer ,kommerziellen Ästhetik‘ von Computerspielfiguren und der Orientierung an bestimmten etablierten Konventionen der Figurengestaltung (die wiederum auf der Ebene der Figur als Artefakt genauer beschrieben werden können), lassen sie sich häufig auch als Verweise auf Vorbilder in anderen Medien verstehen, was etwa in Computerspielumsetzungen zu Film-Blockbustern besonders deutlich sichtbar wird. Darü50

Dies betrifft nicht nur die Frage, inwiefern Computerspielfiguren als Symptome bestimmter Produktions- und Rezeptionskontexte verstanden werden können, sondern ebenso die Frage, inwiefern wir davon ausgehen, dass sie als Träger symbolischer Bedeutungen konzipiert wurden. Vgl. hierzu aber Fotis Jannidis: „Event-Sequences, Plots and Narration in Computer Games“. In: Peter Gendolla/Jörg Schäfer (Hrsg.): The Aesthetics of Net Literature. Bielefeld 2007, S. 281-305.

DIGITALE FIGUREN

165

ber hinaus lassen sich Figuren in Computerspielen nicht selten auch als Symptom für spezifischere Produktionsumstände interpretieren. So hat etwa Astrid Deuber-Mankowsky darauf hingewiesen, dass Lara Croft vor allem zu einer weiblichen Figur geworden ist, weil der ursprüngliche – männliche – Entwurf zu stark an Indiana Jones erinnerte.51 Und der Umstand, dass in weiten Teilen des Rollenspiels Fable (2004) keine Kinder auftauchen, ist wohl weniger eine Aussage über die fiktive Welt des Spiels (zumal für diesen Umstand keinerlei fiktionale Erklärung angeboten wird), als vielmehr ein Anzeichen für den Versuch der Vermeidung von Zensur, da auf diese Weise keine Tötung von Kindern durch die Spielergesteuerte Figur gezeigt werden muss. Zusammenfassend lässt sich festhalten, dass digitale Figuren im Computerspiel sich zwar einerseits – ebenso wie Filmfiguren – als fiktive Wesen mit einer bestimmten Körperlichkeit, Psyche und Sozialität betrachten lassen, darüber hinaus als Symbole für übergeordnete Bedeutungen stehen und als Symptome auf bestimmte Produktions- und Rezeptionskontexte verweisen können. Andererseits handelt es sich bei ihnen zugleich aber immer auch um Spielfiguren, die etwa mit bestimmten Spielzielen verbunden und durch verschiedene spielmechanische Fähigkeiten und Interaktionsmöglichkeiten gekennzeichnet sind. Darüber hinaus können sie als Repräsentationen der Spieler im sozialen Raum von Multiplayerspielen fungieren. Die Interaktivität von Computerspielen und Computerspielfiguren ermöglicht also neue, spielerische Formen der Mediennutzung und führt zu medienspezifischen Ausprägungen der Körperlichkeit, Psyche und Sozialität fiktiver Wesen, bedingt aber auch die Notwendigkeit, (visuelle) Figurendarstellungen ,in Echtzeit‘ zu berechnen. Dies schränkt die Möglichkeiten zur differenzierten Darstellung etwa der Mimik von Figuren zumindest auf dem gegenwärtigen Stand der Technik deutlich ein und hat – trotz des grundsätzlich vorhandenen Interesses an einer ,fotorealistischen‘ Darstellung – zu einer starken Tradition vereinfachter oder ,stilisierter‘ Figurendarstellungen geführt.

51

Vgl. Astrid Deuber-Mankowsky: Lara Croft. Modell, Medium, Cyberheldin. Frankfurt a. M. 2001, S. 34-35.

166

JENS EDER, JAN-NOËL THON

Zum Beispiel: James Camerons Avatar als Transmedia-Franchise Wie sich gezeigt hat, ist das Formenspektrum digitaler Figuren in Film und Computerspiel jeweils durch ihre unterschiedlichen medialen Funktionen geprägt: den einen schaut man zu, mit den anderen spielt man. Nicht zuletzt wegen dieser komplementären Potenziale der Nutzung und emotionalen Gratifikation – aber auch wegen ihrer vereinfachten Übertragbarkeit – werden digitale Figuren zunehmend zum Kernbestandteil transmedialer Adaptionsprozesse. Die Kombination der Rezeptionsmodi des faszinierten Zuschauens und des aktiven Spielens soll das Verhältnis der Mediennutzer zu den Figuren und die emotionale Bindung an sie vertiefen.52 Aus Sicht der Unterhaltungsproduzenten ermöglicht die transmediale Übernahme von Figuren zudem eine relativ einfache Weiterverwertung aufwendig entwickelten ‚Contents‘, der sich bereits als erfolgreich erwiesen hat und als Marke im kollektiven Gedächtnis verankert ist. Dass Spiele und ihre Figuren auf der Grundlage von Filmen entstehen, ist spätestens seit der ersten Star Wars-Trilogie (1977ff.) für größere Mainstream-Produktionen gang und gäbe; inzwischen werden auch immer mehr Computerspiele verfilmt. In beiden Fällen ist die medienübergreifende Adaption mit Schwierigkeiten verbunden: Auf Filmen basierende Computerspiele wie Blade Runner (1997), Fight Club (2004) oder die Harry Potter-Serie (2001ff )53 kommen mit den Herausforderungen des Medienwechsels kaum zurecht, und auch bei Computerspielverfilmungen wie Lara Croft: Tomb Raider (2001), Resident Evil (2002) oder Doom (2005) schränkt die medienspezifische Prägung der jeweiligen Computerspielfiguren den Gestaltungsrahmen der Filmfiguren deutlich ein. Die Probleme bei der Adaption scheinen dabei vor allem darin zu bestehen, dass Psyche und Sozialität von Computerspielfiguren primär durch ihre (ludischen) Ziele definiert werden und ansonsten weitgehend unbestimmt bleiben, während von Filmfiguren hier eine stärkere Ausdifferenzierung erwartet wird. Bei der Verfilmung von Computerspielen besteht dadurch die Gefahr, dass Figuren wie Lara Croft flach und undifferenziert erscheinen. In filmbasierten Computerspielen wiederum kann das Vor52

53

In der Werbung ist dieses Prinzip schon des Längeren bekannt: Crossmediale Werbekampagnen versuchen die Konsumenten von traditionell eher ,passiven‘ zu interaktiven Medien zu führen. Dass die genannten Beispiele allesamt auf Filmen basieren, die ihrerseits auf Romanen basieren, ist angesichts der hohen Quote derartiger ,Literaturverfilmungen‘ nicht allzu bemerkenswert.

DIGITALE FIGUREN

167

wissen über eine Filmfigur – etwa über den Charakter von Deckard aus Blade Runner (1982) – mit dem Spielverhalten der auf dieser beruhenden Computerspielfigur konfligieren. Allerdings finden sich durchaus Computerspiele, denen der Balanceakt der Adaption gelingt, wie dem parallel zu Peter Jacksons Kinofilm King Kong (2005) von Ubisoft produzierten Peter Jackson’s King Kong (2005). Vor allem werden Computerspiele und Filme immer häufiger als Teil transmedialer Franchises konzipiert. Henry Jenkins spricht hier – vielleicht etwas enthusiastisch, doch insgesamt treffend – von „[s]tories that unfold across multiple media platforms, with each medium making a distinctive contribution to our understanding of the world, a more integrated approach to franchise development than models based on urtexts and ancillary products.“54 Computerspielen wie Enter the Matrix (2003), The Chronicles of Riddick: Escape from Butcher Bay (2004) oder Batman: Arkham Asylum (2009) gelingt es recht gut, durch ihre spezifische Medialität zur Erfahrbarkeit der jeweiligen fiktiven Welt und ihrer Figuren beizutragen. Die zunehmende Verbreitung derartiger transmedialer Franchises hängt dabei nicht zuletzt mit der technischen Entwicklung zusammen: So macht die technische Konvergenz der Medien es möglich, Synergien bei der Gestaltung digitaler Figuren in Filmen und Computerspielen zu nutzen und dabei weniger von einem linearen Adaptionsprozess, sondern eher von einem Prozess der Co-Produktion auszugehen, der es erlaubt, die komplementären Erlebnisangebote gezielt herauszuarbeiten. Bei James Camerons Film Avatar: Aufbruch nach Pandora (2009) und dem von Ubisoft produzierten – zwei Wochen vor dem Film veröffentlichten – Computerspiel Avatar: Das Spiel (2009) handelt es sich ebenfalls um Ergebnisse einer solchen Co-Produktion. Die enge Beziehung des Science-Fiction-Blockbusters zum Computerspiel wird bereits durch den Titel und das Motiv der Fernsteuerung eines fremden Körpers in einer fremdartigen Welt suggeriert – ein Versprechen, das im Computerspiel durch das (inter-)aktive Steuern einer Spielfigur eingelöst werden soll, im Film dagegen über die Identifikation der Zuschauer mit dem Protagonisten. Der Film war Ausgangs- und Kernpunkt des Franchise, wobei neben dem Computerspiel (und dem nur lose daran angelehnten Mobile Game) – durchaus klassisch – noch Comics und Romane sowie zwei Film-Sequels geplant sind (eines mit dem abermals Figuren-bezogenen Arbeitstitel Na’vi soll 2014 ins Kino kommen). Das Treatment zum ersten Film verfasste Cameron bereits 1994, die eigentliche Vorproduktion begann aber erst 2005, weil er die Computertechnik für die digitale Animation 54

Jenkins: Convergence Culture (wie Anm. 4), S. 293.

168

JENS EDER, JAN-NOËL THON

der Figuren zuvor noch nicht für ausgereift hielt. Der gesamte Produktionsprozess dauerte bis 2009 und verschlang nach verschiedenen Schätzungen ein Budget von über 280 Millionen $. Das Spiel wurde parallel dazu zwischen 2007 und 2009 mit einem weitaus geringeren Budget produziert. Bei Avatar: Aufbruch nach Pandora handelt es sich bekanntlich um den kommerziell erfolgreichsten Film weltweit mit einem Einspielergebnis von fast 2,8 Milliarden $.55 Auch Avatar: Das Spiel dürfte sich für Ubisoft und Cameron mit knapp 2,7 Millionen verkauften Kopien im ersten Jahr durchaus rentiert haben.56 Diese Erfolge sind zum Großteil auf den Hype um die technischen Innovationen und Schauwerte des Films zurückzuführen, seine 3D-Effekte und seine Computeranimation. Im Mittelpunkt stand dabei die Gestaltung der Fantasiewelt des Films, nicht zuletzt seiner anthropo- und zoomorphen Alien-Figuren. Avatar: Aufbruch nach Pandora ist ein Genre-Hybrid: In die Science Fiction-Story mischen sich Elemente des Melodrams, des Western, des Action-, Kriegs-, Katastrophen-, Fantasy- und Liebesfilms. Dadurch sind auch seine Figuren geprägt: Der Film handelt von dem querschnittsgelähmten Kriegsveteranen Jake Sully auf dem Planeten Pandora, dessen Metallvorkommen durch die paramilitärische Resources Development Agency (RDA) gegen den Willen der humanoiden Ureinwohner (der „Na’vi“) ausgebeutet werden. Jake soll die Außerirdischen auskundschaften, indem er mit seinem Bewusstsein über eine technische Schnittstelle einen Na’vi-Avatar durch Pandoras Dschungel steuert. Dort wird Jakes Avatar von gefährlichen Kreaturen – einem Thanator und Viperwölfen – angegriffen und von der Na’vi-Prinzessin Neytiri gerettet. Jake verliebt sich in Neytiri, wird von den Na’vi aufgenommen, wechselt schließlich mit einigen Helfern von den brutalen menschlichen Invasoren zu den naturliebenden Aliens und führt erfolgreich deren Befreiungskrieg an. Durch eine Zeremonie geht Jakes Geist schließlich endgültig auf seinen Avatar-Körper über. Er bleibt auf Pandora, während die zurückgeschlagenen Weltraum-Imperialisten den Planeten verlassen müssen. Im Film lassen sich drei große Gruppen von Figuren unterscheiden, die verschieden aussehen und unterschiedlich produziert wurden: die von Schauspielern gespielten Menschen (Soldaten, Wissenschaftler, Bürokraten); die mittels Performance Capture erschaffenen Na’vi und Avatare; sowie die überwiegend im Keyframe-Verfahren animierten Tier-Aliens: der 55 56

Vgl. http://boxofficemojo.com/movies/?id=avatar.htm (letzter Zugriff: 01.03.2011). Vgl. http://www.gamespot.com/ds/action/jamescameronsavatar/news.html?sid=62 63057 (letzter Zugriff: 01.03.2011).

DIGITALE FIGUREN

169

Abb. 7: Jakes Avatar aus Avatar: Aufbruch nach Pandora (2009)

Leonopteryx, der Thanator, die Viperwölfe, Direhorses, Banshees usw. Die dramaturgische Konfliktkonstellation entspricht diesen Gruppen nur teilweise: Zunächst stehen Menschen und Avatare den Tier-Aliens und den Na’vi gegenüber. Dann spaltet sich von den Menschen die Gruppe der Avatar-Lenker um Jake ab und schließt sich den Na’vi an. Im abschließenden Kampf gegen die menschlichen Soldaten werden sie von den Alien-Kreaturen unterstützt. Avatar ist in Hinsicht auf die Figurengestaltung besonders interessant, weil er Realfilm-Figuren mit zwei unterschiedlichen Arten digitaler Figuren kombiniert, den Na’vi und den Alien-Tieren. Diese Kombination zeigt, nach welchen Erfordernissen sich die Gestaltung fotorealistischer Figuren in hybriden Filmen richtet. Die menschlichen Figuren konnten am einfachsten und überzeugendsten durch reale Schauspieler dargestellt werden. Bei den Na’vi war dies nicht möglich, weil sie zu stark vom menschlichen Aussehen abweichen: Die anthropomorphen Außerirdischen haben blaue Haut, katzenartige Körpermerkmale – gelbe Augen, spitze Ohren und Zähne, breite Nasen, einen Schwanz – und akrobatische, teils raubtierhafte Bewegungsfähigkeiten. Sie sind fast doppelt so groß wie Menschen, besitzen einen überschlanken, sehnigen Körper, vierfingrige Hände und ein zopfähnliches Interface zur Kommunikation mit Flora und Fauna. Dieses gewünschte Aussehen machte die Computeranimation erforderlich (siehe Abb. 7). Da der Körperbau der Na’vi aber menschenähnliche Proportionen aufweist, konnten ihre Bewegungen und ihre Mimik mittels (Facial) Performance Capture von Schauspielern übertragen werden. Bei den Alien-Tieren mit ihren fremdartigen, meist sechsbeini-

170

JENS EDER, JAN-NOËL THON

gen und teilweise gigantischen Körpern war dies dagegen nicht möglich. Sie wurden im Keyframe-Verfahren animiert; nur bei den Direhorses wurde gelegentlich Motion Capture von Pferden eingesetzt. Bei der Figurengestaltung ging es also dezidiert darum, fantastische Körper mit größtmöglichem Illusionismus darzustellen, um die Zuschauer zum einen sinnlich-illusionistisch, zum anderen durch spektakuläre Technik zu überwältigen. Produktionsberichte singen das Heldenlied des immensen Aufwands: von den drei Kamerasystemen (virtuelle Kamera, 3D-Realfilm-Kamera, Simulcam für kombinierte Aufnahmen); von der innovativen Echtzeit-Regie computeranimierter Figuren; von der neuartigen Facial Performance Capture mit Helmkameras; von den zwei Art Departments (eines für die Na’vi, eines für die menschlichen Invasoren); von der endlosen Feinarbeit der elf beteiligten ComputeranimationsFirmen.57 Diesem gewaltigen Aufwand der technisch virtuosen Körperdarstellung steht eine auffällige Schlichtheit von Psyche und Sozialität der Figuren gegenüber, die in jeder Hinsicht Figurenkonventionen des Mainstreamfilms entsprechen.58 Jake Sully ist der Protagonist und die zentrale Identifikationsfigur des Films. Die Zuschauer sollen seine Perspektive weitgehend teilen; dadurch soll ihnen der Übergang vom schwachen Menschenkörper zum Na’vi-Avatar, von der grauen Realität zur Fantasiewelt Pandoras näher gebracht werden. Jake entspricht den etablierten Figurentypen des Jedermann, des Kriegsversehrten und des naiven, zögernden Helden. Sein Avatar ist den Gesichtszügen des (weißen) Darstellers Sam Worthington nachgebildet, stereotype Körperzeichen für ,Männlichkeit‘ sind verstärkt (breite Schultern, Muskeln usw.). Jake ist mutig, impulsiv, doch clever und (als Avatar) sozial aufgeschlossen. Die Na’vi-Prinzessin Neytiri (gespielt von der Afroamerikanerin Zoë Zaldana) ist Jakes Love Interest, seine Mentorin und Helferin. Sie wurde unter anderem nach dem Vorbild der Pocahontas modelliert. Ihr Körper entspricht modernen Idealen von schlanker ,Weiblichkeit‘, sie ist von edlem und mutigem Charakter, zeigt Humor und starke Gefühle in intensiven Sozialbeziehungen. Neytiri symbolisiert die Kolonialismus-Opfer dieser Erde, Jake ihre Unterstützer. Wie diese beiden Hauptcharaktere sind auch sämtliche anderen Figuren nach dem Muster der Mainstream-Figurenkonzeption gestaltet: Sie lehnen sich an bekannte Typen an, die durch Details individualisiert werden. Sie sollen einfach verständlich, psychologisch transparent und konsistent wirken, dabei mehrdimensional, dynamisch und dramatisch. Um 57 58

Vgl. etwa Duncan/Fitzpatrick: The Making of Avatar (wie Anm. 20). Vgl. Eder: Die Figur im Film (wie Anm. 8), S. 401-405.

DIGITALE FIGUREN

171

Abb. 8: Neytiri aus Avatar: Aufbruch nach Pandora (2009)

ihre Handlungsfunktion innerhalb der Unterhaltungsdramaturgie zu erfüllen, erhalten sie einen bestimmten Charakter: Sie sind aktiv, zielbewusst, pragmatisch-rational, hoch emotional, moralisch klar verortet, und sie entwickeln sich im Filmverlauf weiter. In vieler Hinsicht ähneln sie ,Durchschnittsmenschen‘, sind dabei aber bigger than life. Das gilt auch und gerade für die Na’vi. Die blauen Aliens gleichen Menschen in jeder wesentlichen Hinsicht von Psyche, Verhalten und Beziehungen. Typologisch entsprechen sie sowohl äußerlich als auch psychosozial einer eklektizistischen Mischung von Stereotypen diverser indigener Völker (‚Indianer‘, ‚Massai‘ usw.) und dem übergreifenden Stereotyp des ‚edlen Wilden‘. Unverstellt ‚menschlich‘ zeigen sie ihre intensiven Emotionen durch Lachen, Fauchen, Weinen, Schreien oder Berühren. Ihre Hyperexpressivität wurde auch in der Animation durch das Facial Action Coding System des Psychologen Paul Ekman umgesetzt; weitere, nichtmenschliche Elemente steigern ihr Ausdrucksvermögen noch, so zeigen etwa katzenhaftes Ohren-Anlegen, Zähne-Fletschen und Schwanz-Peitschen Wut an (siehe Abb. 8). Die digitalen Außerirdischen sind bis ins Detail auf emotionale Wirkung durchkomponiert: Ihre Körper – stärker, schneller, schlanker, muskulöser als die menschlichen – entsprechen verbreiteten Wünschen und „Körperverbesserungsfantasien“59. Ihr Emotionsverhalten ist besonders ausdrucksvoll, und ihr Sozialleben entspricht der Fantasie eines ,Zu59

Thomas Klein: „Blaue Körperwunder. Kino und Leiblichkeit im digitalen Zeitalter“. In: Film-Dienst 10 (2010), S. 6-9.

172

JENS EDER, JAN-NOËL THON

rück zur Natur‘; als edle Wilde sollen sie Sympathie und Bewunderung hervorrufen. Auf diese Weise fungieren die Na‘vi als unmittelbar verständliches Symbol für ausgebeutete ,Naturvölker‘ der realen Welt; die menschlichen Weltraum-Imperialisten als Stellvertreter für den militärisch-industriellen Komplex der USA (was republikanische Politiker heftig kritisierten). Die manichäische Figurenkonstellation vermittelt eine New-Age-Botschaft pro bono contra malum: gegen Krieg, Ausbeutung und Naturzerstörung, für interkulturelle Verständigung und Akzeptanz von Fremdheit.60 Diese Botschaft des Films und seiner Figuren zeitigte vielfältige Wirkungen: Mit den Na’vi identifizierten sich weltweit diverse bedrohte oder marginalisierte Gruppen und Ethnien – von Amazonas-Indianern bis zu Palästinensern – in Form von Rollenspielen, Kostümierung und sprachlichen Vergleichen. In China wurde der Film aus den Kinos verbannt, um solche Identifikationsprozesse zu verhindern.61 Die Figurengestaltung rief aber auch ablehnende und kritische Reaktionen hervor (wie eine Internetsuche mit den Wörtern „hate Na’vi“ schnell zeigt). Der Film ist voll performativer Widersprüche: Er propagiert ökologisches Denken, verbraucht dazu aber immens viel Energie. Seine Figuren sollen als Urbilder naturwüchsiger Freiheit erscheinen, doch bleiben ihre digitale Durchmodellierung und das Streben nach totaler Kontrolle über die Zuschauerreaktionen unterschwellig spürbar. Avatar: Das Spiel wurde zwar, anders als der Film, von der Kritik kaum gelobt, hat aber, wie bereits erwähnt, dennoch respektable Verkaufsergebnisse erzielt und insbesondere mit Blick auf seine Verwendung stereoskopischer 3-D-Technologie neue Maßstäbe gesetzt.62 Dabei war die Produktion des Spiels – ähnlich wie bei der ebenfalls von Ubisoft produzierten Computerspielumsetzung von Peter Jackson’s King Kong – recht eng mit der Kinoproduktion verschränkt: Zum Entwurf der Figuren, zur Prävisualisierung des Films und zur Performance Capture wurde die Spielentwicklungs-Software Maya und MotionBuilder verwendet, die Ergebnisse konnten teils bei der Entwicklung des Spiels übernommen werden. Außerdem hatte Ubisoft Zugang zu Entwürfen der Produktionsdesigner und 60

61 62

Weitere Symbolebenen der Figuren werden durch ihre kommunikative Vernetzung mit der gesamten Natur aufgerufen oder durch ihre blaue Haut, die sie nicht nur fremdartig wirken lässt, sondern auch an die Avatare von Hindu-Gottheiten wie Krishna erinnert. Vgl. http://www.taz.de/1/politik/asien/artikel/1/avatar-des-todes/ (letzter Zugriff: 01.03.2011). Vgl. etwa Neil Schneider: „Avatar: The Game“. In: mtbs3d.com 21.12.2009, http:// mtbs3d.com/cgi-bin/rss_gamereviews.cgi?news_id=67 (letzter Zugriff: 01.03.2011).

DIGITALE FIGUREN

173

zu Filmmaterial.63 Obwohl das Spiel vor der Filmpremiere veröffentlicht wurde, ist es auch mit Blick auf die intendierte Rezeptionsperspektive als ,Spiel zum Film‘ zu verstehen, insofern es sich bei Pandora zwar um eine transmediale Welt handeln mag64, die Gestaltung des Spiels und seiner Figuren aber – auch und gerade auf der Ebene ihrer symbolischen Bedeutungen – doch sehr viel deutlicher Bezüge zum Film erkennen lässt als anders herum. Die Handlung des Spiels beginnt im Jahr 2152, zwei Jahre vor der Filmhandlung: Der durch die Spielerin gesteuerte Protagonist heißt demnach auch nicht Jake Sully, sondern Able Ryder, wobei die Spielerin nicht nur das Geschlecht Ryders, sondern auch eine von insgesamt 12 ,Ethnien‘ wählen kann. Ryder kommt als Soldat der RDA auf Pandora an und wird unmittelbar in den Kampf der Marines gegen die ,edlen Wilden‘ der Na’vi verstrickt. Die Verbindung zur Filmhandlung wird dabei zunächst vor allem durch ,Gastauftritte‘ von Filmfiguren hergestellt: Direkt zu Beginn des Spiels wird Ryder von Dr. Grace Augustine auf Pandora begrüßt (siehe Abb. 9), Trudy Chacón fungiert als Hubschrauberpilotin und am Ende des Spiels hilft Colonel Miles Quaritch Ryder (und der Spielerin) beim Kampf gegen die Na’vi. Auch das restliche Figurenensemble des Spiels ähnelt dem Ensemble des Films: Commander Falco ist als skrupelloser Sicherheitschef der RDA deutlich an Colonel Quaritch aus dem Film (und dem Ende des Spiels) angelehnt; der Leiter des Avatar-Programms im Spiel, Dr. René Harper, an die Filmfigur Dr. Augustine. Auch die Na’vi des Spiels fallen zwar nicht mit den Na’vi aus dem Film zusammen, weisen jedoch zahlreiche Parallelen zu ihnen auf. So glaubt etwa der Na’viKrieger Beyda’amo – ähnlich wie Tsu’tey aus dem Film – zunächst nicht an Ryders edle Motive, lässt sich später dann aber doch überzeugen. Ein zentraler Unterschied zum Film besteht nun jedoch darin, dass der Spielerin die Möglichkeit gegeben wird, durch eine folgenschwere Entscheidung den Verlauf der Geschichte wesentlich zu beeinflussen: Ryder 63

64

„The game and the movie have much in common. Ubisoft and Lightstorm worked together with a rather unique level of collaboration and trust. As both teams used similar tools, it was easy for them to share assets. Beyond that, the movie and the game also share the same creative vision and James Cameron remained involved to ensure this. Very early, the games team had access to concept art and early footage for the movie. Ubisoft proposed designs for creatures or vehicles that were approved by James Cameron and even sometimes integrated into the movie.“ (Marc Petit: „Avatar and the Future of Digital Entertainment Creation“. In: Animation World Network 08.02.2010, http://www.awn.com/articles/3d/avatar-and-future-digitalentertainment-creation; letzter Zugriff: 01.03.2011; S. 3) Vgl. hierzu auch Klastrup/Tosca: „Transmedial Worlds“ (wie Anm. 4).

174

JENS EDER, JAN-NOËL THON

Abb. 9: Begrüßung Ryder durch Dr. Augustine aus Avatar: Das Spiel (2009)

wird bald nach seiner Ankunft von Commander Falco beauftragt, einen ,Maulwurf‘ innerhalb der RDA zu finden. Als sich herausstellt, dass Dr. René Harper der ,Maulwurf‘ ist, steht Ryder (und mit ihm die Spielerin) vor der Wahl, diesen entweder zu erschießen oder sich gemeinsam mit ihm dem Widerstand der Na’vi anzuschließen.65 Wie sich Ryder (und die Spielerin) hier entscheidet, beeinflusst das weitere Spielgeschehen: Ryder entscheidet sich nicht nur für eine Figurengruppe, ihre ideologische Perspektive und ein bestimmtes Set an Spielzielen, sondern wechselt darüber hinaus als Mitglied des Widerstandes – ähnlich wie Jake Sully am Ende des Films – dauerhaft den Körper. Entsprechend hat eine Entscheidung für die Seite der Na’vi nicht nur Auswirkungen auf die Psyche und die Sozialität der Spieler-gesteuerten Figur, sondern auch auf deren Körperlichkeit. Bemerkenswert ist dabei der Effekt, den die Entscheidung der Spielerin für einen menschlichen oder einen Na’vi-Körper nicht nur auf Ryders Eigenschaften als fiktives Wesen, sondern auch und gerade auf ihre/seine – allerdings mit den Eigenschaften des fiktiven Wesens zusammenhängenden – ludischen Fähigkeiten hat. Die Darstellung der Spieler-gesteuerten Figur wie auch der verschiedenen Computer-gesteuerten Figuren erfolgt in Avatar: Das Spiel zunächst recht klassisch durch eine Kombination narrativer Elemente – filmischer 65

Lässt die Spielerin Ryder zunächst weiter in seinem/ihrem menschlichen Körper auf der Seite der RDA kämpfen, bietet das Spiel letzterer/m (und also auch ersterer) im weiteren Verlauf der Geschichte noch einmal die Gelegenheit, auf die Seite der Na’vi zu wechseln (was freilich ein eher ungewöhnliches Entscheidungsmuster sein dürfte und zu einer kleineren Inkonsistenz zwischen dem Spielgeschehen des entsprechenden Spieldurchlaufs und der letzten Cut-Scene führt).

DIGITALE FIGUREN

175

Abb. 10: Cut-Scene mit Ryder und Dr. Harper aus Avatar: Das Spiel (2009)

Cut-Scenes und nicht-interaktiver Questdialoge – mit dem eigentlichen Spielgeschehen. Während die narrativen Elemente vor allem zur Vermittlung der Psyche und Sozialität von Figuren (bzw. der ideologischen Perspektivstruktur des Spiels) eingesetzt werden, betont das Spielgeschehen insbesondere die Körperlichkeit und militärischen Fähigkeiten der Figuren, die sich klar in Verbündete (Marines bzw. Na’vi) und Gegner (die Tierwelt Pandoras sowie die Na’vi bzw. Marines) der Spieler-gesteuerten Figur unterteilen lassen. Dabei sind einerseits die Cut-Scenes und Questdialoge weitgehend in der Grafikqualität des simulierten Spielgeschehens gehalten (siehe Abb. 10), andererseits ermöglichen die das Spielgeschehen bestimmenden Darstellungsregeln eine verhältnismäßig detaillierte Darstellung zumindest der Körperlichkeit der Spieler-gesteuerten Figur. Wohl nicht zuletzt aufgrund der linearen Queststruktur (und der ebenso linearen Entwicklung von Ryders Fähigkeiten) gelingt es dem Spiel zudem weitgehend, Inkonsistenzen zwischen der Darstellung der Figuren als fiktive Wesen und ihrer Funktionen als Spielfiguren zu vermeiden. Im Hinblick auf die Ausgestaltung der Spieler-gesteuerten Figur wie auch der Computer-gesteuerten Figuren als Spielfiguren sind dabei, wie bereits erwähnt, vor allem die Folgen der Entscheidung Ryders bzw. der Spielerin für die Seite der RDA oder der Na’vi bemerkenswert: Die Figurengruppen der RDA und der Na’vi sind hier nicht nur als fiktive Wesen recht offensichtlich im Hinblick auf ihre Körperlichkeit (Physis der Menschen bzw. der Na’vi), Psyche (ausbeuterischer Raubtierkapitalismus vs. idealisierte Naturvolkharmonie) und Sozialität (paramilitärische Organisation vs. Stammesstruktur) voneinander unterschieden. Vielmehr unterscheiden sie sich auch im Hinblick auf ihre jeweiligen ludischen Fähigkeiten, die in einem Action-orientierten Spiel wie Avatar vor allem für

176

JENS EDER, JAN-NOËL THON

Abb. 11: Ryder als Marine aus Avatar: Das Spiel (2009)

kämpferische Auseinandersetzungen relevant sind: Während die Marines der RDA sich im Kampf vor allem auf ihre hochentwickelte Technologie und ein breites Arsenal von Feuerwaffen verlassen (siehe Abb. 11), verwenden die Krieger der Na’vi vor allem ,natürliche‘ Fähigkeiten, verschiedene Nahkampftechniken und ,primitive‘ Waffen (siehe Abb. 12). Indem sich die Spielerin bzw. Ryder für eine der beiden Seiten entscheidet, erhält die Spielfigur entsprechende ludische Fähigkeiten. Auf diese Weise kombiniert Avatar: Das Spiel, je nach der durch die Spielerin getroffenen Entscheidung, Elemente des Third-Person Shooters/Action Adventures mit denen des Stealth-Shooters/Action-Rollenspiels. Zwar beschränkt sich die – nicht zuletzt in der Werbekampagne zum Spiel immer wieder hervorgehobene – ,Entscheidungsfreiheit‘ der Spielerin auf wenige neuralgische Punkte, was angesichts der sehr viel komplexeren ,Moralsysteme‘ und Queststrukturen in Rollenspielen wie Fable (2004) oder Mass Effect (2007) kaum zu beeindrucken vermag. Dennoch ist davon auszugehen, dass Avatar: Das Spiel schon aufgrund seines ,interaktiven Rezeptionsmodus‘ und der dadurch bedingten ,ludischen‘ Emotionen eine willkommene Erweiterung der durch den Film ermöglichten Rezeptionserfahrung darstellte. Reizvoll dürften dabei freilich weniger die Gemeinsamkeiten mit dem Film als vielmehr die medienspezifischen

DIGITALE FIGUREN

177

Abb. 12: Ryder als Na’vi aus Avatar: Das Spiel (2009)

Möglichkeiten des Computerspiels sein, die zumindest das Versprechen einer mehr oder weniger selbstständigen Erkundung der Welt beinhalten. Diese Erkundung scheint allerdings weitgehend auf den Singleplayermodus beschränkt geblieben zu sein, denn obwohl das Spiel verschiedene Multiplayermodi anbietet, wurden diese durch die Spieler bislang kaum genutzt.66 Vor diesem Hintergrund ist abschließend auch festzuhalten, dass es sich bei Avatar zwar um ein transmediales Franchise und bei der fiktiven Welt von Pandora um eine transmediale Welt handelt, dass sich hier aber – anders als in anderen Figuren-zentrierten Franchises wie etwa Harry Potter, Indiana Jones, Shrek oder Tomb Raider (mit Lara Croft) – keine transmedialen Hauptfiguren finden. Eine wichtige Rolle spielen allerdings medienübergreifend dargestellte Typen und Gruppen von Figuren: Wie wir gezeigt haben, stellt sowohl der Kinofilm als auch das Computerspiel den Konflikt zwischen den ,menschlichen Kolonialisten‘ der RDA und den ,edlen Wilden‘ der Na’vi in den Mittelpunkt der Handlung. Der 66

Entsprechend wollen wir hier nicht weiter auf die für Multiplayerspiele zentrale Frage eingehen, inwiefern Figuren als Repräsentationen der Spieler im sozialen Raum des Spiels fungieren.

178

JENS EDER, JAN-NOËL THON

jeweiligen Figurengruppe lassen sich dabei kollektive Eigenschaften zuschreiben: So zeichnen sich die Na’vi ausnahmslos durch übermenschliche körperliche Fähigkeiten aus und entsprechen – mit ihrer mystischen Verbindung zur Flora und Fauna Pandoras und ihrer archaischen Stammeskultur – in psychosozialer Hinsicht stereotypen Vorstellungen diverser indigener Völker, während die skrupellos-ausbeuterischen, straff militärisch organisierten Menschen der RDA schon zum bloßen Überleben in der ,feindlichen‘ Umwelt Pandoras auf ihre fortgeschrittene Technik angewiesen sind. Es handelt sich hier also sowohl um transmediale Figurengruppen wie um transmediale Figurentypen, die darin beispielsweise mit den Wookies aus dem Star Wars-Franchise oder den Orks aus dem Der Herr der Ringe-Franchise vergleichbar sind. Obwohl das Avatar-Franchise also den Kinofilm in den Mittelpunkt rückt, erlaubt es den Rezipienten in Form des zugehörigen Computerspiels eben auch, die fiktive Welt von Pandora in der Rolle eines Soldaten der RDA oder eines zu den Na’vi übergelaufenen Ex-Soldaten zu erkunden. Statt einer mehr oder weniger direkten Adaption von Figuren und Handlung des Films durch das Computerspiel handelt es sich hier um einen der insbesondere seit der Jahrtausendwende verstärkt zu beobachtenden Versuche, medienübergreifende Figuren, Figurengruppen und Figurentypen in einem Prozess der Co-Produktion als zentrale Elemente eines transmedialen Franchises zu konzipieren. Stärker als bei einfacheren Adaptionsprozessen werden die Elemente des Avatar-Franchises dabei als komplementäre Erlebnisangebote gestaltet. Entsprechend gibt es zwar Berührungspunkte zwischen der Figurenkonstellation des Films und jener des Spiels – sie fallen aber nicht zusammen. Zudem ist das Verhältnis der Mediennutzer zu den Figuren ein jeweils anderes: Im Film können sie der Erfahrung des Protagonisten, einen Avatar durch eine fremdartige Welt zu steuern, (nur) durch identifikatorisches Beobachten nahe kommen; im Computerspiel steuern sie ihren Avatar selbst durch unterschiedliche Schauplätze auf Pandora. Die digitalen Figuren des Franchises versprechen so durch komplementäre Formen der Mediennutzung – Zuschauen und Spielen – ein intensiviertes Erleben der Welt von Jake Sully und Able Ryder.

Fazit Zusammenfassend sei noch einmal festgehalten, dass digitale Figuren sich sowohl in Einzelmedien als auch über Mediengrenzen hinweg verbreiten und dass dies zu einer Veränderung des Figurenangebots im gesamten Me-

DIGITALE FIGUREN

179

diensystem beiträgt, weil die digitale Gestaltung bestimmte Merkmale, Formen und Typen von Figuren begünstigt. Wie sich gezeigt hat, weisen digitale Figuren in Film und Computerspiel dabei charakteristische Gemeinsamkeiten, Differenzen und Zusammenhänge auf, die sich aus semiotischen, technischen und pragmatischen Spezifika der beiden Medien ergeben. Gemeinsam ist den Figuren ihre ,Digitalität‘; ihre Produktionsprozesse sind in vielerlei Hinsicht vergleichbar und insbesondere im Kontext transmedialer Angebotszusammenhänge zunehmend vernetzt. Ein zentraler Unterschied zwischen Filmfiguren und Computerspielfiguren besteht allerdings in der Interaktivität letzterer, die eigenständige Formen der Gestaltung und des Erlebens von Figuren – als Spielfiguren – mit sich bringt. Filmfiguren schauen wir beim Handeln zu. Sie lösen als fiktive Wesen Beobachter-Emotionen wie Empathie oder Sympathie aus und rufen als Artefakte, Symbole und Symptome weitere Gefühle – wie etwa ästhetische Faszination oder moralische Entrüstung – hervor. Figuren in Computerspielen ermöglichen dagegen – aufgrund ihrer medienspezifischen Gestaltung als ,interaktive‘ Artefakte – vor allem Gefühle, die mit (inter-)aktivem Handeln und selbsttätigem Problemlösen verknüpft sind: Sie fungieren als Stellvertreter, Gegner oder Helfer in der Welt des Spiels, wobei ihre Symbol- und Symptom-Aspekte eher in den Hintergrund treten. Die Digitalisierung von Figuren erfüllt dabei in Film und Computerspiel unterschiedliche Grundfunktionen. Die aufwändige, auf ‚Glaubwürdigkeit‘ und ‚Emotionalität‘ zielende Computeranimation dient im Kino als Alternative zu traditionellen Darstellungsformen (Realfilm, traditionelle Animation) und als eigenständiger Schauwert. Im Computerspiel ist Digitalität dagegen die Voraussetzung für Interaktivität; Computerspielfiguren waren immer schon digital, was zu einer größeren Bandbreite ihrer Formen und Funktionen geführt hat. So finden sich im Computerspiel – zumindest häufiger als im Kinofilm – immer wieder auch digitale Figuren, die sich im Wesentlichen als ‚Durchschnittsmenschen‘ beschreiben lassen, ohne dabei notwendigerweise bigger than life zu sein. Die unterschiedliche Medialität von Kinofilm und Computerspiel – und der dadurch bedingte Umstand, dass Figuren im Computerspiel notwendigerweise digitale Figuren sind – beeinflusst nicht zuletzt die ästhetische Bandbreite der jeweiligen Figurendarstellungen: Als Artefakte bleiben die weitaus meisten digitalen Kinofiguren auf zwei grundlegende, mit bestimmten Genres verbundene Gestaltungsformen beschränkt: Entweder handelt es sich um stilisierte Cartoonfiguren der Familienkomödie oder um fotorealistische Figuren der Action und Fantastik. Aufgrund ihrer Tendenz zur Typisierung, Vereinfachung und Zuspitzung fungieren

180

JENS EDER, JAN-NOËL THON

beide Spielarten zudem besonders häufig als explizite Symbole zur Vermittlung übergeordneter Bedeutungen, didaktischer Aussagen oder intertextueller Anspielungen. Bei Computerspielfiguren wiederum führt die Notwendigkeit, Figurendarstellungen ,in Echtzeit‘ zu berechnen, insbesondere im eigentlichen Spielgeschehen zu einer zunächst vor allem technisch begründeten Stilisierung und Vereinfachung, die sich deutlich von den Figurendarstellungen sowohl in Kinofilmen als auch in prägerenderten Cut-Scenes abhebt. Aus historischer Perspektive lässt sich zwar eine Tendenz zum Fotorealismus ausmachen, doch zahlreiche Spiele (und Genres) bevorzugen auch heute noch stilisierte Figurendarstellungen. Dennoch sind Computerspielfiguren aufgrund ihrer ludischen Funktionalität seltener auf komplexe Weise symbolisch-thematisch angelegt als Kinofiguren. Wie eingangs erwähnt finden sich trotz dieser Unterschiede aber durchaus auch Gemeinsamkeiten: Das Potenzial weitgehend freier Gestaltung, der digitalen Modellierung der Imagination, hat sowohl im Kinofilm als auch im Computerspiel ähnliche Strategien der Reizverdichtung, Emotionalisierung, Intertextualität und der Orientierung an fantastischen und actionreichen Genres hervorgebracht. Als fiktive Wesen weisen sowohl digitale Filmfiguren als auch Computerspielfiguren eine Tendenz zu übersteigerten Eigenschaften auf, die von etablierten Konventionen des Realismus deutlich abweichen. Auch scheinen Digitalisierung und Transmedialität die Zunahme von hyperaktiven, konfliktbereiten Figuren im Gegensatz zu eher reflektierend-passiven oder träumerischen Charakteren zu fördern. Jenseits von durch die Medialität des Kinofilms und des Computerspiels bedingten Unterschieden und Gemeinsamkeiten digitaler Figuren ist zudem eine transmediale Vernetzung ihrer Produktion und Rezeption zu beobachten: Spätestens seit der Jahrtausendwende finden immer häufiger Adaptionen erfolgreicher Kinofilme und Computerspiele im jeweils anderen Medium statt. Die Unterschiede in der spezifischen Medialität ihrer Figuren – insbesondere deren unterschiedlich ausdifferenzierte Psyche und ihre unterschiedlichen Funktionen in narrativen und/oder ludischen Kontexten – stellen dabei eine nicht zu unterschätzende Herausforderung dar, der sich ebenso viele Film- wie Computerspielumsetzungen kaum gewachsen sehen. Vor diesem Hintergrund scheinen die ebenfalls zunehmenden Versuche vielversprechender zu sein, digitale Film- und Spiel-Figuren (oder Figurengruppen) in Prozessen der Co-Produktion von Beginn an als (mehr oder weniger) zentrale Elemente transmedialer Franchises zu konzipieren. Derartige Franchises setzen unterschiedliche Medien-Schwerpunkte: Das The Matrix-Franchise etwa ist vor allem durch Kinofilme geprägt, das

DIGITALE FIGUREN

181

Harry Potter-Franchise durch Romane, das Batman-Franchise durch Comics, und das Tomb Raider-Franchise durch Computerspiele. Dennoch besteht ein gemeinsames Ziel all dieser Franchises in der Nutzung der komplementären Erlebnisangebote von Film- und Spielfiguren. Entsprechend ist James Camerons Avatar-Franchise zwar auf den Kinofilm fokussiert, erlaubt es den Rezipienten aber auch, die fiktive Welt von Pandora in der Rolle eines Soldaten der RDA oder eines Na’vi-Avatars zu erkunden. Zwischen der Figurenkonstellation des Films und jener des Spiels gibt es Berührungspunkte, aber sie decken sich nicht. Die Gestaltung transmedialer Franchises wie Avatar verspricht also – durch komplementär angelegte Erlebnisangebote in unterschiedlichen Medien – ein intensiviertes Erlebnis fiktiver Welten. Dieses Versprechen wiederum macht digitale Figuren in der konvergenten Medienkultur der Gegenwart besonders wirkungsvoll, einflussreich und anschlussfähig. Die digitale Produktion von Figuren ermöglicht mehr und mehr eine freie Modellierung der Imagination, welche in Kinofilm und Computerspiel allerdings in erster Linie kommerziellen Interessen und etablierten Strategien der Unterhaltung folgt. Aus diesem Grund sind digitale Figuren in beiden Medien meist ,Hyper-Figuren‘ – sie sind hyperrealistisch, hyperexpressiv, hyperkinetisch und hyper-intertextuell. Die mit ihnen verbundenen Möglichkeiten, die Realität zu überbieten, treiben den Trend zur Fantastik in der gegenwärtigen Medienproduktion wesentlich mit an. Verstärkt wird dieser Trend ebenfalls durch die leichte Übertragbarkeit digitaler Figuren auf andere Medien im Rahmen von Adaptionsprozessen oder transmedial angelegten Franchises. Wenn digitale Figuren transmedial werden, kommt ihnen nicht nur ihre spektakuläre Gestaltung zugute: Sie erreichen auch ein besonders breites Publikum, da sie in unterschiedlicher medialer Gestalt unterschiedliche Zielgruppen ansprechen können. Schließlich ist angesichts der sich stetig beschleunigenden technischen Entwicklung davon auszugehen, dass sich vor allem die fotorealistische Spielart digitaler Figuren in Kinofilm und Computerspiel weiter verbreiten wird: Die Figurendarstellung beider Medien wird sich in ihrem Hyperrealismus ähnlicher werden, was sowohl eine zunehmende Konvergenz als auch weitere komplementäre Ausdifferenzierungen erwarten lässt. Auch in Zukunft ist also mit einer wachsenden Bedeutung digitaler Figuren zu rechnen.

Markus Kuhn

Digitales Erzählen? Zur Funktionalisierung digitaler Effekte im Erzählkino 0. Einleitung Digital ist ein Schlagwort mit Signalwirkung, ein zunehmend auch in der Medienwissenschaft diskutiertes Paradigma. Erzählen ist ein universelles, medienübergreifendes Phänomen, eine anthropologische Konstante, mit der sich die Erzähltheorie seit Jahrzehnten auseinandersetzt. Digitales Erzählen klingt auf den ersten Blick also nach einer interessanten ‚Kombination‘, insbesondere aus Sicht einer transmedialen Narratologie. Aber: Was genau verbirgt sich hinter dem Begriff? Schnell stellt sich heraus, dass der Begriff des digitalen Erzählens einige Unschärfen aufweist, selbst wenn man sich – wie dieser Band – von vornherein auf das Audiovisuelle beschränkt. Bezieht sich der Begriff beispielsweise auf die digitale Projektion im Kino? Natürlich lässt sich ein Film des klassischen Erzählkinos digitalisieren und digital speichern, distribuieren und projizieren. Bezieht er sich auf die Frage, ob in den sogenannten digitalen Medien audiovisuell erzählt werden kann? Natürlich, ob auf YouTube, Facebook, Twitter, MyVideo oder Sevenload, überall werden uns ‚im Netz‘ Geschichten erzählt, manchmal sprachlich, manchmal visuell, manchmal multimodal und sehr häufig auch filmisch. Auch nicht vernetzte Computer können Geschichten speichern und wiedergeben oder generieren; auch diese können mono- oder multimodal sein. Erzählen ist in den digitalen Medien nichts Besonderes oder Seltenes, sondern der ‚Normalfall‘.1 Oder bezieht sich der Begriff – 1

Zu Erzählformen in digitalen Medien vgl. Marie-Laure Ryan: „Will New Media Produce New Narratives?“. In: Marie-Laure Ryan (Hrsg.): Narrative across Media. The Languages of Storytelling. Lincoln/London 2004, S. 337-359 (sowie die „Introduction“ von Marie-Laure Ryan im selben Band, S. 1-40). Zu computergenerierten vernetzen digitalen Erzählformen (hypertexts, games) vgl. Terry Harpold: „Digital Narrative“. In: David Herman/Manfred Jahn/Marie-Laure Ryan (Hrsg.): Routledge Encyclopedia of Narrative Theory. London/New York 2008, S. 108-112. Zu interaktiven computergenerierten (vor allem textbasierten) Erzählformen (interactive fic-

184

MARKUS KUHN

deutlich abstrakter und jenseits von Fragen nach der technischen Umsetzung, den Interfaces und der Transformation analoger Codes in digitale – auf das ‚digitale Prinzip‘, das Speichern und Übertagen von Informationen mit ‚Nullen und Einsen‘? Kann man auch mit Nullen und Einsen, also einem binären Code, der nur die Informationswerte ‚ja‘ und ‚nein‘ oder ‚ein‘ und ‚aus‘ kennt, eine Geschichte erzählen? Und wenn ja, wäre diese Geschichte dann digital? Erzählt beispielsweise das digitale Gedicht in Abb. 1 eine Geschichte? Nein, natürlich erzählt es keine Geschichte. Es kann den Rezipienten höchstens dazu anstoßen, eine Geschichte ‚hineinzulesen‘. Hier sind es die sinnzuweisende Überschrift „Hoffnung“, die grafische Gestaltung und die kompositorische Anordnung der Nullen und Einsen, die dazu anregen könnten, den binären Code des digitalen Gedichts als Erzählung zu deuten. Es gibt – zuerst – eine stetige Entwicklung und der finale Schritt vom Informationswert „11110“ zu „00000“ (und nicht zu „11111“) könnte als Ereignis gewertet werden, das mit der durch die Entwicklung des Zahlencodes generierten Erwartungshaltung bricht. Dieser Bruch bekommt durch die Überschrift „Hoffnung“ einen positiven Wert zugeschrieben und man könnte weiterführend interpretieren, dass der Bruch mit dem Zwang eines Systems, die ‚Rebellion‘ gegen den Systemzwang, das Außergewöhnliche gegen das Erwartbare, die Revolution gegen die Evolution ausgespielt werden sollen. Ob das reicht, um von einer Getion) vgl. Nick Montfort: „Narrative and Digital Media“. In: David Herman (Hrsg.): The Cambridge Companion to Narrative, Cambridge 2007, S. 172-188. Zu faktualen Erzählformen im Netz vgl. Doris Tophinke: „Wirklichkeitserzählungen im Internet“. In: Christian Klein/Matías Martínez (Hrsg.): Wirklichkeitserzählungen. Felder, Formen und Funktionen nicht-literarischen Erzählens. Stuttgart/Weimar 2009, S. 245-274. Zu ausgewählten (vor allem textbasierten) biographischen Erzählformen im Netz vgl. Britt-Marie Schuster: „Biographisches Erzählen und digitale Medien“. In: Christian Klein (Hrsg.): Handbuch Biographie. Methoden, Traditionen, Theorien. Stuttgart/Weimar 2009, S. 182-189. Zu audiovisuellen Erzählformen im Netz (am Beispiel von Webserien) vgl. Markus Kuhn: „Medienreflexives filmisches Erzählen im Internet: die Webserie PIETSHOW“. In: Rabbit Eye – Zeitschrift für Filmforschung, Nr. 001 (2010), S. 19-40, Online-Ressource [http://www. rabbiteye.de/2010/1/kuhn_erzaehlen_im_internet.pdf ]. Jan Henne/Markus Kuhn: „Die deutsche Webserien-Landschaft: eine Übersicht“. In: Jens Eder/Hans J. Wulff (Hrsg.): Medienwissenschaft / Hamburg: Berichte und Papiere 127 (2011), OnlineRessource [http://www1.uni-hamburg.de/Medien/berichte/arbeiten/0127_11.html] (Zugriff jeweils: 06.09.2011). Markus Kuhn: „Zwischen Kunst, Kommerz und Lokalkolorit: Der Einfluss der Medienumgebung auf die narrative Struktur von Webserien und Ansätze zu einer Klassifizierung“. In: Ansgar Nünning/Jan Rupp (Hrsg.): Narrative Genres im Internet: Theoretische Bezugsrahmen, Mediengattungstypologie und Funktionen. Trier [in Vorbereitung].

DIGITALES ERZÄHLEN?

185

Abb. 1: Kuhn, Markus: Digitale Gedichte, Serie 001, Nr. 010, Bestandteil einer Installation der Ausstellung Artbeatz, Mojo-Club, Hamburg, Juni 2001.

schichte zu sprechen, bleibt aller interpretatorischen Bemühungen zum Trotz zunächst fragwürdig. Um den Begriff des digitalen Erzählens zu umreißen, muss also zu allererst geklärt werden, was Erzählen ist. Ohne die vielfältigen Diskurse aufzuarbeiten, die die Narratologie bei dem Versuch gegangen ist, die Narrativität – also die spezifische Eigenschaft des Erzählerischen – zu bestimmen, soll in Kapitel 1 eine Arbeitsdefinition hergeleitet werden. In Kapitel 2 skizziere ich darauf aufbauend die soeben angedeuteten Dimensionen, die der Begriff des digitalen Erzählens impliziert, und greife aus diesem breiten Feld, das teilweise in anderen Artikeln dieses Bandes bearbeitet wird, einen Aspekt heraus, der erzähltheoretische Fragestellungen in ihrem Kern betrifft: digitale visuelle Effekte und ihre Funktionalisierung für die erzählerische und perspektivische Vermittlung von audiovisuell repräsentierten Geschichten (Kap. 3). Anhand einiger Beispiele werde ich dabei thematisieren, wie digitale Effekte der Narration dienen können und herausstellen, dass es sich bei dem oftmals zitierten Gegensatz zwischen Filmen, die mit digitalen visuellen Effekten und/oder analo-

186

MARKUS KUHN

gen special effects ‚überladen‘ sind, und Filmen, die ‚gut‘ erzählen, nicht um eine kategoriale Grenze handelt, maximal um eine normative Kategorie des Diskurses über Filme. Nachdem ich digitale visuelle Effekte in ihrer narrativen Funktionalisierbarkeit sozusagen ‚rehabilitiert‘ habe, werde ich sie in Kapitel 4 anhand der Möglichkeiten ihrer Funktionalisierung zur Introspektion, also zur Darstellung von figurenbezogenen Träumen, Phantasien, Rauschzuständen und Gefühlen, mit analogen Effekten vergleichen. Dabei werde ich der Hypothese nachgehen, dass es keine kategoriale Grenze gibt hinsichtlich der narrativen Funktionalisierbarkeit von digitalen und analogen Effekten. Abschließend möchte ich in Kapitel 5 fragen, ob es – auch wenn es keine kategoriale Grenze geben sollte – doch einige erzählerische Muster gibt, die sich eher für die narrative Funktionalisierung digitaler visueller Effekte eignen als andere. Ob man also doch von einem ‚digitalen Erzählkino der Zukunft‘ sprechen könnte – im Sinne einer Entwicklung, die durch den Einsatz digitaler Effekte vorangetrieben würde.

1. Zur transmedialen Definition der Narrativität Was ist Erzählen? Diese Frage ist eng an die Frage geknüpft, wann man von einer Geschichte sprechen kann, die erzählt wird. Traditionell und im Alltagssprachgebrauch wird der Begriff des Erzählens meist auf sprachliches Erzählen beschränkt. Nach einer Ankündigung wie ‚Ich erzähle Ihnen jetzt folgende Geschichte‘ erwartet man, dass jemand eine Geschichte sprachlich erzählt. Darüber hinaus wird der Begriff des Erzählens auf die Erzählliteratur oder die literarische Gattung der Epik bezogen: In Romanen, Novellen, Short Stories werden Geschichten durch Schriftsprache vermittelt. Mittlerweile dürfte aber als Konsens gelten, dass auch im Fall des Films von Erzählen gesprochen werden kann. Der Begriff des Erzählkinos ist kein rein wissenschaftlicher mehr – auch im Kulturjournalismus etwa wird von den großen Zeiten des Hollywood-Erzählkinos gesprochen, der Begriff des Plots bezeichnet auch im Alltagsgebrauch den Kern der gezeigten Geschichte und eine Formulierung wie ‚Der Film erzählt von …‘ findet sich in jeder dritten Filmrezension. Man kann also davon ausgehen, dass der Begriff des Erzählens heute nicht nur im wissenschaftlichen Diskurs in einem medienübergreifenden Sinn verwendet wird, dass Erzählen nicht nur das Erzählen mit und in der Sprache meint, sondern auch mit und in anderen Medien. Diese Erkenntnis sollte sich in der Definition niederschlagen, die in diesem Sinne als transmedial oder medienübergreifend zu bezeichnen wäre.

DIGITALES ERZÄHLEN?

187

Die Frage, wann von einer Geschichte gesprochen werden kann, die erzählt wird, und wann nicht, wann ein Text als narrativ zu bezeichnen ist und wann nicht, ist ein in der Erzähltheorie viel diskutiertes Feld, für das verschiedene Konzepte vorliegen.2 Mit dem Begriff der Narrativität wird die Eigenschaft des Erzählerischen bezeichnet. Das zugehörige Adjektiv ist narrativ. Ein Text, Film, Kunstwerk und Medienobjekt gilt als narrativ, wenn er oder es eine Geschichte repräsentiert. Damit ein medialer Text3 als narrativ gelten kann, muss also mindestens eine Geschichte repräsentiert werden. In vielen Ansätzen wird die Narrativität graduell aufgefasst, d. h. beispielsweise, dass es Texte und Medien gibt, die ein größeres narratives Potenzial aufweisen als andere. Ich folge grundsätzlich einer graduellen Vorstellung, auch wenn ich im Folgenden für eine weit gefasste Minimalbedingung einige distinkte Kriterien aufliste. Graduell ist das Phänomen der Narrativität schon allein wegen der Komplexität medialer Texte und der Tatsache, dass es kaum einen narrativen Text ohne deskriptive und ggf. weitere nicht-narrative Anteile gibt. Ein Segment des Textes gilt als narrativ, wenn es die Minimalbedingung der Narrativität erfüllt, ein Text, wenn ein Teil seiner Segmente narrativ ist. Wie groß dieser Anteil sein muss, damit er (insgesamt) als narrativer Text gilt, ist arbiträr und muss je nach Fragestellung definitorisch festgelegt werden.4 Davon abge2

3

4

Zur Definition der Narrativität vgl. u. a. Tom Kindt/Hans-Harald Müller (Hrsg.): What Is Narratology? Questions and Answers Regarding the Status of a Theory. Berlin/ New York 2003. Wolf Schmid: Elemente der Narratologie. Berlin/New York 2005, S. 11 ff. John Pier/José Ángel García Landa (Hrsg.): Theorizing Narrativity. Berlin/ New York 2008; darin insbesondere Gerald Prince: „Narrativehood, Narrativeness, Narrativity, Narratibility“. In: John Pier/José Ángel García Landa (Hrsg.): Theorizing Narrativity. Berlin/New York 2008, S. 19-27. Bezüglich der inter- bzw. transmedialen Dimension des Erzählens vgl. Werner Wolf: „Das Problem der Narrativität in Literatur, bildender Kunst und Musik. Ein Beitrag zu einer intermedialen Erzähltheorie“. In: Ansgar Nünning/Vera Nünning (Hrsg.): Erzähltheorie transgenerisch, intermedial, interdisziplinär. Trier 2002, S. 23-104. Markus Kuhn: Filmnarratologie. Ein erzähltheoretisches Analysemodell. Berlin/New York 2011, S. 47 ff. Markus Kuhn: „Narrativität transmedial: Von der sprachbasierten zur audiovisuellen Narratologie. Überlegungen zur medialen Reichweite der Narrativität“. In: John Bateman/Matthis Kepser/Markus Kuhn (Hrsg.): Film, Text, Kultur: Beiträge zur Textualität des Films. Marburg [in Vorbereitung]. Ich verwende im Folgenden den Begriff Text in einem transmedialen und umgreifenden Verständnis, unabhängig von Kategorien der Fiktionalität und Ästhetizität, sodass er sowohl kommerzielle Medienobjekte als auch Kunstwerke, sowohl sprachliche als auch andere Medientexte umfasst. Vgl. den transmedialen Textbegriff in John Bateman/Matthis Kepser/Markus Kuhn (Hrsg.): Film, Text, Kultur: Beiträge zur Textualität des Films. Marburg [in Vorbereitung]. Vgl. hierzu ausführlicher Kuhn: Filmnarratologie (wie Anm. 2), S. 47 f.

188

MARKUS KUHN

sehen kann diskutiert werden, ob es Medien mit größerem oder geringerem narrativen Potenzial gibt5 und ob das Phänomen der Narrativität an sich, also auch unabhängig von einer Segmentierung des Textes, ebenfalls als graduell aufzufassen ist6, z. B. wenn man es an das Konzept der Ereignishaftigkeit7 oder Erfahrungshaftigkeit8 bindet. Ich wähle im Folgenden eine transmediale, auf verschiedene Medien anwendbare Arbeitsdefinition der Narrativität, die sich grob an den Definitionen von Wolf Schmid9, Gerald Prince10, Seymour Chatman11 und an eigenen Vorschlägen12 orientiert. Voraussetzung sämtlicher narratologischer Betrachtungen des Erzählens ist die modelllogische Differenzierung eines Repräsentierten oder Dargestellten von einem Repräsentierenden oder Darstellenden, eines ‚Was‘ von einem ‚Wie‘, eines Erzählten von einem Erzählen. In der Narratologie haben sich für diese semiotisch grundierte Differenzierung verschiedene Nomenklaturen herausgebildet, am bekanntesten wohl die Unterscheidung einer histoire (eng. story; dt. Geschichte) von einem discours/récit (eng. discourse; dt. Erzählung).13 Entsprechend dieser Differenzierung gibt es Definitionen der Narrativität, die sich vor allem auf die Seite des Dargestellten (also die histoire) beziehen, solche, die sich vor allem auf die Seite der Darstellung (also den discours) beziehen, sowie kombinatorische Definitionen. Wie Chatman wähle ich an dieser Stelle eine ‚zweigleisige‘ Definition14, die sich auf beide Seiten bezieht. Auf Seite des Dargestellten lassen sich folgende Aspekte als Minimalbedingungen einer Geschichte auflisten: 5 6 7 8 9 10

11 12 13 14

Vgl. Wolf: „Das Problem“ (wie Anm. 2). Kuhn: Filmnarratologie (wie Anm. 2), S. 53 f. Vgl. u. a. Prince: „Narrativehood“ (wie Anm. 2). Vgl. Schmid: Elemente (wie Anm. 2), S. 20 ff. Vgl. Monika Fludernik: Towards a ‚Natural‘ Narratology. London/New York 1996. Schmid: Elemente (wie Anm. 2), S. 11 ff. Gerald Prince: A Dictionary of Narratology, rev. edit. Lincoln [u. a.] 2003, S. 58 ff. Gerald Prince: „Narrativity“. In: David Herman/Manfred Jahn/Marie-Laure Ryan (Hrsg.): Routledge Encyclopedia of Narrative Theory, London/New York 2005, S. 387-388. Und Prince: „Narrativehood“ (wie Anm. 2). Seymour Chatman: Coming to Terms. The Rhetoric of Narrative in Fiction and Film. Ithaca [u. a.] 1990, S. 6 ff., 109 ff. Kuhn: Filmnarratologie (wie Anm. 2), S. 47-61; Kuhn: „Narrativität“ (wie Anm. 2). Zu den verschiedenen Terminologien vgl. Matías Martínez/Michael Scheffel: Einführung in die Erzähltheorie. München 1999, S. 25 f. Chatman betont die doppelte Chronologie einer Narration und bezieht sich somit auf die histoire (erzählte Zeit) und den discours (Erzählzeit); vgl. Chatman: Coming (wie Anm. 11), S. 9, 114.

DIGITALES ERZÄHLEN?

189

– Eine Zustandsveränderung (mit einem gewissen Ereigniswert im unmittelbaren Werkkontext). – Eine Figur/ein Figurant/ein Objekt15, die/der/das die Zustandsveränderung aktiv bewirkt (Handlung) oder passiv erleidet (Vorkommnis/ Geschehen). Also ein Subjekt, das eine Handlung – z. B. einen Mord – vollführt oder ein Objekt, das einem Vorkommnis/Geschehen – z. B. einem Erdbeben – ausgesetzt ist. – Die Zustandsveränderung impliziert eine Zeitdimension, ein ‚∆ t‘. Das heißt, eine Geschichte hat eine Zeitachse. Es gibt einen Zustand vor der Veränderung/dem Ereignis (t0) und einen Zustand nach der Veränderung (tn), einen Ausgangs- und einen Endzustand, sowie die temporale Dauer der Veränderung (∆ t = tn – t0). – Neben der notwendigen Zustandsveränderung, also der Veränderungstatsache, muss es Begleitumstände geben, die konstant bleiben, damit überhaupt erkennbar ist, dass es um ein und dasselbe Subjekt/Objekt der Zustandsveränderung und um ein und dasselbe setting geht. – Der Figurant ist in den meisten Fällen eine menschliche oder menschenähnliche Figur. Bei Figuren aus dem Tierreich (z. B. in der Fabel), bei technischen Figuranten (z. B. Robotern) oder abstrakten Figuranten (z. B. „das kleine Blau“ in dem Kinderbuch Das kleine Blau und das kleine Gelb16) wird der Figurant zumindest bis zu einem bestimmten Grad personifiziert und anthropomorphisiert, d. h. er bekommt durch je spezifische Stilmittel metaphorisch menschenähnliche Eigenschaften zugeschrieben. Aufbauend auf diesen medienübergreifend gültigen Minimalbedingungen einer Geschichte kann nun der Begriff der Erzählung, des Erzählens bzw. der erzählerischen/narrativen Vermittlung bestimmt werden: – Eine Erzählung bzw. ein narratives Werk ist die Repräsentation oder Vermittlung (mindestens) einer Geschichte (das ist mindestens eine Zustandsveränderung, die die genannten Minimalbedingungen erfüllt) in einem bestimmten Medium durch ein beliebiges Zeichensys15

16

Mit dem Begriff Figurant soll betont werden, dass es sich nicht nur um eine ‚vollwertige‘ (Haupt-)Figur, sondern auch um eine Nebenfigur, eine rein funktionale Figur, eine kollektive Figurengruppe (kollektiver Figurant) oder einen personifizierten Gegenstand handeln kann. Auch ein unbelebtes Objekt, z. B. ein Haus, das in einem Erdbeben einstürzt, kann Figurant einer Geschichte sein. Engere Definitionen fordern ein menschliches oder menschenähnliches Subjekt. Entscheidend für die vorliegende Definition ist eine erkennbare Kontinuität des Figuranten im Verlauf der Zustandsveränderung. Leo Lionni: Das kleine Blau und das kleine Gelb. Hamburg 1962.

190

MARKUS KUHN

tem, d. h. sprachlich, visuell, auditiv, audiovisuell oder in Kombination verschiedener Zeichensysteme.17 Modelllogisch (im Sinne eines Kommunikationsmodells narrativer Texte) kann die Erzählung einer (oder mehreren) nicht-anthropomorph zu verstehenden narrativen Instanz(en)/ Erzählinstanz(en) zugeschrieben werden.18 – Der Prozess der Erzählung bzw. der narrativen Vermittlung (durch eine oder mehrere narrative Instanz(en)), selektiert, gliedert, perspektiviert, temporalisiert und moduliert die Geschichte.19 Beim audiovisuellen Erzählen sind die Parameter, die gewöhnlich unter den Begriffen Kamera und Montage gefasst werden, entscheidend für den Prozess der narrativen Vermittlung der Geschichte, aber auch Elemente der Miseen-scène, der Bildästhetik, die auditive Ebene und – wie noch zu zeigen sein wird – digitale visuelle Effekte können der narrativen Vermittlung dienen.20 – Auch die Erzählung hat eine Zeitdimension. Es gibt einen Startzeitpunkt (tstart) und einen Endzeitpunkt (tend) der Erzählung sowie eine Dauer der Erzählung (Erzählzeit = tend – tstart). Die Zeit der Erzählung (Erzählzeit) muss nicht der Zeit der repräsentierten Geschichte (der erzählten Zeit) entsprechen.21 Zusammengefasst muss von einer Geschichte also – sprachlich, visuell, auditiv, multimodal oder audiovisuell – mindestens repräsentiert sein: 1.) Ein Ausgangszustand – also ein Zustand vor der Zustandsveränderung bzw. dem Ereignis – und 2.) ein Endzustand, also ein Zustand nach der Veränderung. Der Grund der Veränderung selbst kann, muss aber nicht explizit repräsentiert sein, ebenso wenig die Veränderung selbst.22 Das heißt, die Einstellungsfolge ‚ein stehendes Hochhaus, ein eingestürztes Hochhaus‘ würde man als visuelle Darstellung von ‚Ein Hochhaus ist eingestürzt‘ auffassen, wenn es genügend Signale gibt, die anzeigen, dass es sich um dasselbe Haus handelt.23 Der Grund, warum das Haus eingestürzt ist, muss

17 18 19 20 21 22 23

Vgl. Kuhn: Filmnarratologie (wie Anm. 2), S.55. Vgl. ebd., S. 55 f., S. 81 ff. Vgl. ebd., S. 72 ff. Vgl. ebd., S. 73 ff., S. 87 ff. Vgl. ebd. S. 195. Vgl. Schmid: Elemente (wie Anm. 2), S. 14 f. Kuhn: Filmnarratologie (wie Anm. 2), S. 59 ff. Vgl. Schmid: Elemente (wie Anm. 2), S. 13. Kuhn: Filmnarratologie (wie Anm. 2), S. 58 f.

DIGITALES ERZÄHLEN?

191

nicht explizit repräsentiert sein, lässt sich in den meisten Geschichten aber aufgrund des Kontexts rekonstruieren.24 Ich fixiere mich mit meiner Arbeitsdefinition hier also auf die Zeitachse bzw. die doppelte Zeitdimension, die im Mittelpunkt von Chatmans Definition steht.25 Eine derartige Definition schließt einige Medien aus: z. B. das Monophasen-Einzelbild der bildenden Kunst oder eine Skulptur. Bilder haben keine Zeitdimension, erst der Rezeptionsakt gibt ihnen eine Zeitdimension. Deshalb spreche ich in diesem Fall – mit einem von Werner Wolf entlehnten26, aber geringfügig modifizierten Begriff – von narrationsindizierend, also sozusagen ‚geschichtsandeutend‘. Das heißt, Bilder sind nicht narrativ, können aber eine Narration suggerieren, also die Vorstellung einer Narration beim Rezipienten im Wahrnehmungs- und Verstehensprozess auslösen. Es ist der Rezipient, der ihnen in seiner Vorstellung erst eine Zeitdimension gibt. Die Repräsentation selbst, also das Bild, zeigt nur einen einzigen Zeitpunkt tx, keine zeitliche Ausdehnung ∆ t, keinen Anfangs- und Endzustand. Es handelt sich hierbei ebenfalls um ein graduelles Phänomen. Das eine Bild, die eine Skulptur kann den Rezipienten eher zum Erkennen einer Geschichte anregen als ein anderes/eine andere. Die Grenze zwischen narrativ, narrationsindizierend und nicht-narrativ ist keine absolute. Je nach Erkenntnisinteresse kann man die Narrativität und grundlegend die Bedingungen einer Minimalgeschichte anders definieren und so andere Medien mit erfassen oder ausschließen. Deshalb spricht man in der Erzählforschung auch von weiten oder engen Definitionen der Narrativität.27 Weite Definitionen umfassen viele Medien und Fälle, enge weniger. Die von mir gewählte Definition ist eine relativ weite, die der Tatsache entspricht, dass wir tagtäglich in verschiedensten Medien von Erzählungen umgeben sind, dass Erzählen ein universelles Phänomen ist, die aber zugleich nicht so weit ist, dass alle Medien und Formen umfasst würden. Zu weite Definitionen sind problematisch, weil sie beinahe alle zeichenhaften Repräsentationen als Erzählung definieren, somit keine Distinktion mehr ermöglichen und nur schwer für eine Methode operationalisierbar sind. Eine Geschichte, wie sie in der Literatur, dem Kino und selbst dem Alltagsgespräch vorkommt, besteht aus einer Kette von Ereignissen, die 24 25 26 27

Vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 59 ff. Chatman: Coming (wie Anm. 11), S. 9. Wolf: „Das Problem“ (wie Anm. 2). Vgl. Schmid: Elemente (wie Anm. 2), S. 13 ff. Kuhn: Filmnarratologie (wie Anm. 2), S. 55 ff.

192

MARKUS KUHN

notwendig in einem temporalen Verhältnis zueinander stehen und meist auch in einem kausalen, das implizit angedeutet oder explizit dargestellt sein kann. Spielfilme, Romane, Novellen, Graphic Novels, Webserien etc. repräsentieren Geschichten, die deutlich komplexer sind als die soeben definierte Minimalgeschichte. Die Vorstellung von den Grundbedingungen einer Geschichte hilft jedoch, Formen des Erzählens in ihrer Grundstruktur zu erfassen und zu analysieren: Jedes Stilmittel, das eine Minimalgeschichte repräsentiert, kann als narrativ gelten; jedem Effekt, der die Repräsentation einer Geschichte unterstützt oder dazu beiträgt, eine Repräsentation als Narration aufzufassen, kann eine narrationsunterstützende oder narrationsindizierende Funktion zugeschrieben werden; sowie jedem Stilmittel, das die Repräsentation eines Minimalereignisses oder einer Ereigniskette perspektiviert, d. h. ins Verhältnis zu den Figuren oder Instanzen einer Erzählung setzt, eine perspektivierende Funktion zugeschrieben werden kann. Und jedem Effekt, der die Zeitmodulation der Erzählung im Verhältnis zu der Zeit der Geschichte bedingt, eine zeitmodulierende. All diese Funktionen können in einem weit gefassten Sinn als Funktionalisierungen der jeweiligen Mittel und Effekte für die narrative Vermittlung einer Geschichte aufgefasst werden. Denn die narrative Vermittlung, die mit einem Instanzenmodell erfasst werden kann, zeigt sich in der selektierenden, narrationsindizierenden, gliedernden, perspektivierenden und zeitmodulierenden Vermittlung der Geschichte.28

2. Digitales (audiovisuelles) Erzählen – zu den Dimensionen des Begriffs Aufbauend auf einer transmedial orientierten Arbeitsdefinition des Erzählens möchte ich nun nochmals die Frage aufwerfen, was digitales audiovisuelles Erzählen sein könnte. Da man zur Beantwortung dieser Frage auf verschiedenen Ebenen ansetzen kann, spreche ich von den Dimensionen des Begriffs. Der Begriff des digitalen audiovisuellen Erzählens kann unter anderem bezogen werden auf: a) (Audiovisuelle) Erzählungen, die mit digitalen Techniken aufgezeichnet/gefilmt/hergestellt werden; z. B. a1) die Aufnahme (und Aufzeichnung) eines narrativen Spielfilms mit digitalen Kameratechniken, also

28

Vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 72 ff., 87 ff.

DIGITALES ERZÄHLEN?

b)

c) d) e) f) g)

29

30

193

der ‚digitale Filmdreh‘; oder a2) die Herstellung eines narrativen (Animations-)Films durch computergenerierte digitale Bilder.29 (Audiovisuelle) Erzählungen, die digital gespeichert werden (beim digitalen Filmdreh sind die digitale Aufnahme mit digitalen Kameras (a1) und die digitale Speicherung auf Festplatten in der Regel prozessual verbunden; digital generierte Filmbilder (a2) werden automatisch digital gespeichert). (Audiovisuelle) Erzählungen, die digital übertragen und/oder vervielfältigt werden. (Audiovisuelle) Erzählungen, die digital ausgestrahlt oder projiziert werden und in dieser Form rezipiert werden. (Audiovisuelle) Erzählungen, die ein digitales Prinzip aufweisen. (Audiovisuelle) Erzählungen in den sogenannten digitalen Medien, die häufig, aber nicht ausschließlich durch ein gewisses bis hohes Maß an Interaktivität gekennzeichnet sind. (Audiovisuelle) Erzählungen, deren narrative Struktur (auf histoire- und /oder discours-Ebene) durch digitale Mittel, Techniken und Effekte unterstützt/konturiert/geschaffen wird; d. h. narrative Filme, denen im Nachhinein digitale computergenerierte Bilder (computer generated images; CGI) oder Elemente und Effekte (beim sog. Compositing) hinzugefügt werden oder deren Bilder im Nachhinein anderweitig digital bearbeitet werden.30

Zu einer genauen Aufschlüsselung der Möglichkeiten der Herstellung und Bearbeitung digitaler Bilder vgl. Barbara Flückiger: Visual Effects. Filmbilder aus dem Computer. Marburg 2008, u. a. S. 31 ff. Zu den Begriffen vgl. Flückiger: Visual (wie Anm. 29), S. 31 f. sowie im Glossar (ebd., S. 502 ff.). Für alle Möglichkeiten der nachträglichen Bildbearbeitung bietet sich der Begriff Bildbearbeitung (image processing) an (vgl. ebd., S. 32), den Flückiger für ihre Zwecke jedoch weiter ausdifferenziert (ebd., S. 31 ff.). Wenn ich im Folgenden von digitalen Effekten oder digitalen visuellen Effekten spreche, meine ich in der Regel die Prozesse nachträglicher digitaler Bildbearbeitung oder die nachträgliche Integration von digital generierten Elementen und Bildern. Nicht unmittelbar berücksichtigt sind in dieser Liste audiovisuelle Erzählungen, die Bestandteil von Computerspielen sind, die sich als Sonderfall von (a/a2) einordnen ließen, weil sie i. d. R. von einem Computerprogramm generiert werden – ob unbeeinflusst vom Akt des Spielens und vor dem Moment des Spielens festgelegt wie in nicht-interaktiven cut scenes oder im Moment des Spielens beeinflusst wie in nicht-prädeterminierten audiovisuellen interaktiven Simulationen (wenn diese als narrativ oder narrationsindizierend eingeordnet werden können) –, die aber auch eine Nähe zu Punkt (f ) haben, wenn man Interaktivität wie z. B. Ryan als fundamentalen Aspekt der digitalen Medien betrachtet (vgl. Ryan: „Will New Media“ (wie Anm. 1), S. 338).

194

MARKUS KUHN

Gerade bezüglich des Films bzw. des audiovisuellen Erzählens können alle Dimensionen dieser als offen zu verstehenden Liste diskutiert werden (auch bezüglich schriftsprachlichen und auditiv-sprachlichen Erzählens, was hier allerdings nicht weiterverfolgt wird).31 Auf die Möglichkeit etwa, einen narrativen Film digital zu produzieren (d. h. mit digitalen Kameras zu filmen (a) und digital zu speichern (b)), digital zu übertragen oder zu vervielfältigen (c), digital auszustrahlen und als digitales Produkt zu rezipieren (d), hatte ich schon verwiesen. In diesem Sinne ist digitales Erzählen selbstverständlich möglich. Die Frage (e) nach dem digitalen Prinzip – also einfach gefasst, ob mit einem binären Code aus Nullen und Einsen erzählt werden kann – klammere ich aus, weil ich mich damit einem tendenziell experimentellen und avantgardistischen Feld der Film- und Videokunst widmen müsste, das keine unmittelbare Relevanz für das klassische Erzählkino hat. Auch die audiovisuelle Repräsentation digitaler Codes kann – so meine Vermutung an dieser Stelle – höchstens eine nar31

Bezüglich sprachlichen Erzählens wäre allerdings zu fragen, ob Punkt (g) tatsächlich übertragbar wäre: Gibt es sprachliche Erzählungen, in denen digitale Effekte die Narration unterstützen oder perspektivieren? Auf dem Feld des auditiven sprachlichen Erzählens gäbe es sicherlich Sound- und Stimmmodulationseffekte, die derartige Funktionen übernehmen könnten, die auf das Feld des Schriftsprachlichen allerdings nicht übertragbar wären. Bezüglich des audiovisuellen Erzählens, um das es hier zentral geht, ist wiederum zu bedenken, dass Aspekt (g) nicht vollkommen von Aspekt (a) zu trennen ist. Allerdings ist mit (a1) gemeint, dass Filme mit digitaler Kameratechnik aufgenommen und sogleich ohne Wandlung digital gespeichert (b) werden können. Bei (g) geht es um – zumeist in der Postproduktion realisierte – digitale Mittel, die unabhängig von der Aufnahme des gesamten Films mit digitaler oder analoger Technik hinzugefügt werden können (oft aber schon im Produktionsprozess geplant und berücksichtigt werden). Bei Filmen, die mit einer digitalen Kamera aufgenommen werden, gibt es wie bei Filmen, die mit analogen Kameras gefilmt werden, etwas ‚Aufzuzeichnendes‘ vor der Kamera (ob zum Zweck des Films arrangiert oder zufällig erfasst); digitale computergenerierte Bilder (CGI) kommen in der Regel ohne Aufzuzeichnendes zustande bzw. stehen nicht in einem derart unmittelbaren Abbildungsverhältnis. In meinen Betrachtungen geht es – wie in den meisten narratologischen Filmstudien – letztlich nicht um den tatsächlichen Produktionsprozess, sondern um die im Werk erkennbaren und analytisch nachweisbaren Spuren bzw. die Rezeption derselben durch die Zuschauer. Dass viele digitale Effekte nicht von analogen unterschieden werden können, wird im Laufe des Beitrags thematisiert. Ob und wie digitale Effekte erkannt werden, ob und wie sich digitale Effekte abgrenzen lassen, wird in anderen Beiträgen des Bandes diskutiert und hier nur am Rande betrachtet. Handelt es sich um einen computergenerierten Animationsfilm (a2), ist eine Unterscheidung dieser Gruppe von Aspekt (g) obsolet, weil mit dem gesamten Animationsfilm auch die narrative Struktur des Films durch digitale Techniken hervorgebracht wird und keine systematische Unterscheidung von Produktion und Post-Produktion mehr getroffen werden kann.

DIGITALES ERZÄHLEN?

195

rationsindizierende Funktion haben, wie ich sie anhand des in der Einleitung betrachteten digitalen Gedichts (vgl. Abb. 1) bezüglich der graphischen Repräsentation von binären Codes angedeutet habe. Die Frage (f ) nach audiovisuellen Erzählungen in den digitalen Medien eröffnet ein höchstinteressantes Forschungsfeld, das bezüglich sprachbasierter und interaktiver Erzählformen bisher häufiger betrachtet worden ist als bezüglich audiovisueller Erzählformen. Es betrifft Fragen nach filmischen und audiovisuellen Formen und Formaten im Netz und in anderen digitalen Medien primär, den Kino(spiel)film eher sekundär, z. B. hinsichtlich der Fragen nach dem Einfluss der Zweitauswertung von Kinofilmen im Netz und auf DVD auf deren Produktion, nach den veränderten dispositiven Konstellationen bei der Rezeption eines Kinofilms im Netz, nach dem Einfluss der medialen Rahmung auf die Wahrnehmung und Aneignung eines Films im Netz etc.32 Aus Punkt (g) ergibt sich ein im Fall des Kino(spiel)films interessantes und viele Fragen aufwerfendes Problemfeld, das den Prozess audiovisuellen Erzählens in seinem Kern betrifft und im Folgenden näher betrachtet werden soll. Wenn es um filmische Erzählungen geht, die durch digitale visuelle Effekte unterstützt werden, lässt sich fragen, wie diese Effekte für die audiovisuelle Erzählung des Films eingesetzt und funktionalisiert werden.33 Zuallererst muss jedoch geklärt werden, was in diesem Zusammenhang unter digitalen visuellen Effekten verstanden werden kann. Shilo T. McClean, der in seinem Buch Digital Storytelling34 die Möglichkeiten der Einbettung digitaler visueller Effekte (bei ihm als „DVFx“ abgekürzt) im Erzählkino auslotet, umreißt das Feld seiner Beschäftigung mit „image creation using DVFx“.35 Er verweist darauf, dass der Einsatz digitaler Effekte in der postproduction zunehmend auch in der preproduction und production vorbereitet werden muss.36 Ohne eine klare Definition zu liefern, was er genau unter digitalen visuellen Effekten versteht, untersucht er 32

33

34 35 36

Zu Erzählformen in den digitalen Medien vgl. die in Anm. 1 gegebenen Literaturhinweise. Es handelt sich hierbei um eine höchst relevante Dimension des ‚digitalen Erzählens‘, auch des ‚digitalen audiovisuellen Erzählens‘, die hier jedoch nicht weiterverfolgt wird. Produktionstechnisch betrachtet geht es in den meisten Fällen, in denen digitale visuelle Effekte eingesetzt werden, um Effekte, die erst im Nachhinein, also in der Postproduktion ‚hinzugefügt‘ werden, die aber teilweise schon in der Produktionsplanung und der Produktion vorbereitet werden (s. u.). Shilo T. McClean: Digital Storytelling. The Narrative Power of Visual Effects in Film. Cambridge, MA/London 2007. McClean: Digital (wie Anm. 34), S. 9. Vgl. ebd.

196

MARKUS KUHN

Techniken wie „virtual camera moves“, „digital lighting“, „synthetic realities“, „full CG imagery of photoreal standard“, „motion capture of performances“, „CG characters“ und „morphing“ („CG“ steht bei McClean für „computer generated“).37 Auf die grundsätzliche Schwierigkeit, die Begriffe special effects und visual effects zu definieren, verweist Barbara Flückiger in ihrem Buch Visual Effects.38 Um dessen ungeachtet eine Übersicht zu liefern, bietet sie ein Ordnungssystem für special effects an, für das sie auf erster Differenzierungsebene die Grobeinteilung „vor der Kamera“, „in der Kamera“ und „in der Postproduktion“ verwendet.39 Aus dem breiten Feld der special effects greift sie das schmalere Feld der visual effects („VFX“) heraus40, das sie im Glossar auf folgende Formel verdichtet: „digitale Verfahren der Bilderzeugung, sogenannte computergenerierte Bilder (computer generated imagery, kurz CGI), sowie digitale Verfahren der Bildbearbeitung wie Compositing und Imageprocessing, wobei auch Wandermasken, Motion-Control-Aufnahmen und digitale Matte Paintings eingeschlossen sind“.41 Auch wenn sie von visual effects (ohne den Zusatz digital) spricht, fasst sie unter dem Begriff also größtenteils digitale Effekte, sodass ich mich an ihrer Arbeitsdefinition orientieren kann. Sie schlägt ein übersichtliches Ordnungssystem vor, verweist aber auch auf die problematische Abgrenzung der Kategorien und darauf, dass sich viele Prozesse digitaler Bildbearbeitung „über mehrere Phasen der Filmproduktion“ erstrecken.42 Ich beschränke mich im Folgenden also auf audiovisuelle Formen des Erzählens mit bewegten Bildern und klammere rein sprachliche und graphische ebenso wie interaktive Formen des Erzählens aus. Ich konzentriere mich auf die Frage, wie in einem Kino(spiel)film – ob mit digitalen oder analogen Kameras aufgenommen, ob auf digitalem oder analogem Datenträger zwischengespeichert, ob digital oder analog projiziert/ausgestrahlt – digitale visuelle Effekte, die meist im Postproduktionsprozess generiert und hinzugefügt werden, in den Dienst der filmischen Narration gestellt werden können. Hierbei kann man der analytischen Differenzierung der Erzähltheorie von histoire und discours entsprechend grob zwei Felder unterscheiden:

37 38 39 40 41 42

Ebd., S. 46 ff. Vgl. Flückiger: Visual (wie Anm. 29), S. 22 ff. Ebd. S. 23 f. Vgl. ebd., S. 25. Ebd., S. 520 [Hervorhebungen im Original; Verweise auf andere Lemmata des Glossars wurden nicht mitzitiert]. Ebd., S. 24 f.

DIGITALES ERZÄHLEN?

197

I)

Auf der Ebene der erzählten Welt (histoire) können digitale Effekte eingesetzt werden, um die erzählte Welt bzw. die Diegese auszugestalten, um, wenn es die Werkästhetik verlangt, beispielsweise eine photorealistische Storywold zu modulieren. II) Auf der Ebene der Erzählung und des Erzählens (discours) können digitale Effekte eingesetzt werden, um die narrative Vermittlung, Selektion, Gliederung, Zeitmodulation und Perspektivierung zu unterstützen. Als Untergruppen von I) können Aspekte gezählt werden, die teilweise in anderen Beiträgen dieses Bandes thematisiert werden, etwa: I1) Digitale Effekte, die zur Hervorbringung und charakterisierenden Gestaltung von Figuren eingesetzt werden.43 I2) Digitale Effekte, die zur Ausgestaltung des diegetischen Raums, z. B. von Architekturen und Landschaften eingesetzt werden. Außerdem könnte man quer zu diesen Untergruppen die Unterscheidung einführen von i) digitalen Effekten, die unauffällig oder zurückhaltend eingebettet werden mit dem Ideal der Nicht-Sichtbarkeit, und ii) solchen, die auffällig eingebettet werden und als Effekte wahrgenommen werden sollen, denen also ein Hang zum ‚Spektakulären‘ zuzuschreiben ist.44 Viele der digitalen visuellen Effekte, die zur Modulation einer photorealistischen Diegese eingesetzt werden, können als unsichtbare oder zurückhaltende Effekte gelten (i), d. h., sie sind so gestaltet, dass sie idealerweise nicht oder kaum wahrgenommen werden. Zu dieser Gruppe zählen auch viele der Effekte, die eingesetzt werden, um Fehler im konventionellen Produktionsprozess auszugleichen (digital fix45), z. B. Fehler der Anschlussfähigkeit durch Wetterwechsel beim Filmdreh oder ein Schild, das versehentlich ins Filmbild geraten ist und herausgerechnet werden muss.

43 44

45

Vgl. dazu in diesem Band die Beiträge von Barbara Flückiger, Jens Eder/Jan-Noël Thon Auch bei dieser Differenzierung muss von einer graduellen Abstufung ausgegangen werden, d. h., zwischen sichtbar und nicht-sichtbar müssen verschiedene exemplarische Zwischenstufen angenommen werden. McClean greift beispielsweise auf folgende acht Gruppen zurück, die er anhand verschiedener Merkmale auf unterschiedlichen Ebenen und nicht nur, aber auch anhand der Sichtbarkeit festmacht (ansonsten z. B. auch bezüglich ihrer Funktion auf Ebene der histoire): „Documentary“, „Invisible“, „Seamless“, „Exaggerated“, „Fantastical“, „Surrealist“, „New Traditionalist“ und „HyperRealist“ (vgl. McClean: Digital (wie Anm. 34), S. 73 ff.). Vgl. McClean: Digital (wie Anm. 34), S. 43.

198

MARKUS KUHN

Viele digitale Effekte, die eingesetzt werden, um die Diegese auszugestalten, sind in ihrer Funktion nicht von herkömmlichen analogen Mitteln und Effekten zu unterscheiden. Wenn z. B. die Lichtverhältnisse digital verändert werden, ist das oft nicht von der Lichtgestaltung am Set zu differenzieren. Dazu zählen auch sogenannte set extensions wie z. B. computer generated crowd replication, also das Vervielfältigen einer Menschenmenge oder das Vergrößern eines Raums oder einer Landschaft, wobei sich hieran zugleich recht anschaulich zeigen lässt, dass es keine eindeutige Grenze dieser Effekte gibt zu den digitalen Effekten, die auffallen sollen. Schon bei der computergenerierten Vergrößerung einer Armee wie in Alexander (Oliver Stone, USA/GB/Deutschland 2004) oder einer Flottenarmada wie in Troy (Wolfgang Petersen, USA 2004) stellt sich die Frage, inwieweit diese digital realisierten Effekte trotz ihrer photorealistischen Qualitäten angesichts ihrer emphatischen Erhabenheit, ihrer überwältigenden Überdimensionierung nicht doch als noch nie dagewesen, als grandios auffallen sollen. Bei Phantasiefiguren wie den Na’vi oder den Tieren im Reich der Na’vi in Avatar (James Cameron, USA 2009) gibt es eine noch offensichtlichere Ambivalenz: Einerseits sind sie so realistisch, so logisch und erfahrungshaft für das menschliche Auffassungsund Wissensvermögen gestaltet wie möglich, andererseits führen sie dem Zuschauer, der in der Regel weiß, dass es derartige Lebewesen in der Realität nicht gibt, immer auch ihre artifizielle Qualität vor, im Sinne eines ‚Schaut-her-was-die-Filmtechnik-hier-wieder-alles-geleistet-hat‘.46 Im Folgenden soll es nun aber um die Funktionalisierung digitaler Effekte für die narrative Vermittlung (II) gehen.

3. Die Funktionalisierung digitaler Effekte für die narrative Vermittlung und Perspektivierung am Beispiel von Le fabuleux destin d’Amélie Poulain Dass ich davon ausgehe, dass digitale visuelle Effekte keinen Gegenpart zum audiovisuellen Erzählen im Kino bilden, habe ich bereits angedeutet. Dass ich auch keinen engeren Zusammenhang sehe zwischen dem Rückgriff auf möglichst viele digitale Effekte und einer notwendig unterkomplex erzählten Geschichte, möchte ich noch einmal betonen: Ja, digitale Effekte können dem Spektakel dienen, sie können eingesetzt werden, um zu kompensieren, dass eine Geschichte inkonsequent konstruiert und un46

Vgl. in diesem Band Barbara Flückiger, Jens Eder/Jan-Noël Thon

DIGITALES ERZÄHLEN?

199

logisch aufgebaut ist, dass eine Figurenentwicklung psychologisch kaum nachvollziehbar, ein Plot klischeelastig ist, aber sie können ebenso in einer komplex erzählten Geschichte eingesetzt werden. McClean, der in seinem interessanten, aber erzähltheoretisch kaum reflektierten Buch Digital Storytelling Vorurteile von Wissenschaftlern und Filmkritikern gegenüber digitalen visuellen Effekten (etwa die Behauptung, dass sich digitale visuelle Effekte und gutes Erzählkino ausschließen würden) als Ausgangspunkt nimmt, um diese anhand vieler Beispiele auszuräumen47, kommt zu der Erkenntnis: Critical commentary on the use of effects usually focuses on its spectacularity and asserts that DVFx stop the narrative in order to draw attention to the technology that created them in order to comment on technology itself. While there is a long tradition of using effects as spectacle in narratives that have inherent thematic ties to technology (such as in science fiction), this is not always the case. In some instances, DVFx work both spectacularly and narratively […], and displays of technology do not always have spectacular value or thematic resonance when, for example, they simply work as the props of everyday life.48

Letztlich setzt sich anhand digitaler visueller Effekte eine Diskussion fort, die anhand verschiedener digitaler und nicht-digitaler special effects bereits geführt wurde. Schuld am ‚schlechten Ruf‘ visueller Effekte sind in diesem Diskurs die Blockbuster, die eine einsträngige, zumeist absehbare Geschichte mit holzschnittartigen guten und bösen Figuren verwendet haben, um ein Spektakel visueller Effekte zu entzünden, ob früher analog (z. B. Jason and the Argonauts, Don Chaffey, USA 1963; Moonraker, Lewis Gilbert, GB/Frankreich 1979; Clash of the Titans, Desmond Davis, USA 1981; Die Hard, John McTiernan, USA 1988) oder heute digital (Armaged47

48

Vgl. McClean: Digital (wie Anm. 34). McCleans Buch bietet einen umgreifenden Überblick, arbeitet aber mit unpräzisen Definitionen, geht insgesamt zu eklektizistisch vor und blendet relevante Wissenschaftsdiskurse für die im Buch behandelten Fragestellungen aus – wie McClean selbst zugibt: „Similarly, the case studies in this book do not take up many of the wider issues of narrative theory, reception theory, psycho-sociological theory, philosophy, and others that might be pursued valuably by theorists considering the impacts of DVFx“ (ebd., S. 2). Seine Reflexionen über die „narrative power of visual effects in film“ orientieren sich an der bei ihm letztlich normativ belasteten Kategorie der „storycraft“. Er rekurriert zu oft auf die Intentionen und Erörterungen von Regisseuren, um eine konsequente werkanalytische Position einnehmen zu können. Dessen ungeachtet versammelt er eine Vielzahl von Beispielen, die einen ersten Einblick in verschiedene Formen und Möglichkeiten des Einsatzes digitaler visueller Effekte im zeitgenössischen Kino liefern. McClean: Digital (wie Anm. 34), S. 218 [Hervorhebungen im Original].

200

MARKUS KUHN

don, Michael Bay, USA 1998; Godzilla, Roland Emmerich, USA 1998; Transformers, Michael Bay, USA 2007; TRON: Legacy, Joseph Kosinski, USA 2010).49 Analytisch betrachtet ist jedoch klar, dass hier kein notwendiger Zusammenhang nach einer zugespitzten Formel wie ‚je mehr visuelle Effekte, desto schlechter die filmische Erzählung‘ besteht. McClean resümiert diesbezüglich: Does using digital visual effects undermine classical storytelling structure? No, it does not. Bad storytelling undermines classical storytelling structure, and when DVFx are used in these kind of scripts, even when they are of a very high technical standard, they usually seem a very expensive way to fill the screen in what are otherwise badly conceived projects. Are digital effects being used as a substitute for story? The examples in this book show that some narrative premise is attached to almost any movie. Admittedly, many of these premises have been weak and poorly sustained by their story structures. Some films do feel like an endless series of car chases, fight scenes, or effects sequences. Yet, as overworked as these elements may be, they are presented within a “story“ that attempts to justify the fights, chases, and effects.50

Ein analytischer Blick auf den Film Le fabuleux destin d’Amélie Poulain (Jean-Pierre Jeunet, Frankreich 2001) soll nun zeigen, wie Erzählstruktur und analoge und digitale visuelle Effekte ineinander greifen. Der Film zeigt die Geschichte der schüchternen Kellnerin Amélie Poulain (Audrey Tautou), deren Mutter stirbt, als sie noch ein kleines Mädchen ist, und die zu ihrem Vater ein seltsam verzerrtes emotionales Verhältnis hat. Amélie malt ihr gewöhnliches Alltagsleben als Kellnerin eines kleinen Bistros mit viel Phantasie aus und überspielt damit ihre offensichtliche Bindungsangst und Einsamkeit. Eines Tages beschließt sie, sich in das Leben ihrer Mitmenschen einzumischen, um diese glücklicher zu machen. Sie verkuppelt Frauen und Männer, hilft ihren Nachbarn, freundet sich mit einem Maler an, rächt sich beim unfreundlichen Obstverkäufer in der Nachbarschaft, lässt verschollene Liebesbriefe wieder auftauchen. Nur ihr eigenes Leben bekommt sie nicht in den Griff: Als sie sich in den ebenso schüchternen und ‚spleenigen‘ Nino (Mathieu Kassovitz) verliebt, weicht sie der ent-

49

50

Interessanterweise gelten einige der Filme, die von Kritikern des ‚Effektkinos‘ herangezogen werden, bei Filmliebhabern als ‚Meilensteine‘ filmtechnischer Innovation und ‚Klassiker‘ der Filmgeschichte. Da dieser normative Diskurs für die folgende Argumentation als unerheblich betrachtet werden kann, muss er hier nicht im Einzelnen aufgeschlüsselt werden. Zur problematischen Kritik am ‚Effektkino‘ vgl. insgesamt McClean Digital (wie Anm. 34). McClean: Digital (wie Anm. 34) [Hervorhebungen im Original].

DIGITALES ERZÄHLEN?

201

scheidenden Begegnung immer wieder aus und muss den letzten, wichtigen Impuls von ihrem Nachbarn bekommen.51 Der Film Le fabuleux destin d’Amélie Poulain – ich spreche ab hier von Amélie – wurde als besonders kreativ und originell rezipiert: Hier werde eine phantasievolle Geschichte über eine warmherzige Hauptfigur auf hinreißende Weise erzählt52; gelobt wurden allenthalben die kongeniale Phantasie des Regisseurs Jean-Pierre Jeunet, seine Einfälle und Detailideen.53 Versucht man den lobenden Überschwang analytisch zu fundieren und die Erzählstruktur des Films zu fokussieren, fällt zuallererst die höchstspezifisch allwissende Erzählerstimme auf, die den Film auf auditiver Ebene begleitet. Es handelt sich um einen extra-heterodiegetischen Voice-Over-Erzähler oder – mit anderem Vokabular – einen auktorialen, allwissenden Er-Erzähler, dessen Stimme aus dem Off zu hören ist, der nicht als Figur in der erzählten Welt vorkommt und an allwissende Romanerzähler des 19. Jahrhunderts erinnert. Die Idee, einen solchen Erzähler im Film einzusetzen ist nicht neu – man denke an The Naked City (Jules Dassin, USA 1948), Jules et Jim (François Truffaut, Frankreich 1962) oder die als Fernsehserie angelegte Literaturadaption Berlin Alexanderplatz (Rainer Werner Fassbinder, BRD 1980) von Alfred Döblins gleichnamigem Roman, um nur drei film- und fernsehhistorische Positionen zu markieren. In jedem dieser Filme ist die Voice-Over-Stimme anders funktionalisiert und in ihrer Fokalisierung und Distanz zu den Figuren anders zu bestimmen. Was 51

52

53

Eine knappe Inhaltsangabe, an der ich mich orientiert habe, findet sich auf cinema. de; http://www.cinema.de/kino/filmarchiv/film/die-fabelhafte-welt-der-amlie,134 1548,ApplicationMovie.html?tab=Inhalt; ausführlicher ist die Inhaltsangabe von Dieter Wunderlich auf http://www.dieterwunderlich.de/Jeunet_Amelie.htm#cont (Zugriff jeweils: 25.02.2011). Vgl. etwa und nur exemplarisch die Kritik von filmspiegel.de; http://www.filmspiegel. de/filme/filme.php?id=197 (Zugriff: 21.02.2011): „[…]. Seiner sagenhaften Optik ist Jean-Pierre Jeunet […] treu verpflichtet, mit ‚Amélie‘ wagt er sich aber auf neues Terrain, nämlich auf das des warmherzigen Traums. Die fantasievolle Fabel, in der eine introvertierte Kindsfrau vom bescheidenen Glück träumt, ist ästhetisch wie inhaltlich hinreißend und Audrey Tautou die neue Juliette Binoche.“ Vgl. exemplarisch die Kritik von Enno Park auf filmstarts.de; http://www.filmstarts.de/ kritiken/35619-Die-fabelhafte-Welt-der-Amelie/kritik.html (Zugriff: 21.02.2011): „Zuckrig? Kitsch? Schmalz? Die Gefahr hätte bestanden. Und wurde abgewendet. ‚Die fabelhafte Welt der Amélie‘ ist voller Leichtigkeit und Poesie, voller Schmerz und Glück. Der Film dreht nie das große, melodramatische Rad, sondern ergeht sich in einer Unmenge kleiner, liebenswerter Details. Beeindruckend, die Phantasie des Regisseurs und Autors. ‚Amélie‘ ist definitiv der gelungenste Film, den Jeunet […] jemals gedreht hat. Er ist jetzt schon ein ‚Kultfilm‘. Ein überquellendes Füllhorn genialer Einfälle, poetischer Momente, wundervoller Bilder und oft witziger, oft philosophischer Dialoge.“

202

MARKUS KUHN

aber die Flexibilität, erzählerische Multifunktionalität und Ironie der Erzählerstimme angeht, steht der Voice-Over-Erzähler in Amélie den Erzählern in den genannten Klassikern kaum nach. Aufzuzählen wären als spezifische Merkmale des Voice-Over-Erzählers in Amélie unter anderem: a) Das flexible und gezielt eingesetzte Schwanken des Erzählers zwischen notwendiger erzählökonomischer Informationsvergabe, verspielten auktorial-allwissenden Passagen und personalen Annäherungen an die Gedankenwelt der Hauptfiguren. b) Die Spannweite der Wissensvermittlung, die vom intimsten Figurenwissen, das keine Figur einer anderen erzählen würde, bis zu einer ‚göttergleichen‘ Allwissenheit reicht, die mit pseudo-wissenschaftlicher Statistik angereichert und ironisiert wird. c) Der Ideenreichtum der Erzählerstimme, der kongenial zum Phantasiereichtum der Hauptfigur und der visuellen Gestaltung des Films verläuft. d) Die selbstreflexiven, den Erzählvorgang selbst thematisierenden Passagen. e) Die ironische Spannung zwischen dem Erzählerwissen und dem Figurenwissen, der Erzählerrede und der Figurenrede sowie der sprachlichen Erzählung und der audiovisuellen Repräsentation. Es handelt sich hier also um eine Erzählinstanz mit großer narrativer Potenz und Spannbreite, die auch mit erzählliterarischen Erzählinstanzen verglichen werden könnte, man denke an die Erzählfunktionen in Alfred Döblins Berlin Alexanderplatz (1929), an deren Flexibilität die sprachliche Erzählinstanz in Amélie nicht ganz, aber immerhin teilweise heranreicht. Zu den Grenzen, welche bei Amélie im Gegensatz zu einem Film mit einem vergleichbaren auktorialen Voice-Over-Erzähler wie The Naked City oder Berlin Alexanderplatz nicht überschritten werden, gehört 1.) die Grenze zwischen extradiegetischem Erzähler und intradiegetischer Figur, indem der Erzähler die Figur beispielsweise direkt ansprechen würde, was einen metaleptischen, die Erzähllogik aufbrechenden Kurzschluss darstellen würde. Nicht direkt überschritten wird auch 2.) die Grenze zwischen Erzähler und Zuschauer, indem der Erzähler den Zuschauer direkt adressieren würde, wie z. B. in der Rahmenhandlung von Lady in the Lake (Robert Montgomery, USA 1947). Man kann also – mindestens was den Aspekt des sprachlichen Erzählens angeht – von einem komplexen, im Kino unkonventionellen (und insofern originellen) Erzählen sprechen. Wenn man sich einige Sequenzen des Films genauer anschaut, stellt man ebenso schnell fest, dass es nicht nur der Erzähler ist, der hier originell und flexibel die Geschichte re-

DIGITALES ERZÄHLEN?

203

präsentiert, sondern ebenso die (audio-)visuelle Erzählung bzw. die (audio-)visuelle Erzählinstanz.54 Das, was durch die visuelle Erzählinstanz – durch ein Zusammenspiel von Kamera, Montage und Inszenierung – erzählt wird, ist komplementär zur sprachlichen Erzählerstimme angelegt, und in das Gefüge der visuellen Erzählung reihen sich die digitalen visuellen Effekte nahtlos ein. Schon in der Eröffnungssequenz (etwa bis 00:01:3255) paraphrasiert die visuelle Erzählinstanz die sprachliche Erzählung oder ergänzt sie komplementär, wobei teilweise digitale visuelle Effekte eingesetzt werden.56 Während die sprachliche Erzählinstanz z. B. über eine in Montmartre landende Schmeißfliege berichtet („Am 3. September 1973 um 18 Uhr, 28 Minuten und 32 Sekunden landete eine Schmeißliege […] in Montmar54

55

56

Zur Beschreibung des filmischen Erzählens habe ich verschiedentlich vorgeschlagen, das audiovisuelle Erzählen im Film analytisch vom sprachlichen Erzählen zu differenzieren und einer nicht anthropomorph zu verstehenden (audio-)visuellen Erzählinstanz zuzuschreiben, die ich, um die visuellen Aspekte zu betonen, als visuelle Erzählinstanz bezeichnet habe (vgl. Markus Kuhn: „Narrative Instanzen im Medium Film. Das Spiel mit Ebenen und Erzählern in Pedro Almodóvars LA MALA EDUCACIÓN“. In: Corinna Müller/Irina Scheidgen (Hrsg.): Mediale Ordnungen. Erzählen, Archivieren, Beschreiben. Marburg 2007, S. 56-76. Und Kuhn: Filmnarratologie (wie Anm. 2), S. 81 ff.). Der visuellen Erzählinstanz sind alle Aspekte zuzuschlagen, die filmwissenschaftlich unter den Begriffen von Kamera und Montage gefasst werden, und alle Elemente der Mise-en-scène und der Bildgestaltung, die eine narrative oder narrationsunterstützende Funktion haben, sowie alle nichtsprachlichen auditiven Elemente (Musik, Geräusche), sofern sie eine erzählerische Funktion haben. Es gibt Filme, die ohne Sprache erzählen; im konventionellen Erzählkino ist es aber nahezu immer das Zusammenspiel einer visuellen Erzählinstanz mit einer oder mehreren sprachlichen Erzählinstanz(en), das die Geschichte vermittelt. Als sprachliche Erzählinstanz lassen sich alle sprachlichen Instanzen fassen, die mindestens eine Minimalgeschichte vermitteln, also z. B. Figuren in Dialogen, Voice-Over-Erzähler, komplexe Inserttexte oder Schrifttafeln (vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 72 ff., 81 ff.). Angaben zum Timecode erfolgen hier stets nach dem Prinzip [Std.]:[Min.]:[Sek.]; sie basieren zum Großteil auf den jeweiligen deutschen DVD-Veröffentlichungen, die oft auch bei verschiedenen Editionen den gleichen Timecode aufweisen, teilweise – bei schwer zugänglichen Filmen – auch auf TV-Aufzeichnungen, und dienen deshalb ‚nur‘ als erste Orientierungshilfe zum Auffinden der behandelten Szenen. Die Angaben zu Le fabuleux destin d’Amélie Poulain beziehen sich auf die deutsche DVD-Fassung (Universal Studios/Prokino, 2002); zitiert wird nach der deutschsprachigen Synchronfassung. Als Kategorien zur Beschreibung des Verhältnisses von visueller Erzählinstanz und sprachlicher Erzählinstanz verwende ich: disparat (widersprüchlich, verschieden), komplementär (sich ergänzend, verzahnt), polarisierend und überlappend (illustrierend/umschreibend, paraphrasierend) (vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 98 ff.).

204

MARKUS KUHN

Abb. 2: Screenshot aus Le fabuleux destin d‘Amélie Poulain

tre“), ist zu sehen, wie eine digital animierte Fliege durch das Bild fliegt und auf dem Kopfsteinpflaster landet (vgl. Abb. 2). Bis hierhin paraphrasiert die visuelle Erzählinstanz die sprachliche, bevor sie zum Abschluss der Einstellung zeigt, wie ein Auto die Fliege totfährt und nur ein Blutfleck zurückbleibt, und somit die sprachlich vermittelte Information komplementierend ergänzt. Das Prinzip, dass dabei sowohl die sprachliche Instanz Informationen liefert, die für den weiteren Verlauf der Geschichte keine Rolle spielen (z. B. die genaue Uhrzeit der Landung oder die durchschnittlichen Flügelschläge der Fliege), als auch die visuelle Instanz (das Überfahren der Fliege), ist ein typisches Merkmal des Erzählens in Amélie, wobei in vielen späteren Sequenzen der Anteil an für die Geschichte relevanten Informationen etwas größer ist. Weitere Beispiele lassen den Einsatz digitaler Effekte zur Unterstützung der visuellen Narration unmittelbar ins Auge fallen. Als Amélie die Arbeitskollegin von Nino in seiner Abwesenheit über ihn ausfragt und diese ihr von Ninos seltsamen Hobbys (Sammeln von Abdrücken in frischem Zement oder spontaner Lacher) und Hilfsjobs (Nachtwächter, Nikolaus im Samaritaine) erzählt (bei 01:04:49), werden Amélies Vorstellungen von Ninos Tätigkeiten splitscreenartig wie eine Phantasieprojektion bzw. eine Gedankenblase im Comic in das Filmbild eingeblendet (wie in Abb. 3, wenn sich Amélie vorstellt, dass Nino als Nikolaus arbeitet). Dass schon die kleine Amélie mit ihrer ausgeprägten Phantasie in den Wolken am Himmel Tiere erkennt, wird mit einem digital manipulierten Himmel dargestellt, sodass die Wolken als Hasen und Teddybären erscheinen (vgl.

DIGITALES ERZÄHLEN?

205

Abb. 3-5: Screenshot aus Le fabuleux destin d‘Amélie Poulain

Abb. 6: Screenshot aus Le fabuleux destin d‘Amélie Poulain

Abb. 4; bei 00:07:33). Eine wichtige Information wie etwa, dass Amélie den Schlüssel für die Wohnung des unfreundlichen Gemüsehändlers Collignon hat nachmachen lassen, um später in diese einzudringen und dem Misanthropen einige Streiche zu spielen, vermittelt die visuelle Erzählinstanz durch eine einfache digitale Animation, die den Schlüssel in Amélies Manteltasche aufblinken lässt (vgl. Abb. 5; bei 00:49:30), ebenso Amélies emotionalen Zustand, namentlich ihre Verliebtheit bei der zweiten Begegnung mit Nino, indem das Herz durch Animation hervorgehoben wird (vgl. Abb. 6; bei 00:38:40). Als sich Amélie beim geplanten Rendezvous im Café nicht getraut hat, Nino anzusprechen, wird ihr emotionaler Zustand durch ein Zerfließen ihrer Figur angedeutet (vgl. Abb. 7; bei 01:34:00). Amélies Tagträume und Phantasien werden unter anderem auf einen Fernseher projiziert, also in die intradiegetische Fernsehsendung integriert, die Amélie schaut (vgl. Abb. 8; bei 00:35:38). Während die Erzählerstimme zeitraffend von Amélies Kindheit zu Amélies Jugend überleitet (bei 00:08:46) („Tage, Monate und schließlich Jahre vergingen. Die Außenwelt erscheint Amélie so tot, dass sie lieber ihr Leben träumt, bis sie

206

MARKUS KUHN

Abb. 7-9: Screenshot aus Le fabuleux destin d‘Amélie Poulain

alt genug ist, auszuziehen“), deutet die visuelle Instanz das Vergehen der Zeit an, indem sie einen Blumentopf, auf dem ein Teddybär sitzt, im Wechsel der Jahreszeiten und verschiedener Wetterstimmungen zeigt (vgl. Abb. 9), jeweils durch eine digitale Wischblende miteinander verbunden. Am Ende der Sequenz ist der Teddybär aufgeplatzt und die Kamera schwenkt ohne Schnitt auf die das Haus verlassende groß gewordene Amélie, während die sprachliche Instanz erklärt: „Fünf Jahre später ist Amélie Kellnerin in einem Kaffeerestaurant in Montmartre …“, bevor die visuelle Instanz wiederum das Kaffeerestaurant zeigt. Das vernetzte Erzählen von sprachlicher und visueller Erzählinstanz wird nicht nur, wie soeben beschrieben, zur erzählökonomischen Zeitraffung, sondern auch für Anaund Prolepsen (Rück- und Vorausblenden) eingesetzt, so im unmittelbaren Anschluss, wenn die visuelle Erzählinstanz kommende Ereignisse in einer kurzen, blitzartigen Montagesequenz zeigt, während die sprachliche Instanz erklärt: „29. August. In 48 Stunden wird das Schicksal Amélie Poulains eine unerwartete Wendung nehmen … aber im Augenblick ahnt sie noch nichts davon.“ Gegen Ende des Films wird eine komplexere audiovisuelle Erzählung splitscreenartig – beinahe wie eine Gedankenblase – in den oberen von vorne betrachtet linken Teil des Bildes geblendet (vgl. Abb. 12; bei 01:44:54). Während Amélie dabei ist, einen Butterkuchen zu backen (Hauptteil des Bildes), bildet sie sich ein, dass Nino auf dem Weg zu ihr ist (Projektion in das Bild). Oben habe ich darauf verwiesen, dass es in Amélie keine werkinternen Metalepsen gibt, weil die sprachliche Erzählinstanz die Grenze zu den Figuren nicht überschreitet und beispielsweise nicht mit ihnen in den Dialog tritt. Eine vergleichbare Grenze wird mit einer sowohl ironischen wie informationsvermittelnden Funktion – digital animiert – überbrückt, wenn sich die vier Abbilder auf einem Automaten-Passfoto plötzlich bewegen und mit Nino sprechen können (vgl. Abb. 10; bei 01:07:48). Der Dialog zwischen den Passbildern und der Figur Nino hat eine mit inneren Dialogen oder erlebter Rede vergleichbare gedankenvermittelnde Funktion. Ironisch umgesetzt werden dabei Ninos Spekulationen über Amélies Verhalten. Die sprechenden Passbilder sind nicht die extradiegetische sprachliche Erzählinstanz, aber bauen als Stellvertreter eine Brücke zur

DIGITALES ERZÄHLEN?

207

Abb. 10: Screenshot aus Le fabuleux destin d‘Amélie Poulain

Abb. 11: Screenshot aus Le fabuleux destin d‘Amélie Poulain

Gedankenwelt der Figuren. Gegenstände des Interieurs können an anderer Stelle Amélies Gefühlszustand mit vergleichbarer Ironie kommentieren (bei 00:54:39), wenn sie sich – thematisch an eine Äußerung des Erzählers anschließend – bewegen können und einer von ihnen fragt: „Sagt mal, sie wird sich doch nicht am Ende verliebt haben?“ (vgl. Abb. 11). Als kurzes Zwischenfazit lässt sich festhalten, dass das sprachliche und das visuelle Erzählen in Amélie hochgradig miteinander verzahnt sind, dass viele digitale visuelle Effekte einerseits dazu dienen, die Geschichte

208

MARKUS KUHN

Abb. 12: Screenshot aus Le fabuleux destin d‘Amélie Poulain

voranzutreiben, meistens eine ironische Funktion haben, oft eine Gedanken- und Gefühle der Figur andeutende, und immer in Zusammenhang zur Phantasie der Hauptfigur gelesen werden können. So wie sich Amélie ihren Alltag durch viele Ideen und Phantasien bunter gestaltet, ist auch die Erzählung des Films durch viele stilistische Ideen angereichert. Um weitere Filmbeispiele zumindest anzudeuten: Auch der Film Stranger Than Fiction (Marc Forster, USA 2006) ist durch einen originellen erzählerischen Trick und eine dominante Erzählerstimme geprägt. Eines Tages hört die Hauptfigur Harold Crick in einem ‚metaleptischen Kurzschluss‘ die Voice-Over-Stimme, die sein Leben und jede einzelne Handlung erzählt, und stellt sukzessive fest, dass er nur eine fiktionale Figur im Roman einer deprimierten Autorin ist. Die sprachliche Erzählung wird dabei mehrfach durch graphische, teilweise computergenerierte Projektionen unterstützt, die unter anderem anzeigen, dass der Protagonist ein Zahlenfetischist ist (vgl. Abb. 13) und vor dem außergewöhnlichen Ereignis des die fremde Voice-Over-Stimme Hörens ein absolut eintöniges Leben geführt hat („Dies ist die Geschichte über einen Mann namens Harold Crick. […] Werktag für Werktag, zwölf Jahre lang, putzte Harold jeden seiner 32 Zähne 76 Mal. 38 Mal hin und her, 38 Mal hoch und runter.“). Auch im Film Fight Club (David Fincher, USA 1999), der jenseits des zentralen erzählerischen ‚Clous‘, der jedem Kenner des Films vertraut ist, durch die sprachliche Erzählung der in diesem Falle homodiegetischen Voice-Over-Stimme geprägt ist, kommen neben vielen anderen Stilmitteln immer wieder Sequenzen vor, in denen sprachliche und visuel-

DIGITALES ERZÄHLEN?

209

Abb. 13: Screenshot aus Stranger Than Fiction

Abb. 14: Screenshot aus Fight Club

le Erzählung hochgradig vernetzt sind, wozu auch digitale Effekte eingesetzt werden wie markant in der ‚Möbelkatalog-Sequenz‘ (vgl. Abb. 14; bei 00:04:31). Ein weiteres Beispiel wäre der Film The Royal Tenenbaums (Wes Anderson, USA 2001), in dem einerseits suggeriert wird, der Film sei die Repräsentation eines Romans, andererseits die extra-heterodiegetische Erzählstimme von einer visuellen Erzählinstanz unterstützt wird, die viele auffällige analoge und digitale visuelle Stilmittel einsetzt.

210

MARKUS KUHN

4. Möglichkeiten der Introspektion: digitale vs. analoge Effekte Das erwähnte Beispiel der splitscreenartig in das Bild projizierten Phantasiesequenz in Amélie (vgl. Abb. 12; s.o.) leitet über zum nächsten Aspekt, um den es gehen soll. Aus dem Feld an Möglichkeiten, wie digitale visuelle Effekte funktionalisiert werden, sei nun der Bereich der Introspektion herausgegriffen, also die Frage, wie Gedankenwelten, Visionen, Träume und Rauschzustände von Figuren repräsentiert und gestaltet werden können. Bruce F. Karwin hat für die filmische Repräsentation von Introspektion den Begriff Mindscreen geprägt57, der nach narratologischen Gesichtspunkten weiter ausdifferenziert werden kann.58 Mehrere Möglichkeiten, wie die Phantasien und Gefühle Amélies mittels digitaler Effekte umgesetzt werden können, habe ich oben bereits aufgeführt, etwa das digital hervorgehobene pochende Herz Amélies (vgl. Abb. 6), das Zerfließen Amélies (vgl. Abb. 7), die Phantasiesequenzen im Fernseher (vgl. Abb. 8) oder ihre Vorstellungen über Ninos Hobbys (vgl. Abb. 3). Beispiele, wie Rauschzustände mittels digitaler visueller Effekte umgesetzt werden können, finden sich im Film Fear and Loathing in Las Vegas (Terry Gilliam, USA 1998). Die Protagonisten, der Gonzo-Jorunalist Raoul Duke und sein Freund und Anwalt Dr. Gonzo, unternehmen einen Trip im doppelten Sinne des Wortes: Während sie aufgrund eines ominösen journalistischen Auftrags nach Las Vegas reisen, konsumieren sie große Mengen an Drogen, sodass ihre reale Reise zugleich zu einem Trip durch verschiedene Drogenvisionen wird, die mit einer Vielzahl mentaler Metalepsen und verspielter Formen der mentalen Projektion visuell umgesetzt sind (vgl. Abb. 15).59 Weitere Filme, in denen Drogenvisionen, Träume, Tagträume und Phantasien mittels digitaler Effekte umgesetzt werden, wären Finding Neverland (Marc Forster, USA 2004), Vanilla Sky (Cameron Crowe, USA 2001) oder The Beach (Danny Boyle, USA 2000), um nur einige wenige zu nennen. Diese Beispiele deuten eine Reihe von Möglichkeiten an, wie visuelle digitale Effekte zur Darstellung von Gefühlen, Phantasien, Träumen und 57

58 59

Vgl. Bruce F. Karwin: Mindscreen: Bergman, Godard, and First-Person Film. Princeton 1978. Vgl. Michael Newman: „Mindscreen“. In: David Herman/Manfred Jahn/Marie-Laure Ryan (Hrsg.): Routledge Encyclopedia of Narrative Theory. London/New York 2005, S. 310 f. Vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 149-158 und insbes. 190 f. sowie 284295. Vgl. ebd., S. 157, 192 f.

DIGITALES ERZÄHLEN?

211

Abb. 15: Screenshot aus Fear and Loathing in Las Vegas

subjektiv verzerrten Rauschzuständen eingesetzt werden können. Jenseits der Tatsache, dass wir als Filmzuschauer ohne Hintergrundwissen oftmals ohnehin gar nicht wissen können, ob es sich um einen analogen oder digitalen Effekt handelt, möchte ich nun anhand einiger analoger Beispiele die Vermutung plausibilisieren, dass es vom analytisch-narratologischen Standpunkt kaum eine Rolle spielt, ob es sich bei der Funktionalisierung von Effekten für die Introspektion um analoge oder digitale Effekte handelt. Ich beginne mit der berühmten Drogenvision aus dem Film Noir Murder, My Sweet (Edward Dmytryk, USA 1944). Privatdetektiv Philip Marlowe wird von seinem Gegenspieler zusammengeschlagen und in die psychiatrische Anstalt von Dr. Sonderborg gebracht, wo er unter Medikamenten- und Drogeneinfluss zur Preisgabe des Verstecks einer wertvollen Jadehalskette erpresst werden soll (bei 00:42:31). Eine sich zuziehende schwarze Gardinenblende markiert, dass Marlowe nach einem Schlag das Bewusstsein verliert. Nach einem kurzen blackscreen geht die Blende kurz einen Spalt weit auf und zeigt, dass Marlowe in eine Zelle gesperrt wird; ein Voice-Over erklärt vage, was mit ihm geschieht, und markiert das Darauffolgende als albtraumartige Halluzination. Es folgt eine surreal überzeichnete Sequenz (vgl. Abb. 16). Die Bildfläche ist durch Mehrfachbelichtungen in mehrere Einheiten zerteilt, auf denen hinter einem spinnennetzartigen Schleier nur assoziativ zusammenhängende Szenen und Elemente ohne räumliche Ordnung ein- und wieder ausgeblendet werden. Drehende und schwebende Bewegungen dominieren. Zu sehen

212

MARKUS KUHN

Abb. 16: Screenshot aus Murder, My Sweet

sind u. a. Figuren, denen Marlowe zuvor begegnet ist, in überdimensionaler Größe, eine riesige Spritze, Türenstaffelungen, durch die Marlowe auf einen Fluchtpunkt zuläuft, Marlowes angstverzerrtes Gesicht und strudelartige Gebilde, in denen Marlowe den Halt zu verlieren droht. Verhallte Stimmen zitieren vorangegangene Gesprächsfetzen. Den Höhepunkt der Sequenz bildet eine schneller werdende, sogartige Drehbewegung. Marlowes kleiner werdender Körper droht in der Tiefe des Bildes verschluckt zu werden. Die Drehbewegung geht über in einen sich drehenden Gegenstand, der sich als Lampe und gleich darauf als die Lampe in dem Zimmer herausstellt, in dem Marlowe schließlich in einem Bett erwacht.60 Die albtraumartigen, von eingeflößten Drogen ausgelösten Visionen der Hauptfigur werden also durch die Kombination einer großen Zahl analoger Effekte umgesetzt und derart markiert und gerahmt, dass eine Zuordnung und Bewertung der Sequenz als Vision Marlowes eindeutig ist. Ich gehe filmhistorisch einen weiteren Schritt zurück zu Der letzte Mann von Friedrich W. Murnau (Deutschland 1924), um eine weitere Darstellung eines Rauschzustands zu erfassen. Der Stummfilm zeigt die Geschichte eines Mannes, der wegen seiner Altersschwäche seinen Beruf als Hotelportier verliert und damit auch seine soziale Stellung. Der Film ist bekannt für die sogenannte ‚entfesselte Kamera‘ und weitere virtuose Effekte. Der durch Einstellungen auf das blickende Gesicht des Protago-

60

Vgl. ebd., S. 149 f.

DIGITALES ERZÄHLEN?

213

Abb. 17: Screenshot aus Der letzte Mann

nisten eindeutig gerahmte point of view shot in Abb. 17 zeigt den Protagonisten, der nach einer Feier noch immer betrunken zur Arbeit geht (bei 00:45:45). Noch nicht allzu virtuos, aber doch eindeutig in seiner Funktion wird der subjektive Blick des Mannes derart verzerrt, dass seine betrunkene Wahrnehmung erkennbar ist. Im selben Film findet sich eine traumähnliche Sequenz, die zwischen Wunschtraum à la Amélie und tatsächlichem Traum changiert. Der Protagonist stellt sich – seinen Rausch ausschlafend – vor, wie er seinen Job, den er inzwischen verloren hat, zurückbekommt und mit Bravour erledigt. Dass es sich um den Traum des Protagonisten handelt, wird durch verschiedene analoge Stilmittel wie Mehrfachbelichtung, Überblendungen, Spiegeleffekte, das Filmen durch die Glasdrehtür angezeigt und nicht zuletzt durch die eindeutige Rahmung der Sequenz markiert (vgl. Abb. 18; bei 00:39:38). In einer Phantasiesequenz, die ähnlich ins Bild projiziert wird wie die ins Bild eingeblendeten Phantasien bei Amélie (vgl. Abb. 12; s.o), werden Vorstellungen des Protagonisten repräsentiert, die er sich macht, während er das entscheidende Kündigungsschreiben liest (das als point of view shot zu sehen ist) (vgl. Abb. 19; bei 00:19:15). Funktional mit den Möglichkeiten digital unterstützter Traumrepräsentation vergleichbare analoge Traumdarstellungen finden sich auch in Mathilde Möhring von Rolf Hansen, der 1945 gedreht wurde und 1950 erst ins Kino kam, sowie eindrucksstark expressiv in Liebe ’47 von Wolfgang Liebeneiner (Deutschland 1949), um noch zwei historische Fälle zu nennen.

214

MARKUS KUHN

Abb. 18: Screenshot aus Der letzte Mann

Abb. 19: Screenshot aus Der letzte Mann

Die Beispiele zeigen: Auch wenn neuere Filme, die digitale Effekte zur Darstellung von Rauschzuständen, Halluzinationen, Träumen, Phantasien und Emotionen einsetzen, unseren heutigen Sehgewohnheiten vielleicht eher entsprechen, leisten analoge Effekte hinsichtlich der Informationsvergabe, der Bezugsetzung der Informationen und Bilder zur jeweiligen Figur, der Markierung des geistigen und mentalen Figurenzustands, des Changierens zwischen diegetischen Fakten und figurenbezogenen Einbildungen grundsätzlich dasselbe. Auch wenn diese Beispiele nur

DIGITALES ERZÄHLEN?

215

einen kleinen Ausschnitt an Möglichkeiten der Introspektion andeuten, die mit analogen und digitalen Effekten erzielt werden können61, würde ich die getroffenen Beobachtungen verallgemeinern und behaupten, dass es keine kategoriale Grenze gibt zwischen digitalen visuellen Effekten und analogen visuellen Effekten hinsichtlich ihrer erzählerischen, gliedernden, perspektivierenden und zeitmodulierenden Funktion. Diese Behauptung, dass es – werkanalytisch-narratologisch betrachtet – keine kategoriale Grenze zwischen analogen und digitalen visuellen Effekten gibt, mag angesichts anderer Ergebnisse innerhalb dieses Bandes nicht erstaunen. Produktionstechnisch und -ästhetisch gibt es diese Grenze ohne Zweifel, aber da sich die Erzähltheorie gewöhnlich auf die Seite des Werks und der Werkrezeption im Sinne kognitiver Verstehensprozesse bezieht, kann man diese Grenze vom narratologischen Standpunkt aus infrage stellen.

5. Hypothesen zum digitalen Erzählkino der Zukunft Insofern halte ich fest, dass es – bezüglich audiovisueller Spielfilme – kein digitales Erzählen in einem distinkten Sinne als Gegenbegriff zu einem analogen Erzählen gibt, sondern, dass es die Möglichkeit gibt, sowohl mit digitalen Effekten als auch mit analogen Effekten als auch – besonders häufig – durch eine Kombination der beiden die audiovisuelle Erzählung eines Films zu unterstützen, zu modulieren oder überhaupt erst zu ermöglichen. Das heißt, so wie man audiovisuelles Erzählkino mit digitalen oder analogen Mitteln produzieren, speichern und ausstrahlen kann, so kann man sowohl digitale als auch analoge visuelle Effekte innerhalb der Filme für die Erzählung funktionalisieren, ohne dass durch das Digitale dabei eine kategorial neue Dimension des Erzählens erreicht würde.62 61 62

Weitere (analoge und digitale) Beispiele finden sich u. a. in Kuhn: Filmnarratologie (wie Anm. 2), S. 149-158, 190 f., 284-295. Bezüglich digitaler Medien im Allgemeinen vgl. u. a. Ryan: „Will New Media“ (wie Anm. 1). Ryan, die kognitiv argumentiert, sich auf Erzählungen in den digitalen Medien konzentriert (Dimension (f ) nach der Liste in Kap. 2) und audiovisuelle Objekte nur am Rande thematisiert (bei ihr stehen „hypertext“, „text-based virtual environments“, „interactive drama“, „computer games“ und „live Internet image transmission through Webcams“ im Mittelpunkt), kommt – die grundsätzlichen Bedingungen des Erzählens betreffend – zu vergleichbaren Ergebnissen: „The texts supported by digital media may satisfy to various degrees the universal cognitive model, or they may produce creative alternatives to a narrative experience, but they do not and cannot change the basic conditions of narrativity“ (ebd., S. 354).

216

MARKUS KUHN

Ich weise an dieser Stelle ausdrücklich darauf hin, dass ich mich hier auf nachweisbare Funktionen für die Narration konzentriert habe. Dass digitale visuelle Effekte und die je unterschiedliche Realisierung der gleichen narrativen Funktion durch unterschiedliche Effekte eine ganz andere Bild- und Bewegungsästhetik konstituieren können, streite ich nicht ab. Dass diese Aspekte auch Auswirkungen auf die Rezeption und vor allem die Wirkung filmischer Narrationen haben, ist nicht zu bezweifeln, muss aber gesondert untersucht werden. Auch Fragen, die unmittelbar die diegetische Welt betreffen, z. B. eine Verbesserung der photorealistischen Wirkung durch digitale visuelle Effekte und das komplexe Themenfeld der Abbildhaftigkeit und Simulation63, sowie Fragen nach den Figuren, die vollkommen computergeneriert sein können64, habe ich hier nicht in den Fokus gerückt. Bevor ich meine Hypothese einer nicht vorhandenen qualitativen Trennlinie zwischen analogen und digitalen Effekten hinsichtlich ihrer narrativen Funktion etwas modifiziere, möchte ich noch ein letztes Beispiel erwähnen, um die Erkenntnisse, die ich anhand der Introspektion gewonnen habe, zu verallgemeinern: die virtuelle Kamera. Natürlich lässt sich mit einer virtuellen Kamera eine neue Freiheit an Bewegungsmöglichkeiten erzielen, eine Lösung von den physikalischen Grundgesetzen, die jedes noch so ausgeklügelte Steadycam- oder Kransystem beschränkt haben. Allerdings stimmt es nicht, dass damit eine neue Qualität der Nullfokalisierung bzw. eines allumgreifenden, allwissenden Point-of-Views erzeugt werden könnte, wie etwa McClean behauptet.65 Durch schnelle Schnitte von Raum zu Raum, durch einen Blick in Fenster und scheinbar verschlossene Räume, durch analog realisierte nobody’s shots, durch panoramatische Luftaufnahmen, durch komplexe Montagesequenzen und viele weitere Stilmittel war ‚die Kamera‘ bzw. die visuelle Instanz schon immer in der Lage, viel mehr Übersicht zu vermitteln, als die Figuren haben konnten, und ein allumgreifendes Allwissen zu signalisieren.66 Durch geschickte match-cuts und andere analoge Effekte konnte schon immer die Illusion erzeugt werden, ‚die Kamera‘ könne durch Wände gehen, unmögliche Räume betreten usw. Dasselbe gilt für die Realisierung interner

63 64 65

66

Vgl. Flückiger: Visual (wie Anm. 29), S. 275 ff. Vgl. ebd., S. 417 ff. Vgl. McClean: Digital (wie Anm. 34), S. 48 ff.; da sich McClean nicht auf erzähltheoretische Modelle bezieht, argumentiert er freilich nicht mit dem Begriff der Fokalisierung. Vgl. Kuhn: Filmnarratologie (wie Anm. 2), u. a. S. 133 ff.

DIGITALES ERZÄHLEN?

217

Okularisierung durch point of view shots.67 Vielleicht ist es manchmal produktionstechnisch aufwendiger gewesen und jetzt leichter und kostengünstiger zu realisieren, aber auch auf dem Feld der narrativen Perspektivierung erkenne ich keine qualitative Grenze. Eine andere Dimension, die bedacht werden muss, deutet sich hier jedoch bereits an. Es geht um die Frage, ob sich durch die immer leichtere Realisierbarkeit bestimmter Effekte zwar kein qualitativer Unterschied, aber doch ein quantitativer herausbilden könnte. Ob die Möglichkeit, bestimmte Funktionen durch digitale Effekte produktionstechnisch deutlich leichter zu erzielen, zu einer tatsächlichen Zunahme derselben führt. Ob das digitale Erzählkino der Zukunft sozusagen mehr spezifische Formen und Stilmittel einsetzen wird als das analoge. Hier setze ich mit der Modifizierung meiner Hypothese an: Auch wenn es keine qualitative Grenze zwischen analog und digital bezüglich des Erzählens gibt, könnte das digitale Erzählkino der Zukunft doch in eine bestimmte Richtung gehen, die den Einsatz einiger spezifischer Formen begünstigt. So könnte sich eine prägende Richtung des Kinos herausbilden, die insgesamt durch eine hohe Zahl funktionalisierter digitaler visueller Effekte gekennzeichnet wäre. Diese Überlegung kann man auch ‚umkehren‘ und fragen: Gibt es heute, da die Kinoindustrie zum Einsatz digitaler Effekte drängt, einen spezifischen Bedarf an geeigneten Trägergeschichten und Erzählweisen? Gibt es Geschichten, die besonders gut dazu geeignet sind, digitale Effekte – zu denen in diesem Fall auch digitale 3-D-Effekte gezählt werden können – einzubetten, derart, dass sie nicht als Bruch mit der Geschichte wirken, sondern diese unterstützen? Dass also das Spektakuläre der Effekte ‚zum Einsatz‘ kommt, ohne dass diese mit der Filmerzählung brechen, zu dieser in Spannung stehen? Die digitalen Effekte in Avatar sind einerseits notwendig, um die utopische ‚Gegenwelt‘ der Na’vi zu konstituieren. Andererseits scheinen die mit vielen Effekten angereicherten, schier endlosen Schlachten im zweiten Teil des Films von den strukturell verankerten Bedeutungsschichten (etwa die ideologische und intermediale Dimension des Films durch Rekurse auf Vortexte und Stoffe wie Pocahontas) abzulenken, wenn sie ihnen nicht sogar kontraproduktiv gegenüberstehen. So könnte man die Behauptung aufstellen, dass in Avatar einige Effekte in dem Sinne gut einge67

Vgl. zur Vielfalt analoger Realisierungsmöglichkeiten interner Okularisierung und subjektiver point of view shots: Edward R. Branigan: Point of View in the Cinema. A Theory of Narration and Subjectivity in Classical Film. Berlin [u. a.] 1984, S. 103 ff. Und Kuhn: Filmnarratologie (wie Anm. 2), S. 140 ff.

218

MARKUS KUHN

setzt sind, dass sie in der Gesamtstruktur aufgehen, andere eher im Hinblick auf eine spektakuläre Wirkung. Insgesamt kann man jedoch festhalten, dass die Repräsentation einer utopischen Gegenwelt zum Menschengeschlecht in Avatar einen guten Nährboden für die Funktionalisierung digitaler Effekte im Erzählkino darstellt. Hier würde ich eine erste Gruppe an Filmen aufmachen und behaupten, dass sich Filme, die eine utopische oder dystopische Gegenwelt zur Wirklichkeit konstituieren, die in der Zukunft angesiedelt sein kann, aber nicht muss, besonders gut für die narrative, dramaturgische und thematische Einbettung digitaler Effekte eignen, vor allem für die Ausgestaltung der diegetisch realisierten Gegenwelt selbst. Diese Gegenwelt könnte man für sich betrachtet als eine wenn auch nicht physikalisch mögliche, so doch logisch mögliche Welt (re-)konstruieren. In der Annahme einer derartigen tendenziell übernatürlichen bzw. zukünftig möglichen Welt liegt eine Nähe dieser Kategorie zum Fantasy- und Science-Fiction-Genre, die aber nicht zwangsläufig ist. Weitere Beispiele, die dieser Gruppe neben Avatar zugeordnet werden könnten, wären Jurassic Park (Steven Spielberg, USA 1993), Starship Troopers (Paul Verhoeven, USA 1997) und Minority Report (Steven Spielberg, USA 2002). Die zweite Gruppe an Filmen ist keine Gegengruppe zu dieser ersten Gruppe, sondern verlagert die Gegenwelt lediglich ins Innere einer Figur. Es wird in diesen Filmen also eine Art figurenbezogene Metadiegese, ausgedehnte Introspektion oder Phantasiewelt ausgestaltet.68 Hierzu gehören Filme wie Finding Neverland, in dem die Figur des Schriftstellers Matthew Barrie eine Phantasie-Gegenwelt zur Realität erschafft, die teilweise durch digitale Effekte umgesetzt wird; in gewisser Hinsicht auch Fear and Loathing in Las Vegas, El laberinto del fauno (Guillermo del Toro, Spanien/ Mexiko/USA 2006), Where the Wild Things Are (Spike Jonze, USA 2009), Black Swan (Darren Aronofsky, USA 2010) und Alice in Wonderland (Tim Burton, USA 2010). Ein zentrales Prinzip dieser Filme ist häufig, aber nicht immer, dass sich diegetische Realität und Phantasiewelt zunehmend gegenseitig durchdringen. Auch die dritte Gruppe, die ich aufmachen möchte, ist keine Gegengruppe zu den beiden anderen, sondern eine weitere Strukturvariante. Ich würde hier von Mehr-Ebenen-Filmen sprechen, die über eine mediale oder fiktionale Einschreibung (Film im Film, Computerspiel im Film, Gesellschaftsspiel im Film, visuell umgesetzte sprachliche Erzählung im Film etc.) verschiedene Ebenen konstituieren, die sich teilweise durchmi-

68

Vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 284 ff.

DIGITALES ERZÄHLEN?

219

schen.69 Hierzu lassen sich Filme zählen wie Jumanji (Joe Johnston, USA 1995), wahrscheinlich auch The Matrix (Andy und Larry Wachowski, USA 1999) oder Hero (Zhang Yimou, Hongkong/China 2002, auch: Ying Xiong) sowie einige der Filme, die als unzuverlässig erzählt gelten, wie Abre los ojos (Alejandro Amenábar, Spanien/Frankreich/Italien 1997), Vanilla Sky, Los otros (Alejandro Amenábar, Spanien/USA 2001) oder eXistenZ (David Cronenberg, USA 1999). Alle drei Varianten können in Kombination auftreten und für eine genaue Klassifizierung müsste man auf einer weniger abstrakten Unterscheidungsebene ansetzen. Die zweite Gruppe der introspektiven PhantasieGegenwelt hat eine Nähe zur dritten Gruppe der Mehr-Ebenen-Filme, weil Phantasiewelt und diegetische Realität in Gruppe 2 oft – zumindest für einen größeren Abschnitt des Films – wie zwei distinkte Ebenen angelegt werden.70 In Alice in Wonderland hat die Phantasiewelt einen zwischen subjektivem Traum (Gruppe 2) und utopischer Gegenwelt (Gruppe 1) schwankenden Charakter, während die äußere Realitätsebene nur den Rahmen bildet und die latente Mehr-Ebenen-Struktur (Gruppe 3) nicht filmprägend ist. Abre los ojos und sein Remake Vanilla Sky können dagegen als Kombination einer ins Innere der Figur verlagerten Utopie (Gruppe 2 mit ‚Spuren‘ von Gruppe 1) mit einer Mehr-Ebenen-Konstruktion (Gruppe 3) aufgefasst werden. Auch der Film eXistenZ könnte als interessante Kombination der dritten mit der zweiten und ggf. der ersten Variante interpretiert werden. Insofern könnte man zusammenfassen, dass sämtliche Kombinationen von Gruppe 1, 2 und 3, in denen die Grenzen von 69 70

Vgl. Kuhn: Filmnarratologie (wie Anm. 2), S. 300 ff. Das gilt insbesondere, wenn die subjektiven Phantasiewelten ans Geschichtenerzählen der Figuren in der Rahmenhandlung gebunden werden wie in The Fall (Tarsem Singh, Indien/GB/USA 2006), der allerdings beinahe ohne den Einsatz computergenerierter Effekte produziert wurde (vgl. etwa epd Film 3.2009, S. 44), was bei der Fülle an Effekten des Films allerdings nicht gegen die Hypothese spricht, dass sich diese Strukturvariante besonders für die Einbettung und Funktionalisierung von (analogen und digitalen) visuellen Effekten eignet. Dieser Film und die Unmöglichkeit für den Rezipienten, ohne Zusatzinformationen zwischen analogen und digitalen Effekten unterscheiden zu können, bestätigt erneut, dass die Annahme einer kategorialen Grenze zwischen analogen und digitalen Effekten hinsichtlich ihrer narrativen Funktionalisierung problematisch wäre. Außerdem stützt der Produktionsaufwand, der bei diesem Film zur Realisierung analoger Effekte betrieben wurde (vgl. etwa SPIEGEL ONLINE; http://www.spiegel.de/kultur/kino/ 0,1518,613001,00.html (Zugriff: 18.03.2011) oder deadline 1.2009, S. 18-21), die Hypothese, dass die Realisierung funktional vergleichbarer Effekte analog aufwendiger ist, was zu einer quantitativen Zunahme von Effekten durch die leichtere Realisierbarkeit vergleichbarer digitaler Effekte führen könnte.

220

MARKUS KUHN

narrativen Ebenen und narrativen Wirklichkeiten, von innerfilmischer Realität und innerfilmischer Phantasie, von Traumwelt und Fiktion, von Diegese und Metadiegese repräsentiert und infrage gestellt werden, ein besonders geeignetes Muster für die Funktionalisierung digitaler visueller Effekte wären. Während Gruppe 1 vor allem über die Eigenschaften der histoire definiert wird (Utopie/Dystopie), definiert sich Gruppe 3 über die Repräsentations- bzw. Erzählweisen (Mehr-Ebenen-Struktur), also v. a. über den discours. Gruppe 2 liegt über das figurenbezogene Merkmal der introspektiven Phantasiewelt zwischen den beiden anderen Gruppen, weil die Introspektion, die sich auf eine Figur der Diegese bezieht (histoire-Bezug), durch verschiedene (narrative) Stilmittel umgesetzt werden kann (discours-Bezug). Aufgrund der unterschiedlichen Bezugsebenen lassen sich alle drei kombinieren. Eine vierte Gruppe, die ich gerne noch aufmachen würde, die wiederum eine Nähe zu Gruppe 3 hat, sind Filme mit einer komplexen und selbstreflexiven Erzählstruktur – zumeist im Spannungsfeld aus sprachlichem und audiovisuellem Erzählen wie in Le fabuleux destin d’Amélie Poulain, teilweise auch in Stranger Than Fiction, The Royal Tenenbaums und Fight Club – sowie weitere Filme, die mit selbstreflexiven und komplexen erzählerischen ‚Clous‘ aufwarten, die den Zuschauer auf der Ebene des Erzählens überraschen wollen (wie Inception; Christopher Nolan, USA 2010).71 Es ist zu erwarten, dass das Potenzial narrativer Möglichkeiten Filmemacher weiterhin herausfordern wird und dass sich digitale Effekte auf komplexe und kreative Weise einsetzen lassen, um dieses Potenzial audiovisuellen Erzählens auszuschöpfen, wie die Beispiele aus Amélie angedeutet haben. Ich habe hier sämtliche Varianten ausgeklammert, die in Richtung Animationsfilm und Comicadaption gehen, und mich auf fiktionale Spielfilme beschränkt. Zumindest die ersten drei Gruppen lassen sich bis zu ästhetischen, fiktionalen und erzählstrukturellen Modellen der Epoche der literarischen Romantik zurückverfolgen. Man kann, so denke ich, behaupten, dass viele Strukturformen der drei aufgemachten Filmgruppen, die sich besonders für die Funktionalisierung von digitalen visuellen Effekten im Kino eignen, bereits in den Werken und ästhetischen Konzepten der Romantik zu entdecken sind, häufig nur in Ansätzen, teilweise schon deut71

Vgl. Markus Kuhn: „Ambivalenz und Kohärenz im populären Spielfilm: Die offene Werkstruktur als Resultat divergierender narrativer Erklärungs- und Darstellungsmuster am Beispiel von Alejandro Amenábars ABRE LOS OJOS“. In: Julia Abel/Andreas Blödorn/Michael Scheffel (Hrsg.): Ambivalenz und Kohärenz. Untersuchungen zur narrativen Sinnbildung. Trier 2009, S. 141-158, hier S. 141 f., 155 f.

DIGITALES ERZÄHLEN?

221

lich fortentwickelt, wenn auch in einem anderen Medium, dem des Sprachtextes oder des Theaters. Das fiktionale Erschaffen von Utopien, die Betonung der Bedeutung von Träumen und traumähnlichen Visionen, die strukturellen Varianten des Werks-im-Werk und der mise-en-abyme, die Mehrebenenspiegelungen und die Formen der romantischen Ironie nehmen viele Erzählvarianten und Verfahren vorweg, die wir heute in Alice in Wonderland, Avatar, Findung Neverland, Fear and Loathing in Las Vegas und vielen der anderen genannten Filme vorfinden. Insofern kann man zweierlei festhalten: Erstens gab es die Erzählmuster und Strukturen, die sich im digitalen Kino durchsetzen könnten, in anderen Medien schon viele Jahre zuvor. Sie sind keine neuen Erfindungen, sondern haben ihre Fährten durch die Literatur- und Filmgeschichte gezogen, denn ausgehend von der Romantik gibt es Spuren zu Erzählexperimenten eines Julio Cortázar oder Jorge Luis Borges und zu weiteren modernen und postmodernen Mehrebenenspielen in Literatur und Film, die bis zu den utopischen Gegenwelten im digitalen Kino und den genannten komplexen filmischen Erzählvarianten führen. Auch hier gibt es also keine kategorial neue Phase, kein neues Paradigma eines digitalen Erzählens, keinen ‚digital turn of storytelling‘. Zweitens könnte ich meine abschließende Hypothese insofern zuspitzen, als ich aus den drei ersten Filmgruppen (und ggf. einem Teil der vierten Gruppe), die ich als besonders geeignet für digitales Erzählen im Kino hinsichtlich der narrativen Funktionalisierung von Effekten gehalten habe, eine Gruppe mache: Filme, die auf ästhetische, thematische und erzählstrukturelle Paradigmen zurückgreifen, die sich seit der Epoche der Romantik entwickelt haben. Im Mittelpunkt dieser Filme stehen utopische und dystopische Gegenwelten, die mit den Mitteln mehrschichtigen, ebenendurchbrechenden und selbstreflexiven Erzählens repräsentiert und erzählerisch gestaltet werden. Und in diesem Sinne könnte sowohl die Romantik als die Wiege der ‚digitalen Science Fiction‘ von heute gelten als auch das digitale Erzählkino als neue Stufe spektakulärer Inszenierung eines anthropologischen Urbedürfnisses utopischen Erzählens: der Schaffung einer paradiesischen oder purgatorischen Gegenwelt jenseits des Hier und Jetzt des Alltags. Das digitale Erzählen wäre dann, wenn man so weit gehen möchte, ein in seiner thematischen, narrativen und dramaturgischen Struktur inhärent romantisch-utopisches Unterfangen.72

72

Ein herzliches Dankeschön für wertvolle Filmhinweise geht an Johannes Noldt und David Ziegenhagen.

Teil III Praktiken der Digitalisierung

Jan Distelmeyer

Machtfragen Home Entertainment und die Ästhetik der Verfügung Es dauert ungefähr 25 Filmminuten, dann führt uns Gamer (Mark Neveldine & Brian Taylor, 2009) in die heiligen Hallen des besten Videospielers der nahen Zukunft. Der Teenager Simon und sein menschlicher, aber nichts desto trotz wie ehedem Lara Croft oder John Mastrow ergebener Avatar Kable (Gerard Bulter) haben bis jetzt am längsten in dem neuen Online-Game namens Slayer durchgehalten. In diesem Spiel werden Sträflinge zu realen Spielfiguren und damit Foucaults Überlegungen zum Verhältnis von Panoptismus und Delinquenz mit Mitteln des ExploitationKinos weitergetrieben. Steven Shaviro hat Gamer im Dezember 2009 als den aktuellsten Film der letzten Jahre gefeiert, der wie kein anderer „über die Welt, in der wir derzeit leben“1, Auskunft gebe, Ekkehard Knörer zufolge zeigt Gamer „etwas wie Live-Bilder aus der Höhle des Löwen der zeitgenössischen Unterhaltungsindustrie“2. Jetzt, mitten im Computerspielzimmer des adoleszenten Cracks Simon (Logan Lerman) wird uns die Ästhetik seiner Kontrolle, werden Simons Computerinterfaces gezeigt: Wie Holografien sind Bildschirme, oder nein: das, was sie zeigen, im Raum angeordnet, sie umgeben den User, sind Teil seiner Welt und können durch leichte Körperbewegungen benutzt werden. Überall gibt es etwas auszuwählen, Fenster (wenn man das noch so sagen kann) poppen auf und kommen auf Simon zu – was er dann mit ihnen macht, ist, so wirkt das, ganz seine Sache. Natürlich erinnert diese Interface-Inszenierung ein wenig an Spielbergs Minority Report aus dem Jahr 2002, nur dass in Gamer wesentlich unangestrengter mit den Maschinenerscheinungen operiert wird und, das gehört dazu, die Interfaces den Raum komplett dominieren und ausfüllen. Die Interfaces sind der Raum und damit steht Gamer einem anderen Film, der Adam Sandler-Komödie Click (Frank Coraci, 2006), näher. 1 2

Shaviro, Steven: „Gamer“. In: The Pinocchio Theory, 15.12.2009, http://www. shaviro.com/Blog/?p=830 (Stand: 4.10.2010) Knörer, Ekkehard: „Echts“. In: Perlentaucher.de, 6.1.2010, http://www.perlentaucher.de/artikel/5926.html (Stand: 4.10.2010)

226

JAN DISTELMEYER

Abb. 1-2: Aus der Höhle des Löwen – Interface-Räume in Gamer und Click

Auch hier wird das Interface begehbar, wenn Sandler als Michael Newman von dem übermenschlichen Erfinder Morty (Christopher Walken) in die Geheimnisse einer Universal-Fernbedienung eingeführt wird. Hier wie dort geht es um maximale Kontrolle, die visualisiert wird durch maximale Präsenz von Möglichkeiten dessen, was wir als Interaktivität mit digitalen Medien kennen. Im Falle von Click, der weniger Aufmerksamkeit und Lob von Seiten der Kritik erfahren hat, ist das Objekt der Kontrolle kein Avatar, sondern das ganze Leben des Users. Die Universal-Fernbedienung schenkt Michael Newman ungeahnte Freiheiten (z.B. das Überspringen von Staus und anderen Alltagsärgernissen), indem sie ihn über sein Leben verfügen lässt, als läge es auf DVD vor; inklusive Zeitlupe, Standbild, Schnellvorlauf, Sprachwechsel (japanische Geschäftspartner werden qua Fernbedienung fix synchronisiert und untertitelt), dem Skippen ganzer Lebensabschnitte, Audiokommentar (in diesem Fall durch James Earl Jones) und vielem mehr an Zusatzfunktionen. Dieses Angebot ist, wie Morty sagt, „full of goodies“, und die Fernbedienung selbst „a very powerful device“. „Coraci und seine Produzenten,“ fasste es im September 2006 eine Rezension von Lutz Cosima in der Welt zusammen, „variieren hier das launige Allmachts-Motiv und entdecken fürs Fantastische diesmal das Alltags-Filmmedium schlechthin: die DVD nebst Fernbedienung.“3 Was mich hier interessiert, ist kein Vergleich dieser beiden Filme und schon gar keine Ehrenrettung von Click, der zudem wesentlich erfolgreicher gewesen ist als der ambitioniertere Gamer und dessen klischierte Mischung aus Moral und Zote wie eine ahnungslose Antwort auf die Frage wirkt, wie es wohl werden könnte, wenn die Farelli-Brüder auf Frank Capra träfen. Mich beschäftigt stattdessen jener Aspekt, der beide Filme auf je eigene Art verbindet und die Frage nach Kontrolle im Umgang mit di3

Lutz, Cosima: „Fernbedienung fürs Leben“. In: Die Welt, 27.9.2006

MACHTFRAGEN

227

gitalen Medien stellt. Es ist kein Zufall, dass Click das in Gamer zugespitzte Motiv der immersiven, genauer gesagt: räumlich involvierenden Interfaces als Menüs bereits ausgiebig vorführt. Und nicht weniger konsequent ist es, dass diese Umgebungsinterfaces zugleich für die Menüs der DVD Click. Special Edition verwendet wurden, die Sony Pictures Home Entertainment 2006 veröffentlicht hat. Die in Click sehr offensiv verhandelten Fragen nach Macht, Freiheit und Kontrolle sind hier insofern ganz folgerichtig mit der DVD-Technologie verknüpft, weil gerade diese Fragen eine besondere Rolle sowohl in der Entwicklung, der Ästhetik und der Nutzung der DVD als auch in den damit zusammenhängenden Diskursen (von PR bis zu akademischen Analysen) gespielt haben und spielen. Darum möchte ich hier zunächst auf die Ästhetik und das Dispositiv der DVD eingehen, um sie im Zusammenhang mit dem zu diskutieren, was ich unter Digitalizität verstehe, und von dort aus die Frage nach der Ästhetik der Verfügung verfolgen, die meines Erachtens wesentlich ist für die Beschäftigung mit computerbasierten Medien, so wie wir sie heute kennen. Der letzte Punkt beschreibt mein gegenwärtiges Forschungsinteresse, wird also vor allem Perspektiven und Fragen formulieren, die ich derzeit verfolge.

DVD – Verhandlungssache Film Wenn hier von der DVD die Rede ist, beschränke ich mich auf die Spielart des DVD-Video-Formats, (Kino-)Film-Produktionen auf DVD auszuwerten. Ich beziehe mich damit auf jenen Ursprung der DVD im September 1994, als Columbia Pictures, Disney, MCA/Universal, MGM/UA, Paramount, Viacom und Warner Bros. die Hollywood Digital Video Disc Advisory Group formierten. Das Ziel war ein neues Video-Format, um nicht nur neue Filme, sondern auch und insbesondere ihre Archiv-Titel auf dem neuen digitalen Träger auszuwerten. Die Ästhetik der DVD meint hierbei in Anlehnung an Martin Seels Überlegungen zur Ästhetik des Erscheinens nichts anderes als das, was mir mittels der DVD erscheint. Diese Konzentration auf das Erscheinen ist stets zugleich eine Aufmerksamkeit für die „Situation der Wahrnehmung ihres Erscheinens“4 und die ästhetische Wahrnehmung Aufmerksamkeit für das „Geschehen ihrer Objekte“5. Indem das ästhetische Erscheinen ei-

4 5

Seel, Martin: Ästhetik des Erscheinens. Frankfurt am Main 2003, S. 39 (Herv.i.O.) Ebd., S. 99 (Herv.i.O.)

228

JAN DISTELMEYER

nes Objekts als „ein Spiel seiner Erscheinungen“6 aufgefasst und im Ausdruck „Spiel“ eine „Simultaneität und Momentaneität“ von Qualitäten hervorgehoben wird, die an einem Objekt „aus einer jeweiligen Warte“ und „zu einem jeweiligen Zeitpunkt“ zugänglich werden, ist die Frage nach den Prozessen des Erscheinens und dessen Wahrnehmung nicht ohne die Frage nach den Bedingungen, unter denen dies erfolgt, zu haben. Die Analyse dessen, was zum Erscheinen kommt, ist also an die Auseinandersetzung mit den Bedingungen dieses Erscheinens gebunden. Ästhetik und Dispositiv sind einander inhärent – nicht nur wird (in diesem Fall) die Ästhetik der DVD durch das Dispositiv bedingt, auch kann das Dispositiv der DVD nicht ohne die Begegnung mit der DVD als ästhetischem Objekt erfahren und gedacht werden.7 Unter Dispositiv verstehe ich sowohl technisch-apparative Bedingungen und Anordnungen als auch diskursive. Das Kino- wie auch das DVDDispositiv besteht nicht nur aus Apparaten und deren Situierung im Verhältnis zu uns als Publikum und Nutzende, sondern auch aus diskursiven Elementen, die unser Verhältnis zum Dispositiv und unsere Rolle darin mitbestimmen. Wie Markus Stauff in Das neue Fernsehen kritisiert hat, haben die Film- und Medienwissenschaften den Dispositiv-Begriff lange Zeit „in erster Linie unter dem Aspekt der Kopplung oder zumindest der wechselseitigen Abstimmung von medialer Konstellation im engeren Sinne (technische Apparatur, ‚Angebot‘) auf der einen Seite und den Zuschauern / Subjekten auf der anderen“8 verwendet mit der Tendenz, „einen zentralen Mechanismus zu identifizieren, in dem sich die Machtwirkungen des Mediums bündeln“9, was Ausblendungen zur Folge hat, die weniger auf Michel Foucaults als auf Jean-Louis Baudrys Dispositiv-Verständnis zurückzuführen sind. Denn während Baudry von einer (repressiven) Dichotomie ausgeht, deren Grundstein für das Kino in der Trennung zwischen Zuschauer und Apparatur besteht, kommen mit Foucaults machtorientierter Perspektive komplexe Beziehungsgeflechte ins Spiel und Blickfeld, in denen „Gesagtes ebensowohl wie Ungesagtes“10 (Diskurse, Institutionen/Apparate, Entscheidungen/Praktiken/Maßnahmen) mitei6 7 8

9 10

Ebd., S. 70 (Herv.i.O.) Vgl. Distelmeyer, Jan: Das flexible Kino. Ästhetik und Disposition der DVD & Blue-ray. Berlin 2012, S. 18-40 Stauff, Markus: ‚Das neue Fernsehen‘. Machteffekte einer heterogenen Kulturtechnologie. Bochum 2004, http://www-brs.ub.ruhr-uni-bochum.de/netahtml/ HSS/Diss/ StauffMarkus/diss.pdf (Stand: 8.10.2007), S. 177 Ebd., S. 178 Foucault, Michel: Dispositive der Macht. Über Sexualität, Wissen und Wahrheit. Berlin 1978, S. 120

MACHTFRAGEN

229

nander verbunden sind. Das ist für eine an Dispositiven interessierte Analyse eine entscheidende Erweiterung, die in der deutschsprachigen Medienwissenschaft besonders von Markus Stauff stark gemacht wird und in Teilen bereits bei Joachim Paech angeklungen ist.11 Um es mit einem Bild zu sagen, das Deleuze in seinem Aufsatz „Was ist ein Dispositiv?“ zu Foucaults Überlegungen entworfen hat: Auch das diskursive Licht, in dem uns z.B. der Film als Kinofilm oder die DVD als versatiles Medium erscheint, ist wesentlicher Teil des Dispositivs. Die Frage, was eigentlich auf/durch DVDs erscheint, ist für mich zunächst eine historische. Zum Beginn der DVD-Geschichte gibt es nur sehr wenige film- oder medienwissenschaftliche Beiträge. 2008 haben James Bennet und Tom Brown in Film and Television After DVD nüchtern konstatiert, wie klein das „Feld der Wissenschaft“ ist, das sich überhaupt „direkt der DVD widmet“.12 Mark und Deborah Parker haben in einem der frühen und wichtigsten Beiträge zu dem, was DVD-Studies heißen könnte, dazu Stellung bezogen. In ihrem Aufsatz „Directors and DVD Commentary: The Specifics of Intention“, heißt es: „Die ersten DVDs vom März 1997 beinhalteten nur den Film und untertitelte Versionen in Französisch oder Spanisch. Aktuelle Special Edition DVDs strotzen nur so vor zusätzlichen Materialien.“13 Zweifelsohne existieren gewaltige Unterschiede zwischen DVD-Editionen von 2004 wie z.B. Van Helsing. 2-Disc Collector‘s Edition (Universal, 2004) oder Der Wixxer. Doppel Deluxe Edition (Falcom Media / Universum Film, 2004) und den ersten Editionen, die im Dezember 1996 in Japan und dann im März 1997 (zunächst nur in sieben US-Großstädten) auf dem US-Markt eingeführt wurden. Nur waren auch schon die ersten Discs wesentlich mehr als nur bessere Videokassetten. Zwar ist die Forschungslage schwieriger, als man meinen möchte, denn außer privaten Sammlern und Fans scheint (einmal mehr) niemand daran gedacht zu haben, die ersten Schritte eines neuen Mediums zu archivieren. Für keine dieser DVD-Veröffentlichungen jedoch, die ich finden konnte, gilt die von Parker und Parker aufgestellte Regel. Sowohl die ersten DVDs von 11

12

13

Paech, Joachim: „Überlegungen zum Dispositiv als Theorie medialer Topik“. In: Robert F. Riesinger (Hg.): Der kinematographische Apparat. Geschichte und Gegenwart einer interdisziplinären Debatte. Münster 2003, S. 175-194 Bennett, James / Brown, Tom: „Past the Boundaries of ‚New‘ and ‚Old‘ Media: Film and Television After DVD“. In: Dies. (Hg.): Film and Television After DVD. New York 2008 S. 8 Parker, Deborah / Parker, Mark: „Directors and DVD Commentary: The Specifics of Intention“. In: The Journal of Aesthetics and Art Criticism, Vol. 62, Nr. 1, Winter 2004, S. 13

230

JAN DISTELMEYER

Warner Home Video (z.B. Eraser, Blade Runner: The Director‘s Cut, Twister, Space Jam und Batman) als auch von New Line Home Video (z.B. Se7en und The Mask. New Line Platinum Edition) und MGM/UA Home Video (z.B. Singin‘ in the Rain und The Wizard of Oz), die alle im März 1997 erschienen, bieten mehr als nur „den Film und untertitelte Versionen in Französisch oder Spanisch“ – es gab u.a.: Kapitelauswahl (genannt „jump to a scene“ oder „Chapter Search“), Infomationen („cast listing“, „production notes“ usw.), Outtakes, Filmempfehlungen, Trailer, Deleted Scenes, Making Of-Materialien, Interviews, Fotogalerien und auch den ersten Audiokommentar der DVD-Geschichte (von Charles „Chuck“ Russel auf The Mask. New Line Platinum Edition). Hinzu kamen auf allen Discs Menüs, noch stumme, unbewegte Tableaus, die aber schon damals als Zugriff auf die Inhalte zugleich selbst wesentliche und offensiv beworbene Inhalte des DVD-Programms gewesen sind. Gleiches gilt übrigens auch für die ersten deutschen Filme der DVD-Geschichte Nosferatu, Das Cabinet des Dr. Caligari (beide: Image Entertainment) und Das Boot (Columbia TriStar), die alle im Herbst 1997 erschienen. Es geht mir hier nicht um Beckmesserei; vielmehr darum, die Argumentation Mark und Deborah Parkers, DVDs seien eben „keine simple Kopien wie Videokassetten“, sondern müssten als eigenständige Medien (sie sprechen von „Neuorientierung des Films“) ernst genommen werden, aufzugreifen und weiterzuführen.14 Denn schon der Beginn der DVDGeschichte zeigt deutlich, dass wir die heterogenen Ursprünge und Angebote der DVD nicht unterschätzen dürfen. Wir können sie nicht einfach als neue Träger für Filme theoretisch einpassen, wie es z.B. David Bordwell anbietet, wenn er festhält, die DVD fungiere „nicht als besonderes Format für den Film, sondern als ein Werkzeug, dass die Analyse des Plots viel einfacher macht als mehrere Kinobesuche“15. Die DVD als ein Werkzeug zu sehen, das „die Filme“ weitgehend „stabil“ lasse, auch wenn sie dabei „paratextuell“ gerahmt werden (was einen seit einiger Zeit ebenso populären wie auch hinsichtlich der damit behaupteten Text-Hierarchie problematischen Ansatz im DVD-Diskurs darstellt), geht von einem merkwürdig festen Kern der DVD aus: „dem Film“.16 14 15 16

Vgl. ebd., S. 14 Bordwell, David: „New media and old storytelling“. In: David Bordwell’s website on cinema, 15.5.2007, http://www.davidbordwell.net/blog/?p=827 (Stand: 6.10.2010) Vgl. dazu: Bordwell, David: The Way Hollywood Tells It. Story and Style in Modern Movies. Berkeley / Los Angeles / London 2006, S. 103; Böhnke, Alexander: „Mehrwert DVD“, in: Navigationen. Heft 1/2 (Fragment und Schnipsel) 2005, S. 213223; Skopal, Pavel: „‚The Adventure Continues on DVD‘: Franchise Movies as Home Video“. In: Convergence. Vol. 13, Nr. 2, 2007, S. 185-198; Gwóźdź, Andrzej

MACHTFRAGEN

231

Schon die ersten Editionen der DVD-Geschichte aber stellen diese Setzung in Frage. Sie fragen danach, wie „der Film“ auf DVD überhaupt isoliert werden kann. Neben der Wahl zwischen unterschiedlichen Bonusmaterialien können wir in Menüs unsere Auswahl treffen hinsichtlich Bild und Ton des sogenannten Hauptfilms. Zudem stellen uns schon z.B. Eraser, Twister und Blade Runner: The Director‘s Cut auch vor die Wahl des Formats – wir können uns zwischen der „Widescreen Version“ im CinemaScope-Format 2,35:1 und der beschnittenen „Standard Version“ in 4:3 entscheiden. Der DVD-Video-Standard erlaubt bis zu acht Tonspuren für Sprachen und weiteres Audio-Material sowie bis zu 32 subpicture tracks für Untertitel, Erläuterungen und andere Einblendungen. Die seltene Multi-Angle-Funktion ermöglicht zudem bis zu neun Videospuren, um z.B. zwischen verschiedenen Kamera-Einstellungen zu wählen. Ganz zu schweigen von Angeboten mit sogenannten interactive Buttons, über die dann – wie erstmals beim berühmten „Follow the white Rabbit“-Feature auf The Matrix (Warner Home Video, 1999) – Making-of-Sequenzen oder andere Szenen per Tastendruck in den laufenden Film integriert werden können. ,Der Film‘ erscheint so unter bestimmten Bedingungen als variabel – als eine im mehrfachen Sinne verhandelbare Größe. Leonardo Quaresima hat in diesem Sinne von der DVD als Bausatz zur Konstruktion von Versionen gesprochen.17 Die Frage also, die sich schon bei den ersten Editionen stellt, lautet: Über welche Ton-Bild-Untertitel-Kombination in welchem Format sprechen wir eigentlich, wenn wir von „dem Film auf DVD“ sprechen? Wie verstehen wir das, was im akademischen DVD-Diskurs so intuitiv nachvollziehbar als „Hauptfilm“18, als „der Film auf DVD“19, als „der eigentliche Text“20, als „Text des Films“21 oder als „der primäre Text“22 bezeichnet wird?

17

18 19 20 21 22

(Hg.): Film als Baustelle. Das Kino und seine Paratexte / Film Under Re-Construction. Cinema and Its Paratexts. Marburg 2009 Quaresima, Leonardo: „Mehrprachenversion / Dubbing?“. In: Jan Distelmeyer (Hg.): Babylon in FilmEuropa. Mehrsprachenversionen der 1930er Jahre. München 2006, S. 34 Paech, Joachim: „Film, programmatisch“. In: Klaus Kreimeier / Georg Stanitzek (Hg.): Paratexte in Literatur, Film, Fernsehen. Berlin 2004, S. 218 Bordwell: „New media and old storytelling“ (wie Anm. 15) Hu, Brian: „DVD Deleted Scenes and the Recovery of the Invisible“. In: Continuum: Journal of Media & Cultural Studies. Vol. 20, Nr. 4, 2006, S. 501-503 Böhnke: „Mehrwert DVD“ (wie Anm. 16), S. 216 Brookey, Robert Alan / Westerfelhaus, Robert: „Hiding Homoeroticism in Plain View: The Fight Club DVD as Digital Closet“. In: Critical Studies in Media Communication. Vol. 19, Nr. 1, March 2002, S. 25

232

JAN DISTELMEYER

Whatever you want: Interaktivität Das Angebot an uns, über Filme auf DVD zu verfügen und damit eine gewisse Form von Macht zu erlangen, das damit auf dem Plan ist und in Click so sehr im Zentrum der Erzählung und der Moral steht, will ich im Weiteren diskutieren. Es führt zunächst zurück zu wesentlichen Eigenschaften des Films und des Kinos. Ich verstehe solche Angebote von Variabilität auf DVD als eine medienspezifische Zuspitzung und Weiterbildung der anti-originalen Eigenschaft des Films, die die Geschichte der bewegten Bilder von Beginn an ausgezeichnet hat. Es ist die Eigenschaft des Films, an die Stelle eines einmaligen Vorkommens sein massenweises zu setzen, und dabei stets für Veränderungen offen zu bleiben. Die Illusion eines filmischen Originals, der Wunsch nach einem autorisierten und einmaligen, referenzfähigen Werk, hat die Geschichte des Films ebenso begleitet wie die jederzeit erfahrbare Enttäuschung. Walter Benjamins Kunstwerkaufsatz ist wohl das berühmteste Theorie-Zeugnis dieses befreienden Verlustes von Einzigartigkeit, der auch die Filmstudios befreit, indem sie z.B. die prinzipielle Veränderbarkeit des Films mit Testvorführungen und zu Exportzwecken nutzen. „Ein Film ist immer veränderbar gewesen. Was die Filmindustrie gemacht hatte, das konnte immer von der Filmindustrie auch manipuliert werden“23, ruft Georg Seeßlen den anti-originalen Charakter des Films in Erinnerung, indem er die ersten beiden Sätze des Kunstwerk-Aufsatzes variiert. Paolo Cherchi Usai nennt dem Film schlicht ein „multiples Objekt“.24 Es ist mir wichtig, von einer für die DVD charakteristischen medienspezifischen Zuspitzung und Weiterbildung der Eigenschaften des Films zu sprechen, denn die Anti-Originalität des Films im Kino ist eine andere als die auf/durch DVD und Blu-ray-Disc (BD). Anti-Originalität realisiert sich hier unter anderen Bedingungen, in einem anderen Dispositiv. In diesem Sinne wäre Brian Hus Hinweis zu lesen, die DVD (wie auch die BD) sei kein lineares Medium, vielmehr ein Datenspeicher: „nicht bemessen im Hinblick auf Zeit, sondern im Hinblick auf Kapazität: Gigabytes“25. Und gerade deshalb können hier, wie ich noch zeigen will, andere Machtansprüche gestellt bzw. unterlaufen werden. 23 24 25

Seeßlen, Georg: „Das Verschwinden des Originals“. In: epd Film. 21. Jhrg., Nr. 8, 2004, S. 22 Cherchi Usai, Paolo: Silent Cinema. London 2000, S. 160. Hu: „DVD Deleted Scenes and the Recovery of the Invisible“ (wie Anm. 20), S. 501

MACHTFRAGEN

233

Der Anti-Originalität auf/durch DVD liegt in besonderer Weise jenes in der Film- und Medienwissenschaft oft vernachlässigte Angebot zugrunde, das zugleich seit über zehn Jahren mit soviel Aufwand produziert wird: das Interface der DVD, die zumeist audiovisuellen, bewegten Menüs, mit deren Hilfe wir dazu kommen, die gespeicherten Inhalte aufzurufen. Auf DVD setzen sich Menüs zum ersten Mal in der Geschichte der industriellen Auswertung von Kinofilmen als Filmzugang und Präsentationsform durch. Die Laserdisc musste auf sie verzichten, und selbst auf der Video-CD, die seit 1993 am Markt ist, waren Menüs noch nicht zu finden. In Menüs entscheiden wir in programmierten Grenzen über Erscheinungsformen des so genannten Hauptfilms und weiterer Materialien – wir haben neuen Anteil an der Variabilität des Programms. DVD-Menüs öffnen uns Entscheidungsräume, mit dem Steuerkreuz der DVD-Fernbedienung bewegen wir uns darin. Es geht um Zugänge und Verbindungen einer intermedialen Architektur, um die Nutzung der DVD als Hypermedium mit ihren Navigationswegen, die schon früh so aufwändig produziert wurden, dass der Kognitionswissenschaftler und Informatiker Donald Norman bereits 2001 die Entwicklung vormals simpler Gestaltungen hin zu „extravaganten, animierten, komplizierten Menüs“, zu „ausgeklügelten Produktionen“ vehement kritisiert hat.26 Gerade von DVD-Produzenten (wie auch von Fans und Usern in Internetforen und Produktrezensionen) sind die Navigationsräume der Menüs mit Immersionsversprechen verknüpft worden. Man tauche ein in „die Welt dieses Films“27, so Charles de Lauzirika, einer der renommiertesten und erfolgreichsten DVD-Produzenten, und der als „DVD-MenüGuru“28 apostrophierte Van Ling sieht sein Ziel in der DVD-Gestaltung, „den Geist des Films zu beschwören und die Zuschauer eintauchen zu lassen in die Umgebungen des Films“29. Neben den offensichtlichen Bezügen zu Video- und Computerspielen und den damit verbundenen Ver26

27 28 29

Vgl. dazu Distelmeyer, Jan: „Spielräume. Videospiele, Kino und die intermediale Architektur der Film-DVD“. In: Rainer Leschke / Jochen Venus (Hg.): Spielformen im Spielfilm. Bielefeld 2007, S. 389-416 und Distelmeyer, Jan: „Game-Glanz. Spielen im Licht der Digitalizität“. In: Jürgen Sorg / Jochen Venus (Hg.): Erzählformen im Computerspiel. Zur Medienmorphologie digitaler Spiele. Bielefeld 2012 [im Erscheinen]. Charles de Lauzirika, zitiert nach: N.N.: „Totally immersed in the world of DVD“. In: Video Business Premiers. January 2002, S. 3 Failes, Ian: „DVD producer Van Ling“. In: fx guide, 20.11.2005, http://www.fxguide.com/fxblog1640.html (Stand: 25.11.2005) Van Ling, zitiert nach: N.N.: „DVD: The Star Wars Trilogy. Van Ling, DVD Producer“. In: The Washington Post. 21.9.2004, http://discuss.washingtonpost.com/ wp-srv/zforum/04/entertainment_ling092104.htm (Stand: 6.10.2010)

234

JAN DISTELMEYER

sprechungen von und Diskussionen um Immersion bzw. Involvierung drängt sich dazu eine weitere medienhistorische Parallele auf. Sie führt zur filmhistorischen Tradition der szenischen Prologe im US-Stummfilmkino.30 Vinzenz Hediger hat diese Einstimmungs-Konvention, deren Hochphase zwischen Mitte der 1910er und Ende der 1920er Jahre gelegen hat, als Schwelle und Verstärker bezeichnet und die Definition eines solchen Prologs, der häufig auch als „atmosphärischer Prolog“ bezeichnet worden ist, mit Bezug auf Branchenzeitungen jener Jahre so zusammengefasst: „Ein Prolog ist demnach eine Bühnenproduktion, die dem Film unmittelbar vorausgeht und Thema, Stimmung oder einzelne Szenen des Films reproduziert. Seine primäre Funktion ist es, das Publikum an den Film heranzuführen.“31 Die konzeptionellen Ähnlichkeiten zwischen diesen in der Regel zwischen fünf und sieben Minuten dauernden Prologen und den DVD-Menüs, die so häufig ebenfalls Motive und Szenen des Hauptfilms präsentieren, werfen neue Fragen auf: Es scheint, als erinnere sich die Filmindustrie in dem Augenblick, in dem ihre Produkte (noch einmal und nun als entschlossene, konzertierte Aktion von Film-, Unterhaltungselektronik- und Computer-Industrie) das Kino verlassen, einer jener Traditionen, mit denen sich Film und Kino einst institutionell etablierten. So wie die szenischen Prologe die Filmerfahrung prägen sollen und damit Einfluss haben auf das „Kino als Ereignis“32, prägen Menüs das, was Fans und prominente DVD-Produzenten wie de Lauzirika, Lancelot Narayan oder Jeffrey Schwarz „die DVD Erfahrung“33 nennen, und ich will hier einen der Gründe ein wenig verfolgen, warum man bei der DVD-Entwicklung und Gestaltung so entschlossen auf Menüs gesetzt hat. Hier wird die Vorgeschichte der DVD wichtig – insbesondere das Jahr 1993, was mich zum Begriff der Digitalizität führen wird.

30 31 32 33

Für den Hinweis auf diesen Zusammenhang danke ich Vinzenz Hediger. Hediger, Vinzenz: „‚Putting the Spectators in a Receptive Mood‘. Szenische Prologe im amerikanischen Stummfilmkino“. In: montage/av. 12 (2004 ), Nr. 2, S. 75 Altman, Rick: „General Introduction: Cinema as Event“. In: Ders. (Hg): Sound Theory/Sound Practice. New York / London 1992, S. 1-14 Vgl. dazu: Larman, Alexander: „Interview with DVD producer Charlie de Lauzirika“. In: DVD Times. 9.5.2002, http://www.dvdtimes.co.uk/content.php?contentid =250 (Stand: 6.10.2010); Pour-Hashemi, Raphael: „Interview With DVD Producer Jeffrey Schwarz“. In: DVD Times. 14.5.2002, http://ww.dvdtimes.co.uk/content.php?contentid=251 (Stand: 6.10.2010); Schuchardt, Richard: „Interview with Lancelot Narayan“. In: DVDActive. 26.8. 2002, http://www.dvdactive.com/editorial/interviews/lancelot-narayan.html (Stand: 6.10.2010)

MACHTFRAGEN

235

Ein Jahr vor der Gründung besagter Hollywood Digital Video Disc Advisory Group hatte das Interesse Hollywoods an der CD-ROM und Videospielindustrie, an den neuen computerbasierten Medien einen vorläufigen Höhepunkt erreicht: Nachdem der Sony Pictures Entertainment-Präsident Lawrence Ruisi im Januar 1993 die Aufmerksamkeit gegenüber „dem ganzen interaktiven Genre“34 betont hatte, meldete das Hollywood-Branchenblatt Variety im Juli desselben Jahre, eines sei derzeit „eindeutig“: „Interaktive Unterhaltung – Bilder, Töne und Texte zusammengefügt auf einer CD – ist der größte Knüller der Stadt (the hottest ticket in town).“35 In diesem Jahr zeigten die Studios nicht nur groß angelegte Versuche, mit der Verfilmung von Videospielen an diesem Hype zu partizipieren, auch die Partizipation jedes großen Filmstudios an Game-Entwicklungen war 1993 unübersehbar geworden.36 Im selben Jahr begann die Voyager Company damit, Kinofilm und CD-ROM zusammenzubringen, CD-ROMs zu ausgewählten Kinofilmen zu veröffentlichen. Ebenfalls 1993 präsentierten Philips und Paramount Pictures Filme auf dem erfolglosen CD-Format CD-i (Compact Disc Interactive). Jurassic Park schließlich, der erfolgreichste Blockbuster des Jahres 1993, bot neben vielen anderen Attraktionen auch eine bemerkenswerte und komplexe Auseinandersetzung des Kinos mit den (Interaktions-)Versprechungen digitaler Medien: z.B. in der etwas holprigen Variante einer vermeintlich interaktiven Kinovorführung, die der Park-Gründer und Besitzer John Hammond (Richard Attenborough) dem amüsierten Fachpublikum (Laura Dern, Sam Neill und Jeff Goldblum) präsentiert. Im Kinosaal des Jurassic Park, dem Startpunkt der Tour durch den SaurierThemenpark, erscheint Hammond ein zweites Mal auf der Leinwand, begrüßt sein Auditorium, das darauf (wozu der neben der Leinwand stehende Hammond-Nr. 1 ermuntert) zurückgrüßt, bevor Hammond-Nr. 1 mit seinem Leinwand-Double einen Dialog führt, an deren Ende der Leinwand-Hammond durch Hammond-Nr. 1 etwas Blut abgezapft bekommt. Interaktion ist hier inszeniert, in jedem Sinne ein Effekt des Kinos, und wird durch den misslungenen Start der Vorführung (Hammond-Nr. 1 verpasst seinen Einsatz und kommt zu spät in den Dialog) als begehrtes 34 35 36

Grimes, William: „When the Film Audience Controls the Plot“. In: The New York Times,13.1.1993 Rothman, Matt: „Trimark‘s interactive wing taps Flock topper“, in: Variety, 18.3.1993 Vgl.: Everschor, Franz: „Mit Filmen Spielen. Hollywood investiert in Videospiele und interaktives Fernsehen“, in: film-dienst, Nr. 16, 1993, S. 41

236

JAN DISTELMEYER

Abb. 3-4: I’ll show you: Interaktives Kino im Jurassic Park

Prinzip noch hervorgehoben. Spannend ist zudem, welche Rolle diese Kino-Show in der Jurassic Park-Erzählung spielt. Sie ist Hammonds Reaktion auf die angesichts der lebenden Saurier atemlos gestammelten Wissenschaftlerfrage, wie denn dieses Wunder von einem Themenpark habe entstehen können: „I’ll show you!“ Das Kino soll hier noch einmal die Antwort sein, auch wenn es (und wie könnte es bei Jurassic Park, dem gefeierten Musterbeispiel eines Blockbusters der so genannten digitalen Ära, anders sein) die Rolle des Computers hervorhebt und nicht verschweigt. Während wir als Kinopublikum auch 1993 sicher wissen dürften, dass die Saurier als Hauptattraktionen des Films Jurassic Park Effekte digitaler Postproduktion sind, erfahren die Protagonisten dieses Films im Film selbst in der Kinoaufführung des Parks, dass „thinking machine super-computers“ das Klonen von Sauriern ermöglicht haben. Einerseits kehrt dieser mit digitalen Effekten aufgewertete Blockbuster damit zu den Wurzeln des Kinos als Jahrmarktattraktion zurück und spielt andererseits eine vorgefertigte Interaktion mit der Leinwand durch. Damit beginnt freilich erst das komplexe Verhältnis dieses Films zum Computer, dessen Leistung, Versagen und dann wieder Leistung ja zu einem guten Teil die Erzählung und Spannung dieses Films strukturiert. Das Wunderwort „Digital“, das zentrale Verkaufsargument der Medien- und Unterhaltungsindustrie der 1990er Jahre war bereits 1993 zugleich ein Versprechen von Interaktivität. Der „Mythos des Digitalen“37 ist spätestens seit Ende der 1980er untrennbar mit Interaktivität verbunden. So groß war 1993 der „‚außerordentliche Hype‘ um interaktive Produktentwicklung“, wie es Variety formulierte, dass der Fernsehproduzent Jonathan Goodson im Herbst 1993 beim Workshop „Hollywood Meets Silicon Valley“ mit der überraschenden Beobachtung warnte, die Worte 37

Manovich, Lev: The Language of New Media. Cambridge 2001, S. 52-55

MACHTFRAGEN

237

Abb. 5-6: Our target audience entdeckt die Mediensensation des Jurassic Park

„interaktiv“ und „erfolgreich“ gehörten gar nicht automatisch zusammen.38 Wie aufmerksam die Filmindustrie die Entwicklung digitaler Medien beachtete, zeigt gerade Jurassic Park, dessen digital animierte Sensationen von Bolter und Grusin in ihrer Remediation-Theorie als Zeichen der medienhistorischen Aufmerksamkeit gewertet worden sind. Die Integration von Computergraphik sei ein Versuch, die Bedrohung durch die digitalen, interaktiven Medien abzuwehren.39 Dass jedoch keineswegs nur eine Antwort auf die etwaige Medien-Bedrohung im Jurassic Park zu besichtigen ist, vielmehr auch die Bedrohung selbst (und zwar als ein durchaus wesentliches Element dieses Attraktionskinos), führen in besonderer Weise John Hammonds Enkel vor, die hier als „our target audience“ ankündigt werden, bevor diese dann noch vor dem ersten Saurierkontakt entzückt auf einen Touchscreen-Monitor in einem der computerkontrollierten Jurassic-Cars losgehen: „It’s an interactive CD-ROM! You just touch a part of the screen and it talks about whatever you want!“ Für das Zielpublikum ist die erste Sensation des Dino-Themenparks die computerbasierte Interaktivität. Vor diesem Hintergrund wird die drei Jahre später eingeführte DVD als eine dezidiert andere Antwort verhandelbar – als so etwas wie die feindliche Übernahme der im Jurassic Park aufblinkenden interaktiven CD-ROM-Menüs. Von Anfang an zielte die Werbung für DVDs vor allem in zwei Richtungen. Zum einen betonte man eine verbesserte Ton und Bildqualität, den Glanz der digitalen Technik als audiovisuelle „Brillanz“. Zum anderen ging es um eine der wichtigsten diskursiven Effekte der Digitalisierung: Interaktivität. Um dies möglichst einfach mit dem klassischen linearen Medium Film zusam38 39

Vgl. Marx, Andy: „Sorting interactive wheat from chaff“. In: Variety, 5.11.1993 Bolter, Jay David /Grusin, Richard: Remediation. Understanding New Media. Cambridge 2002, S. 48

238

JAN DISTELMEYER

men zu bringen, waren Menüs die erste Wahl. Sie bekräftigten den Eintritt der Filmindustrie in das so genannte digitale Zeitalter. Als die Filmstudios ihre ersten DVDs 1997 auf dem US-Markt präsentierten, priesen DVD-Cover ihre „Interactive Menus!“ an – als ersten und wichtigsten Punkt unter „Extras“. Auf den deutschen DVDs der ersten Jahre übersetzt mit „Interaktive Menüs“. Diese Menüs waren ein wichtiges Pfund, mit dem die DVD als ostentativ digitales Medium wucherte, um sich als zeitgemäß = digital = interaktiv zu erweisen. Auf genau dieser Grundlage, menübasiert, sollte sich das Versprechen erfüllen, das – die computerbasierte Konkurrenz immer im Auge – ebenfalls bereits 1997 auf ersten DVDs zu lesen war: „It‘s more then just the movie!“ „Eine DVD von e-m-s. Mehr als nur ein Film“, lautet eine typische Übernahme für den deutschen Markt. In diesem Versprechen sind bereits zwei jener Aspekte enthalten, auf die ich hier im ersten Schritt hinweisen wollte: Die Bestätigung der AntiOriginalität des Films auf DVD (Mehr als nur ein Film) sowie das Versprechen des Übergangs des Films in die mit Interaktivität und Multimedia assoziierte „digitale Ära“ (Mehr als nur ein Film).

Digitalizität Was aber genau heißt das: Die digitale Ära? Was ist der „Mythos des Digitalen“, was hat er mit Interaktivität zu tun und wie kommt das Kontrollbzw. Machtversprechen ins Spiel? Vor allem aber: Wie können wir darüber reden, dazu eine kritische Position einnehmen? Ich werde zu diesem Zweck von Digitalizität sprechen, und zwar nicht obwohl, sondern gerade weil der Begriff so offensichtlich erklärungsbedürftig ist. Diesen Neologismus entlehne ich von Tom Holert, der damit das von Roland Barthes in Mythen des Alltags entwickelte Projekt einer „angemessenen Terminologie“ aufgegriffen hat, um den Mythos als „ein Mitteilungssystem, als eine Weise des Bedeutens, als eine Form [und nicht als ein Objekt oder eine Idee]“40 zu bestimmen. Mit seinen Beispielen der Sinität, Italianität, Germanität, Hispanität oder Frankität, die alle auf „einer Kenntnis gewisser touristischer Stereotypen“41 beruhen, schlägt Barthes 40

41

Holert, Tom: „Globodigitalizität. Über die Zumutung des Evidenten“, Vortrag an der Kunsthochschule für Medien Köln, gehalten am 4.6.2002, veröffentlicht online: www.khm.de/kmw/kit/pdf/holert.pdf (Stand: 3.12.2006), S. 11 (Herv.i.O.) Barthes, Roland: „Rhetorik des Bildes“. In: Ders.: Der entgegenkommende und der stumpfe Sinn. Frankfurt am Main 1990, S. 30

MACHTFRAGEN

239

vor, wie dieses Vorhaben zur angemessenen Terminologie führen könnte. „China ist eine Sache“, so Barthes zur Sinität, aber: „die Vorstellung, die noch bis vor kurzem ein französischer Kleinbürger sich davon machen konnte, ist eine andere. Für diese spezifische Mischung aus Rikschas, Glöckchengeklingel und Opiumrauchen ist kein anderes Wort möglich als Sinität.“42 Um also über jene Begriffe, die als Mythos immer schon selbst eine historische Form und eine Weise des Bedeutens sind, zu sprechen, ohne dabei unweigerlich dieser Form und Weise des Bedeutens genau damit das Wort zu reden, müssen Begriffe erfunden werden. Der Wunsch nach einer (immer schon eingeschränkten und vom Gegenstand der Kritik bedingten) Position der Kritik führt mich zu diesen Sprechakten der Verzweiflung, zu denen auch Digitalizität gehört. Damit möchte ich von der Strahlkraft des Begriffs „digital“ sprechen, der – um das Bild von Deleuze zu Foucaults Dispositiv-Begriff noch mal aufzugreifen – mit seiner spezifischen Lichtordnung jene Dinge, die er bezeichnet, besonders erscheinen und erstrahlen lässt. Siegfried Zielinski hat über diesen Glanz im Verhältnis zur Karriere des Medienbegriffs Ende des 20. Jahrhunderts geschrieben und „digital“ als ein „Zauberwort“ in Finanzierungsgesuchen bezeichnet, das („am besten in Verbindung mit dem Menetekel Internet“) die Tresore von Regierungen und Administrationen öffnete.43 Wenn man den seit Ende der 1980er Jahre insbesondere in Nordamerika und Westeuropa etablierten Diskurs der Digitalizität betrachtet, so ist das Zauberwort „digital“ ebenfalls mit einer, wie Barthes es nennt, spezifischen Mischung assoziiert, zu der insbesondere folgende Versprechungen gehören: Interaktivität, Multimedia und Konvergenz, Flexibilität und Wandelbarkeit (auch als Vorstufe zur Mobilität) sowie damit zusammenhängend Kontrolle und Freiheit. Zum Begriff der Interaktivität ist in den letzten knapp zwanzig Jahren so viel publiziert worden, dass seine Schlüsselposition in diesem Zusammenhang kaum noch illustriert werden muss. Russell Richards bringt Digitalizität und Interaktivität beispielhaft zusammen, wenn er gleich vom „digitalen interaktiven Zeitalter“44 spricht, und Stephen Keane zählt 2007 zu den am meisten mit „dem Digitalen“ verbundenen Begriffen „Mani-

42 43 44

Barthes, Roland: Mythen des Alltags. Frankfurt am Main 1964, S. 101 (Herv.i.O.) Zielinski, Siegfried: Archäologie der Medien. Zur Tiefenzeit des technischen Hörens und Sehens. Reinbek bei Hamburg 2002, S. 46-47 (Herv.i.O.) Richards, Russell: „Users, interactivity and generation“. In: New Media & Society. Vol. 8, Nr. 4, 2006, S. 536

240

JAN DISTELMEYER

pulierbarkeit“, „Konversion“, „Versatilität“ und „Interaktivität“45. Längst klassisch gewordene Lehrbücher der Digitalizität (die mit der „digitalen Revolution“ zugleich die „New Economy“ protegierten) wie Negropontes Total digital oder Tapscotts Die digitale Revolution priesen „die digitale Welt“ und seine „wirklich interaktive[n] Medien“, die durch „die digitale lingua franca von Bits entstanden sind“46, und erklären: die „neuen Medien sind interaktiv, flexibel, und ihre Kontrolle geht von vielen aus“47. Für den Fall, dass wir angesichts dieser Flexibilität einen Machtverlust befürchten sollten, kann uns Don Tapscott gleich beruhigen: Denn „schließlich werden sie doch zu dem werden, was wir wollen“ und „tun, was wir ihnen vorgeben.“48 Schon diese kleinen Auszüge zeigen an, wie Digitalizität und Interaktivität zugleich mit Versprechungen von Flexibilität, Freiheit und Kontrolle verbunden sind. Im Zusammenhang der Ludologen/Narratologen-Kontroverse der Game Studies Anfang der 2000er Jahre hat Henry Jenkins darauf hingewiesen, dass „Freiheit, Macht und Selbstdarstellung mit Interaktivität assoziiert werden“49, um diese Assoziationen in seinen eigenen Arbeiten zur participatory culture und den „neu ermächtigten Konsumenten“50 eindrucksvoll zu bestätigen: Natürlich würden Konsumenten in der künftigen „Konvergenz-Kultur“, in der sich alte und neue Medien (als weiteres Loblied der Wandelbarkeit) kreuzen, „machtvoller werden“, doch nur, „wenn sie diese Macht sowohl als Konsumenten und Bürger erkennen und nutzen“.51 In Abgrenzung zur Hegemonie der klassischen Massenkultur und ihrer Medien, so kritisieren Stephen Kline, Nick DyerWitheford und Greig de Peuter diesen Teil der Digitalizität, würden uns „digitale Mediengeräte und -inhalte befreien, weil ihr Publikum ihre eigenen Erfahrungen in einem dreifachen Sinne strukturieren: durch technologische Ermächtigung, Konsumenten-Souveränität und kulturelle

45 46 47 48 49 50 51

Keane, Stephen: CineTech: Film, Convergence and New Media. Houndmills / New York 2007, S. 36 Negroponte, Nicholas: Total digital. Die Welt zwischen 0 und 1 oder Die Zukunft der Kommunikation. München 1995, S. 82 Tapscott, Don: Die digitale Revolution. Wiesbaden 1997, S. 368 Ebd. Jenkins, Henry: „Game Design as Narrative Architecture“. In: Pat Harrington / Noah Frup-Waldrop (Hg.): First Person. Cambridge 2002, S. 125 Jenkins, Henry: „The cultural logic of media convergence“. In: International Journal of Cultural Studies. Vol. 7, Nr. 1, 2004, S. 37 Jenkins, Henry: Convergence culture: where old and new media collide. New York 2006, S. 260

MACHTFRAGEN

241

Kreativität“.52 Diese Argumentation ist auch in jenem besonderen Teil des akademischen Diskurses der Digitalizität zu beobachten, der sich – u.a. vertreten durch Sherry Turkle – mit den Konsequenzen für die Konstruktion von Identität befasst. Ende der 1990er Jahre, bevor Debatten um Second Life erneut dieses Feld bestellten, galt die Annahme, Cyberspace und „vernetzte Identitäten“ hätten den Effekt der Multiplizierung des Selbst, innerhalb der digital theory fast schon als eine Binsenweisheit, wie Tara McPherson betont.53 Die Interaktivität computerbasierter Medien, so könnte man den seit Ende der 1980er Jahre insbesondere in den USA und Westeuropa etablierten Diskurs stark verkürzt zusammenfassen, nutzt die Flexibilität ,des Digitalen‘, indem sie eine neue Form von Kontrolle etabliert, die ermächtigten Nutzenden größere Freiheiten schenkt. Wie sehr diese Assoziationen, die spezifische Mischung, weiterhin wirkt, ist u.a. in Tapscotts jüngeren Thesen zu den Wikinomics abzulesen wie auch in der anhaltenden Kritik an Google und Apple (insbesondere auf das i-Pad und die App-Politik bezogen), die u.a. die Verkehrung der User-Ermächtigung und -Emanzipation zur User-Entmündigung und -Überwachung anklagen, während das „kollektive Bloggen“, wie Julian Kücklich die „utopische[n] Vorstellungen“ zusammenfasst, „zu mehr Mitbestimmung und Transparenz bei Staatsbehörden, Medien und Unternehmen führen“ soll.54 In Amateure im Netz hat Ramon Reichert ausführlich die „freiheitlich argumentierenden Netzdiskurse“ diskutiert und sie den neoliberalen Tendenzen des geforderten „Selbstmanagements“ gegenübergestellt, in denen die „Medienamateure die Subjektivierungsanforderungen zum Objekt ihrer eigenen Verantwortung“ machen und damit „die Herrschaftspraxis der indirekten Selbstführung“ verinnerlichen.55

Achsen der Kontrolle Vor diesem diskursgeschichtlichen Hintergrund ist es nicht verwunderlich, dass die DVD, gefeiert als der Übergang Hollywoods in „die digitale 52 53 54 55

Kline, Stephen / Dyer-Witheford, Nick / de Peuter, Greig: Digital Play: The Interaction of Technology, Culture, and Marketing. Montreal 2003, S. 14 McPherson, Tara: „Self, Other and Electronic Media“. In: Dan, Harries (Hg.): The New Media Book. London 2002,S. 163 Kücklich, Julian: „Schöne neue Blogosphäre? Das Internet als Mittel der Selbstverwirklichung und der Selbstausbeutung. In: Der Freitag, 18.05.2007 Reichert, Ramon: Amateure im Netz. Selbstmanagement und Wissenstechnik im Web 2.0. Bielefeld 2008, S. 21-23 (Herv.i.O.)

242

JAN DISTELMEYER

Ära der Heim-Unterhaltungs-Technologie“56, ebenfalls mit dieser Mischung zu tun hatte. Digitalizität ist als diskursives Element des DVDDispositivs wirksam und wird eben damit zugleich weiter ausgeformt. Wie schon angedeutet ist die im Vergleich zur VHS gesteigerte Bild- und Tonqualität nie das alleinige Argument zur Durchsetzung des neuen Formats gewesen, von Anfang sind die Ankündigungen und Versprechungen der DVD auch durch die machtbezogene Verheißung geprägt worden. Erläuterungen auf dem DVD-Cover, Intro-Sequenzen als dem Menü vorgelagerte Begrüßungen und Einführungen sowie die Gestaltung der Menüs selbst tragen ihre Teile dazu bei. Die menübasierte Verfügung über die DVD-Inhalte hat Warren Lieberfarb, der als Präsident von Warner Home Video stark an der Entwicklung und Etablierung der DVD-Technologie beteiligt gewesen ist (und seitdem als „Vater der DVD“ gerühmt), als „Ermächtigung der Zuschauer“57 bezeichnet. Diese Bestärkung des Publikums ist genuiner Bestandteil des DVD-Diskurses gerade in den ersten Jahren gewesen. „Die DVD ist als Mittel zur Ermächtigung beschrieben worden, das neue Grade von Kontrolle und Zugang zu Inhalten ermöglicht“58, rekapituliert Bryan Sebok die DVD-Werbung und Presseberichte in den USA um das Jahr 2000, und Paul McDonald hat in Video and DVD Industries ebenfalls die Steigerungen der Kontrollmöglichkeiten, die multiplen „Achsen der Kontrolle“59 betont, die den Übergang von VHS zu DVD markieren. Diesem Machtversprechen der DVD, das in Click vielleicht am offensichtlichsten in eine Filmerzählung Einzug hält, stehen freilich andere Begehrlichkeiten gegenüber, die jede Geste von Machtzugeständnis als Teil eines Spiels und Ringens um Macht erkennen lassen. Von Anfang an: „Das Beharren in Hollywood auf einer Verschlüsselung gegen Video-Piraterie“, pointierte Rex Weiner bereits im Dezember 1996, „steht in Konflikt mit dem Wunsch der Computer-Industrie nach maximaler Flexibilität.“60 Technische Anpassungsfähigkeit mit den daraus erwachsenden 56 57

58

59 60

Scally, Robert: „Get set for DVD in March – digital video disk for ‚Space Jam‘ to debut March 11, 1997“. In: Discount Store News, 3.2.1997 Warren Lieberfarb, zitiert nach: N.N.: „Warren Lieberfarb: Father of the DVD“. In: Wharton Alumni Magazine. Winter 2006, http://www.wharton.upenn.edu/alum_ mag/issues/winter2006/feature_2c.html# Lieberfarb%22 (Stand: 25.1.2007) Sebok, Bryan: Convergent Hollywood, DVD, and the Transformation of the Home Entertainment Industries. Dissertation presented to the Faculty of the Graduate School of The University of Texas at Austin 2007, https://www.lib.utexas.edu/etd/d/2007/ sebokb29830/sebokb29830.pdf (Stand: 14.3.2008), S. 3 McDonald, Paul: Video and DVD Industries. London 2007, S. 63 Weiner, Rex: „Hi-tech convergence grows disharmonious“. In: Variety, 11.12.1996.

MACHTFRAGEN

243

Möglichkeiten privater Nutzung stand (und steht) den Besitz- und Sicherheitsansprüchen der Produktions- und Distributionsseite gegenüber – die Entwicklungsgeschichte der Video-CD (VCD), die vor allem die Geschichte der „VCD-Piraterie“ ist, dient als abschreckendes Beispiel.61 Letztlich war diese Machtfrage, zusammen mit „erbitterten internen Kämpfen und Unstimmigkeiten hinsichtlich der Kodierung und des Kopierschutzes“62, mitentscheidend für die Verspätung, mit der die DVD eingeführt wurde. Seitdem werden der Verfügungsgewalt der User bekanntlich einige Grenzen gesetzt. Von den zahlreichen Elementen dieses Machtspiels interessieren mich hier vor allem die Menüs, die Interfaces unserer Verfügung, und das, was sie blockiert. Technisch gesehen ist die DVD eine stark eingeschränkte Anwendung der DVD-ROM mit einem klar festgelegten Verzeichnis- und Dateisystem, bei deren Programmierung „nur mit einer begrenzten Anzahl an Variablen gearbeitet werden kann und auch die Abfrage an ‚If-Then-Zusammenhängen‘ begrenzt ist“63. Sofern sie von einem Stand-alone-DVD-Player gespielt werden soll, reduziert sich damit vor allem die Chance auf eine Interaktivität, die wir z.B. mit Video- und Computerspielen verbinden und dort Interaktionen „in Echtzeit“ nennen. So ruht die Last der gewünschten Interaktion in erster Linie auf den Menüs, deren Interaktivität folgerichtig so prominent auf dem Cover schon der ersten Editionen als erster Punkt unter „Extras“ oder „Special Features“ geführt worden ist. Auch aus diesem Grunde, weil der Beweis der Interaktivität und damit der Ausweis der Digitalizität menübasiert erfolgen muss, entwickelten sich rasch jene von Donald Norman kritisierten extravaganten, animierten Menüs für die u.a. die Namen von DVD-Produzenten wie Jeff Lerner und J.M. Kenny, Mitchell Rubinstein und vor allem Van Ling stehen. Während der wichtige Gestus der Interaktivität auf DVDs, der auch durch DVD-ROM-Inhalte auf besonderen DVD-Editionen unterstützt wird, also in besonderer Weise durch die Menüs geleistet werden muss (und immer wieder auch durch kleine menü-artige und als „interaktive Spiele“ angekündigte DVD-Games wie z.B. auf nahezu allen Harry Potter-DVDs von Warner Home Video), spielen Menüs auf Blu-ray-Discs eine etwas andere Rolle. Hier sind sie meist schlichter und funktionaler gestaltet. Das Versprechen von Interaktivität kann sich mit Blu-ray (nicht 61 62 63

Wang, Shujen / Zhu, Jonathan J.H.: „Mapping Film Piracy in China“. In: Theory Culture Society. Vol. 20, Nr. 4, 2003, S. 116 Pursell, Chris: „Gauging possible impact of a shiny disc“. In: Variety, 31.10.1997 Stapelkamp, Torsten: DVD-Produktionen gestalten · erstellen · nutzen. Berlin / Heidelberg 2007, S. 471

244

JAN DISTELMEYER

zuletzt dank der Scriptsprache BD-Java) anders erfüllen; es wird vor allem eingelöst im Überlagern des Films durch Popup-Menüs (als Geste des jederzeit möglichen, unmittelbaren Zugriffs) und in der Internetverbindung der Blu-ray-Player für „BD-Live“-Angebote. Dadurch schwindet der auf DVD noch immer wirkende Druck, die (geschlossene) Interaktivität der Disc über die Gestaltung der Menüs aufzuwerten und als „reich“ zu behaupten.64 Indem die Pop-up-Menüs sich offensichtlicher als Selektionshilfen präsentieren und im Moment ihres Erscheinens den laufenden Film überund verdecken, betonen sie das Digitalizitäts-Moment der Flexibilität und formulieren noch unverstellter, dass sich auch der Filmgenuss zum gegenwärtigen Diktat der Flexibilisierung verhalten soll. Mit uns ist auch der Film dazu angehalten, flexibel zu sein, sich neuen Anforderungen ,in Echtzeit‘ zu beugen, was gerade deshalb so leicht aufgehen kann, weil Film im Sinne seiner Anti-Originalität schon immer wandelbar gewesen ist. Anders gesagt: Auf Blu-ray erfüllt sich der Anspruch zum Wandel, indem unser Verfügen über laufende Filme noch sachlicher in einem Zugriffsmodus geschieht, der das laufende Filmbild noch vor jeder Auswahl schon verändert hat. In Gestalt von Menüs führt uns diese Ästhetik der Verfügung zugleich vor, dass diese Form von DVD- oder BD-Interaktivität besser Selektivität zu nennen wäre. Andrzej Gwóźdź spricht von „programmierter HyperSelektivität“65. Tatsächlich besteht unsere Verfügung als Entscheidungsgewalt, erstens, in einer Auswahl aus einer zielgerichtet getätigten Vorauswahl der Produktion, und gelingt, zweitens, nach den strengen Vorgaben einer einfachen Rechenmaschine, die auf der Grundlage einer Begrenzung von Dateiformaten funktioniert. Zu spüren bekommen wir das bei nahezu jeder DVD, die wir ordentlich erworben oder geliehen haben. Warnhinweise und Spots über „Raubkopierer“ bedeuten uns, dass unsere Verfügungsgewalt Grenzen hat. Diese Grenzen zeigen sich nicht nur in dem, was dort je unter „Warnung“ zu lesen ist, oder, wie uns kurze Filme bedeuten, darin, dass wir ja auch keine Handtaschen stehlen würden und uns als „Raubkopierer“ auf längere Haftstrafen unter sinistren Mithäftlingen einstellen müssen: Sie zeigen sich auch und vor allem darin, dass wir 64

65

Dass Blu-ray-Menüs verglichen mit denen auf DVD eher zu nüchternen ServiceLeistungen tendieren, hat auch technische Gründe: die limitierte Größe des Buffer für Blu-ray-Discs, jenes Speichermoduls, auf dem Daten für die spätere Verarbeitung zwischengelagert werden. Vgl. Gwóźdź, Andrzej: „DVD as Interface Phenomenon“. In: Martin Loiperdinger (Hg.): Celluloid Goes Digital. Historical-Critical Editions of Films on DVD and the Internet. Trier 2003, S. 141

MACHTFRAGEN

245

mit ihnen eben nicht so umgehen können, wie mit anderen DVD-Inhalten. Ein Überspringen, das Drücken der Pause-Taste oder der Wechsel ins Menü sind oft nicht möglich, meist nicht einmal der schnelle Vorlauf, dem sich ausnahmslos alles, was auf Videokassetten gespeichert ist, zu unterwerfen hat. Dies ist die andere Seite, besser gesagt: der andere Machtgestus computergestützter, programmierbarer Medien. Gerade weil die Inhalte einer DVD Programmen gehorchen, kann uns die gestenreich zugestandene Ermächtigung jederzeit wieder ebenso gestenreich entzogen werden – als „Warnung“. Diese Aufgabe erfüllen die UOPs (User Operation Prohibition) bei der Gestaltung der DVDs; jeder Knopf der Fernbedienung kann durch sie an einer beliebigen Stelle der Disc blockiert werden. Über die derart bedingten Warnungen sollen wir nicht verfügen können, uns vielmehr in ihr Erscheinen fügen. Wir wählen sie nicht, sie stoßen uns zu, wie von einer höheren Warte gesandt. Darum tauchen sie auch nicht als Disc-Inhalte in den Menüs auf, in dem wir ansonsten dazu kommen, die Inhalte der DVD abzurufen und den Filmablauf gestalten. Wir sind also nur so machtvoll und interaktiv, wie es die Programmierung zulässt – oder unsere technische Fertigkeit im Umgehen derselben. Auch hier aber müssen wir die Machtverhältnisse als ein Ringen, ein Spiel um Macht verstehen, in dem (Internetforen zur Umgehung unliebsamer DVD-Programmierungen und -Beschränkungen wissen das genau) die Positionen von Über- und Unterlegenheit alles andere als fest sind.

Die Ordnung der Auswahl Von diesen Beobachtungen zur DVD aus ergeben sich weitere grundsätzliche Fragen nach der Ästhetik der Verfügung im Umgang mit computerbasierten Medien – und danach, in welchem Verhältnis sie zu den Versprechungen bzw. der spezifischen Mischung der Digitalizität stehen. Mich interessiert hier also, was zwischen mir und dem jeweiligen Medium im Akt der Nutzung geschieht, wie ich es benutzen kann. Immer noch steht damit Ästhetik im Mittelpunkt und ist eine Aufmerksamkeit gefragt, die sowohl auf das Erscheinen der Dinge und Ereignisse als auch auf die Umstände der Wahrnehmung ihres Erscheinens gerichtet ist. Wenn man dieser Vorgehenswiese einen Namen geben muss, möchte ich sie als empirische Medienästhetikforschung verstanden wissen. Mit ihr rückt Medialität als das ins Zentrum, was sich konkret in meinem Umgang mit jenen Medien realisiert, die den Diskurs der Digitalizität geprägt haben: zualler-

246

JAN DISTELMEYER

erst der Computer als – wie Hartmut Winkler im kritischem Rückbezug auf Friedrich Kittler formuliert – „die universelle symbolische Maschine“66; das Internet, dessen Vorzüge, wie Markus Stauff betont, zumeist „als ‚Chancen‘ für die individuelle Optimierung, wie für die Entwicklung des Gemeinwesens diskutiert“ werden67; Video- und Computerspiele sowie weitere Angebote auf CD-ROM, DVD und BD. Bezogen auf das Spannungsfeld von Digitalizität und der Ästhetik der Verfügung lautet meine Frage somit schlicht, wie sich Freiheits- und Ermächtigungsversprechen im Umgang mit computerbasierten Medien realisieren.68 Folgende Thesen und Ausgangspunkte weiterer Überlegungen möchte ich hier dazu zur Diskussion stellen: Der Umgang mit den Leitmedien der Digitalizität führt uns immer wieder an eine Grenze, die nur durch die Vielfalt der Angebote erträglich wird, in denen sich diese Begrenzung findet und ästhetisch variiert. Wie schon die DVD-Menüs als technologisch simple Variante zeigen, realisiert sich die viel besungene Interaktivität im Umgang mit diesen computerbasierten Medien in erster Linie als Selektivität. Sobald die Computer laufen und berechnen, was uns die Angebote wie Textverarbeitungsprogramme, Spiele, Filme, Websites etc. zu geben haben, ist unser Umgang mit dem, was so zum Erscheinen kommt, ein Wählen aus Möglichkeiten, die uns gegeben sind. Ich möchte auf Lev Manovichs Bemerkungen zur Struktur und Logik digitaler bzw. „neuer Medien“ insoweit zurückgreifen, als sie zur Ästhetik computerbasierter Medien die (auch von Winkler beobachtete) Tendenz feststellen, das in früheren Medien zugunsten des Syntagmas entschiedene Verhältnis zwischen Syntagma und Paradigma umzukehren und das Paradigma zu betonen.69 Die Leitmedien der Digitalizität variieren immer wieder eine Ästhetik der Verfügung, die ich hier als Ordnung der Auswahl bezeichnen möchte.

66

67 68

69

Winkler, Hartrnut: „Medium Computer. Zehn populäre Thesen zum Thema und warum sie möglicherweise falsch sind“. In: Lorenz Engell / Britta Neitzel (Hg.): Das Gesicht der Welt. Medien in der digitalen Kultur. München 2004, S. 207 Stauff: ‚Das neue Fernsehen‘ (wie Anm. 7), S. 190 Die soziologisch orientierte Perspektive auf Interaktion mit computerbasierten Medien, durch die der soziologische Ursprung des kybernetischen Interaktionsbegriffs gleichsam in den historischen Bedeutungszusammenhang rücküberführt wird, spielt ebenfalls eine wichtige Rolle im Diskurs der Digitalizität, auf die ich hier allerdings nicht eingehen kann. Vgl. Jensen, Jens F.: „,Interactivity‘. Tracking a New Concept in Media and Communication Studies“. In Nordicom Review 19, 1 (1998), S. 185-204 Vgl. Manovich, Lev: „Database as Symbolic Form“.In: Convergence. Vol. 5, Nr. 2, 1999, S. 80-99 und Winkler, Hartmut: Docuverse. Zur Medientheorie der Computer. München 1997, S. 223-225

MACHTFRAGEN

247

Dabei ist es mir der Unterschied wichtig, nicht von einer „Logik der Auswahl“ auszugehen, wie sie Manovich und Winkler beschreiben, sondern von einer Ordnung, die ich nicht aus dem Kern, Wesen oder der Funktionsweise der Maschine ableite, sondern die (dafür gibt Manovich sehr gute Beispiele) zunächst schlicht zu beobachten und in der Nutzung zu erfahren ist.70 Die Ordnung der Auswahl ist nicht notwendig ein Produkt oder Effekt computerbasierter Medien, auch wenn sie, wie Winkler und Manovich zeigen, vor diesem technologischen Hintergrund nahe liegend oder folgerichtig erscheint. Wir agieren in dem, was mittels der Ausgabegeräte akustisch und visuell erscheint, und mit dem, was uns dazu als Hardware und als Steuerungsmöglichkeiten im dargestellten Interface gegeben ist. Mindestens zwei Bedingungen schränken uns dabei ein: Wir wählen aus dem, was sich uns zeigt (was also zuvor bereits von anderen ausgewählt worden ist), und wir wählen mit dem, was uns gegeben ist. Sowohl der Fundus an Alternativen (das zur Verfügung gestellte Paradigma) ist uns vorgegeben als auch die Form des Zugangs (die Kombination von Eingabe-Hardware und programmierten Tools der Auswahl/Nutzung). Diese Ordnung der Auswahl befördert als ästhetisches Element der Digitalizität das, was Markus Stauff als „Kulturtechnologie des Auswählens“ versteht, nämlich die „zunehmende soziokulturelle Aufwertung von Flexibilität und Wahlmöglichkeiten“71. Stauff weist auf die „zunehmende Dominanz des Zugriffsmodus“ hin72, der die Ästhetik computerbasierter Medien prägt und so häufig in Gestalt von Menüs und Tableaus vor uns tritt, in denen wir z.B. Textdokumente realisieren, die Angebote von Internethändlern sichten, Profile in computerbasierten sozialen Netzwerken erstellen, die Funktionen unseres Mobiltelefons nutzen oder in Second Life aktiv sind. Keineswegs erst die seit 2003/04 als „Web 2.0“ oder „MitmachWeb“ bezeichneten Internetangebote, von denen Wikipedia, Youtube und Facebook die meistgenannten und meistbesuchten Plattformen sind, begegnen mir explizit mit einer paradigmatischen Geste. Sie stellen Vielfalt aus und fordern eine Aktivität heraus („Möchtest du diese Startseite anpassen?“, „Jeder kann mit seinem Wissen beitragen“, etc.), die ich auswählend realisiere. 70

71 72

Vgl. Manovich: Language of New Media (wie Anm. 37), S. 123-129 und Winkler, Hartmut: „Zugriff auf bewegte Bilder: Video on Demand“. In: Harald Hillgärtner / Thomas Küpper (Hg.): Medien und Ästhetik. Festschrift für Burkhardt Lindner. Bielefeld 2003, S. 326 Stauff: ‚Das neue Fernsehen‘ (wie Anm. 7), S. 276 Ebd. S. 277

248

JAN DISTELMEYER

Im Gegensatz zur Listen-Präsenz schon auf den Startseiten von Wikipedia und Youtube fordert die weiße, ostentativ unbestimmt erscheinende Startseite von Google zunächst zur Eingabe auf, sozusagen zum persönlichen Eintritt in eine „offene“ Weite. Erst nachdem wir uns mit einem Suchbegriff gleichsam eingeschrieben haben, präsentieren sich jene Listen, die uns in der Ordnung der Auswahl willkommen heißen. Diese paradigmatische Geste der Ästhetik der Verfügung wird auch durch die von Theo Röhle betonten Alternativen zu den „hierarchischen Listen“ des „Interface-Konzept[s] von Google“ (z.B. Begriffswolken oder Topologien) nach meinem Verständnis nur marginal, d.h. in der Anordnung der Auswahlmöglichkeiten, variiert.73 Wir kennen solche paradigmatischen Geste aus jeder Form von Hypertext und auch aus Games (je nach Genre, Design und der Auswahl von Darstellungsoptionen) mal mehr, mal weniger explizit. Gerade in Videound Computerspielen aber durchläuft die Ästhetik der Verfügung seit Jahren die spannendsten Entwicklungen und scheint sich (z.B. mit der Wii von Nintendo oder der kameragestützten Steuerung Kinect für die Xbox 360) von dem zu entfernen, was ich hier als Ordnung der Auswahl beschrieben habe. Hierzu stellen sich derzeit die meisten offenen Fragen, mit denen ich meine Unterscheidung zwischen Logik und Ordnung der Auswahl präzisieren kann: Auch wenn wir den Argumentationen von Winkler und Manovich folgen, dass Video- und Computerspiele stets in der Logik der Auswahl stehen, muss sich dies jedoch nicht notwendig in der Gestaltung zeigen. Im Gegenteil kann hier durchaus eine Ästhetik dominieren, die sich von der Ordnung der Auswahl (etwa als Selektions-Tableau) deutlich distanziert – dies geschieht z.B., wenn Games Spannung erzeugen, indem sie gerade das versagen, was die Ordnung der Auswahl zu geben verspricht: Übersicht. Beispielhaft betont Rudolf Maresch, dass sich (unabhängig von der jeweiligen Ästhetik des Verfügens) jede Form des Agierens in/mit computerbasierten Medien der Logik der Software und den Bedingungen der Hardware zu beugen hat und damit die besagten Freiheits- und Ermächtigungsversprechen bemerkenswerten Bedingungen unterliegen: „Der symbolische Raum, der in ihrem Innern entsteht, ist ein rein numerischer. Hier ist alles streng determiniert, vorausberechnet und kalkülisiert; hier werden keine Fragen gestellt, Meinungen ausgetauscht, Kompromisse geschlossen[…]. Die Menge möglicher Interaktionen wird durch mathema-

73

Röhle, Theo: Der Google-Komplex. Über Macht im Zeitalter des Internets. Bielefeld 2010, S. 162

MACHTFRAGEN

249

tisch festgelegte Regeln vollständig definiert.“74 Interaktivität lässt sich in diesem Sinne mit Britta Neitzel und Rolf Nohr als „eine Funktion ‚kybernetisch‘ gedachter Regelkreise“ beschreiben, als eine Form quantitativ hoch aufgehäufter Optionalitäten im Sinne vorgegebener Entscheidungsbäume und -graphen.“75 Von dieser Logik der Auswahl ausgehend, ähneln wir (mit allem Mut zur einstweiligen Verkürzung) in unserer Freiheit beim Umgang mit computerbasierten Medien dem Hasen im Wettlauf mit jenem abgefeimten Igel, der immer schon da ist, wo der Hase erst ankommt. Diese Erkenntnis aber sagt eben noch nichts über die Ästhetik der Verfügung aus, nichts darüber, wie uns diese Erscheinungsformen je adressieren. Und ganz unabhängig davon, ob sich eine solche Freiheitsbestimmung anhand technischer Bedingungen und den Funktionsweisen von Software nachweisen lässt, hat sie, und darauf kommt es mir an, in Menüs und Listen ihre ästhetische Präsenz, bei der die Freiheit unserer Verfügung stets an unser Fügen in die Vorgaben und Bedingungen der Auswahl gebunden ist. Natürlich kann ich auch beim gedruckten Buch nur zwischen den Seiten wählen, die mir gegeben sind, ist auch das Alphabet begrenzt wie auch die Zahl der Sender, die mir Radio und Fernsehen (mit oder ohne Fernbedienung) geben. Die zwei wichtigsten Unterschiede aber zwischen nichtcomputerbasierten Medien und den Beispielen, die mich hier interessieren, liegen darin, wie hier Auswahl angeboten wird. Zum einen markiert die Vehemenz, mit der das multiple EntwederOder der Auswahl-Interfaces vor uns tritt und uns herausfordert, eine Besonderheit der Leitmedien der Digitalizität. Internetseiten, Handydisplays, DVD- und BD-Menüs, Computerprogramme etc. fordern Auswahl heraus und stellen diese Auswahloptionen (wie in jedem Hypertext oder auf Seiten im Online-Handel) als eigentlichen Inhalt aus – etwa, als bestünde ein 240-Seiten-Buch aus einem 240 Seiten starken Inhaltsverzeichnis. Die Dominanz der Ordnung der Auswahl macht den Unterschied und bestärkt damit zugleich das Macht- bzw. Freiheitsversprechen dieser Form von Interaktivität. Das populäre Kino reagiert darauf bzw. arbeitet damit. Es erzählt immer wieder von ästhetisch-expliziten Varianten dessen, was Hartmut

74 75

Maresch, Rudolf: „Virtualität“, in: Ulrich Bröckeling / Susanne Krasmann / Thomas Lemke (Hg.): Glossar der Gegenwart. Frankfurt am Main 2004, S. 280 Neitzel, Britta / Nohr, Rolf: „Das Spiel mit dem Medium“. In: Dies. (Hg.): Das Spiel mit dem Medium. Immersion – Interaktion – Partizipation. Marburg 2006, S. 15

250

JAN DISTELMEYER

Winkler „Oder-Medien“76 genannt hat. Die Macht der Fernbedienung in Click wird in Gestalt von Menüs beglaubigt und sofern in Gamer die User tatsächlich als User zu sehen sind, begegnen uns die Selektions-Interfaces, zeigt sich die Verfügung als Auswahl – Freiheit kommt dabei (Wii und Kinect lassen grüßen) durch weitgehende Reduktion von Hardware ins Spiel. Der Webeslogan von Kinect gilt im Kino schon länger: „Du bist der Controller“.77 Seit 2003/04 sind die Filme der berüchtigten Saw-Reihe dabei, die Ordnung der Auswahl als Horror zu verhandeln. Kurz gesagt: Diese Filme und ihre mannigfachen Nachahmer lassen sich als Kommentar auf die dort vermittelte Form der Freiheit verstehen, indem hier der wiederkehrende Zwang der Protagonisten zur Wahl zwischen Tod und (Selbst-) Folter eben diese Auswahl selbst als Folter ausstellt. In Surrogates (Jonathan Mostow, 2009), der mit Bruce Willis die Phantasie einer Allgegenwart von Puppen-Avataren durchspielt, die als bessere, leistungsfähigere und schönere=jüngere Alter-Egos den Alltag der User bewältigen, während letztere – ähnlich wie in Josef Rusnaks The 13th Floor (1999) oder in James Camerons Avatar (2009) – in einer Art Hyper-Solarium liegen, spitzt sich das Wohl oder Weh der Menschheit auf eine Entscheidung vor dem blinkenden Computer-Interface zu. Die Wahl zwischen Yes und No, die kleinstmögliche Ordnung der Auswahl, soll der Höhepunkt einer Erzählung sein, in der Bruce Willis dafür steht, dass sich wie schon in Live Free or Die Hard (2007) Körperlichkeit = Männlichkeit gegen die Digitalizität behauptet. Zum anderen zeigt sich das Spezifische der Ästhetik der Verfügung computerbasierter Medien darin, dass die Bedingungen der Restriktion meiner Nutzung andere sind. Weil alles, was in/mit Computern kreiert, durch Computer distribuiert und/oder auf Computern bzw. auf von Computern „lesbaren“ Datenträgern gespeichert ist, Programmen gehorcht, kann das Zusammenspiel von Soft- und Hardware stets neuen Regeln unterworfen werden. Diese Ästhetik der Verfügung zeichnet sich somit gerade dadurch aus, dass sie nicht nur Art und Menge des zur Wahl Bereitgestellten präsentiert und verfügbar macht, sondern auch die potentiellen Nutzungsmöglichkeiten einschränken kann, in die wir uns als User fügen. Weil aber diese Art der Regierung über Programmierung läuft, kann sie auf genau dieser Ebene des Organisierens von prinzipiell verfügbaren Daten stets (von einigermaßen findigen Usern) auch umgangen werden. Es ist ein Spiel um Verfügungen. Sofern dies zu unserem Vorteil gereicht, wird es als Flexibilität und Wandelbarkeit oder auch Versatilität beworben. 76 77

Winkler: Docuverse (wie Anm. 69), S. 224 http://www.xbox.com/de-DE/kinect (Stand: 6.10.2010)

MACHTFRAGEN

251

Der Diskurs der Digitalizität, das wäre mein vorläufiges Fazit, ist also auf mehreren Ebenen als ein expliziter Machtdiskurs zu beschreiben: Die Ästhetik der Verfügung computerbasierter Medien als Ordnung der Auswahl, die begleitenden Versprechungen in z.B. PR-Texten und (Management-)Ratgebern, die anhaltenden Diskussionen um die befreienden bzw. demokratisierenden Effekte und ganz sicher nicht weniger die mannigfache Kritik an den Limitierungen durch ,das Digitale‘ – all diese Elemente des Diskurses der Digitalizität arbeiten sich aus unterschiedlichen Perspektiven an der Frage der Macht ab. Der Streit um Copyright, Hacken und die Bewegung von Open Source und Free sind nur die Spitzen des Eisberges. All das ist, mit Foucault gesagt, ein spezielles, weil auf Programmierbarkeit basierendes „strategisches Spielen zwischen Freiheiten“78. Zu untersuchen, wie dieses Spielen im Diskurs der Digitalizität und insbesondere in der Ästhetik der Verfügung verläuft, scheint mir derzeit eine der spannendsten Aufgaben zu sein.

78

Foucault, Michel: „Die Ethik der Sorge um sich als Praxis der Freiheit“. In: Ders: Analytik der Macht. Frankfurt am Main 2005, S. 298

Franziska Heller

Prettier than Ever Die digitale Re-Konstruktion von Filmgeschichte und ihre Versprechen The Restoration of Oz: Schöner als je zuvor Digital bearbeitet – und schöner und sichtbarer als je zuvor: „We are not doing digital enhancement [...] we are not creating false information, we are peeling away the layers that have prevented you from seeing what has been on these negatives all these years.“1 Zu melodramatischer Hollywood-Musik eröffnet eine Irisblende den (bekannten) Blick auf Dorothy, das Hündchen Toto, den Löwen und die gute Hexe des Nordens. Im Hintergrund hört man das vertraute Geräusch, mit dem der fotochemische Film durch den Projektor rattert, seine Perforationslöcher sich an den Transportmechanismen reiben. Die Filmstreifen, die auf diese Weise auditiv abgerufen werden, werden dann auch sichtbar, in collagenhaften Schrägstellungen übereinander gelegt. In dem mittleren Frame erscheint der Titel der filmhistorischen Dokumentation: Prettier than Ever. The Restoration of Oz.2 Diese Dokumentation ist als Paratext der Collector’s Edition von The Wizard of Oz aus dem Jahr 2005 auf der ersten von drei DVDs ‚beigelegt‘ (Abb. 1).3 Der filmhistorische Beitrag präsentiert sich als ästhetisches Konglomerat aus Zitaten von medienhistorischen Stationen der Produktionsgeschichte, Technologieentwicklungen (etwa des Technicolor-Verfahrens) und Anspielungen aus der fiktionalen Welt des Zauberers von Oz. Darin eingebunden verkündet Rob Hummell (VP Technical Operations), gezeigt als Talking Head, den eingangs zitierten besonderen

1 2

3

Dies sind erste gesprochene Textzeilen aus der zitierten filmhistorischen Dokumentation Prettier than Ever. The Restoration of Oz. Interessant ist hier, dass nicht der Filmtitel als „Restoration“-Objekt genannt wird, sondern nur verkürzt das Land „Oz“. Neben der pragmatischen Entscheidung den Filmtitel abzukürzen, kann dies auch auf die Evozierung des märchenhaften Landes „Oz“ rekurrieren, das als emblematische imaginäre Landschaft in der kollektiven Wahrnehmung seine mediale, an den Film gebundene Präsenz überschreitet: Nicht ein Film wird hier restauriert, sondern ein kollektiver, traumhafter Mythos. The Wizard of Oz (1939, Fleming/2005, Warner Brothers, Turner Entertainment).

254

FRANZISKA HELLER

Abb. 1: Menüauswahl der Bonusmaterialien auf der Collector’s Edition von The Wizard of Oz (Warner Bros., 2005)

Zusammenhang von digitalen (Bildbearbeitungs-)Techniken und dem gealterten Filmmaterial (Abb 2). Kurz darauf wird kommentierend ein Ausschnitt aus dem Film gezeigt, in dem der Zauberer von Oz in seinen Heißluftballon steigt und pathetisch verkündet: „We are about to embark upon a hazardous and technically unexplainable journey ...“ Diese kurze Szene ist wiederum deutlich als altes, physisches Filmmaterial markiert: Perforationen rahmen die Bilder (Abb. 3). Formal wie inhaltlich vermittelt diese Exposition der Restaurationsdokumentation einige zentrale, im Folgenden zu diskutierende Aspekte. Der Film artikuliert äußerst prägnant die Versprechen, die digitalen Technologien zugeschrieben werden. So verweist er überdeutlich auf die medienhistorische Dimension von fotochemischem Film, um diese als materielle Quelle und historisch fixierte Essenz des Films The Wizard of Oz zu etablieren. Diese – auch filmästhetisch – vermittelte Essenz wird zur Referenz der Bearbeitung: Digitale Restauration wird beschrieben als handwerkliches Verfahren und Leistung, in der tatsächliche ‚Schichten‘ von dem Ursprungsmaterial abgekratzt werden („peeling away“). Das evozierte Vorstellungsbild erinnert stark an das Handwerk der Gemälde- oder Gebäuderestauration, in der die Patina der Zeit abgeschabt wird und darunter wieder der alte Glanz zum Vorschein kommt. Zugleich wird mit dem Kommentar gegen die Vorstellung gearbeitet, dass man bei der Restauration durch den Transfer in die digitale Domäne, was ja eine Ablösung vom physischen Träger–Material bedeutet, verfälschende Informationen kreiere. Argumentativ

PRETTIER THAN EVER

255

Abb. 2: Rob Hummel erklärt den Scan- und Restaurationsprozess von The Wizard of Oz für die vorliegende DVD

und diskursiv wird auf diese Weise linear eine historisch fixierbare, materielle Qualität des Films festgeschrieben, die die digitale Bearbeitung legitimiert. So ist es aber umso überraschender – wenn auch deshalb nicht weniger wirksam –, dass in der filmisch-sinnlichen Vermittlung der Dokumentation die Szenen aus dem fiktionalen Filmtext als argumentative und ästhetische Illustration des innovativen Restaurationsprozesses („a harzadous and technically unexplainable journey ...“) genutzt werden.4 Es fällt auf, dass hier eine Clusterbildung unterschiedlichster Diskurse stattfindet. Die sinnliche Erfahrung des fiktionalen und explizit märchenhaft aufgeladenen (Film-)Inhalts wird verbunden mit dem filmhistorischen Mythos des Films im populären, kollektiven Gedächtnis. Dies wiederum findet sich argumentativ angeschlossen an historische Technikgeschichte wie aktuelle Entwicklungen von digitalen Technologien. 4

Natürlich handelt es sich hier um eine bewusst populäre Form der Vermittlung von Wissen über Filmrestauration. Aber deshalb scheint es fruchtbar, dies als Ausdruck einer kulturellen Praxis im Zusammenhang mit digitalen Technologien zu untersuchen. Vgl. dazu auch die Ausführungen im Fazit.

256

FRANZISKA HELLER

Abb. 3: Die fiktionale Filmszene belegt: Die Restauration sei „a hazardous and technically unexplainabe journey …“

Im Folgenden sollen – vor dem Hintergrund des einleitend beschriebenen Beispiels – die Versprechensstrukturen untersucht werden, die sich hinter den Praktiken und Diskursen um digitale Bildbearbeitungstechniken verbergen. Dahinter steckt ein filmwissenschaftlich-methodisches Problem. Denn die bisherigen Diskussionsbeiträge zu Prozessen der Retrodigitalisierung und digitalem Imaging sind meist technischer Natur und kommen aus den unterschiedlichsten technischen Einzeldisziplinen (Geräteentwicklung, Informatik, filmischer Materialkunde, physikalischer Chemie etc.). Doch neben all diesen wichtigen Bereichen ist hier auch der Filmwissenschaftler als Kultur- und Medienhistoriker gefragt: Es geht darum, die Historizität der Filmwahrnehmung im Horizont der gegenwärtigen technologischen Entwicklung herauszustellen. Konkret bedeutet dies, den Zusammenhang von ästhetischer Struktur (Text), (kulturellen) Narrationsformen und medialen Zuschreibungsmechanismen in den Blick zu nehmen. Hierzu wird zunächst im nächsten Abschnitt der methodische Ansatz näher erläutert. Vor diesem Hintergrund werde ich daran anschließend konkrete Beispiele diskutieren, um konkurrierende Zeitlichkeitskonzepte der (digitalen) Filmhistoriographie vorzustellen, die danach zu einem Fallbeispiel der Narrationsformen und zu den spezifischen, dahinterstehenden Interessen in ein Verhältnis gesetzt werden.

PRETTIER THAN EVER

257

„Digitalisierung“ als kulturelle Praxis Die vorangestellten Überlegungen bedeuten vor allem, dass man digital kulturwissenschaftlich präzisiert. In diesem Sinne wird die Bezeichnung im Folgenden weniger von ihrer Datenform oder ihren informatischen Prinzipien her verstanden, sondern vielmehr als kulturelles Phänomen und „Set von Praktiken“ betrachtet.5 Unter der Analyse der ‚Praktiken‘ verstehe ich die Fokussierung auf gedankliche Muster, die den Anwendungs- und Gebrauchsformen zu Grunde liegen und sich in populär verbreiteten ästhetischen Ausdrucksformen äußern – wie etwa im einleitenden Beispiel. Diese interagieren wiederum mit Zuschreibungsmechanismen an die Technik. Geht man grundsätzlich zunächst von den Anwendungsformen des digitalen Imagings aus, so ergeben sich daraus bestimmte Verfahren und damit verbundene Potentiale in der Filmrestauration wie auch in der Filmedition.6 Einige zentrale Prozesse sind etwa: Die Automatisierung der Abläufe, die unterschiedliche Komprimierung der ästhetischen Informationen (unterschiedliche digitale Derivate) und Reversibilität. Der Transfer der ästhetischen Imago7, der ästhetischen Struktur des Films in die digitale Domäne, ermöglicht es, den historischen fotochemischen Träger aus der alltäglichen Gebrauchs- und damit Verschleisskette zu nehmen. Das historische Artefakt kann geschont werden (bei weiterer korrekter passiver Präservation). In der digitalen Domäne können die Filme bzw. ästhetischen Filminformationen in unterschiedlichen Formaten komprimiert und damit verschiedenartig zugänglich und sichtbar gemacht werden. Gleichzeitig bedeutet die Ablösung vom Träger und die Transition in die digitale Domäne die Möglichkeit der Automatisierung8 sowie vor allem der Wiederholbarkeit der Bearbeitungen. Grundsätzlich ist die Reversibilität von Vorgängen und Bearbeitungsschritten möglich, was ein grosses Potential darstellt (sofern es gelingt, die jeweiligen Daten – auch in 5

6 7 8

Hedigers Begriff von „Set von Praktiken“ wird hier anverwandelt. Vgl. Hediger, Vinzenz: „The Original is Always Lost. Film History, Copyright Industries and the Problem of Reconstruction.“ In: Hagener, Malte und De Valck, Marijke (Hrsg.): Cinephilia. Movies, Love and Memory. Amsterdam 2005, S. 133-147. Auf diese beiden Felder möchte ich mich in diesem Kontext beschränken. Vgl. Janis, Katrin: Restaurierungsethik im Kontext von Wissenschaft und Praxis. München 2005, S. 26f. Vor allem in der digitalen Bildbearbeitung ist die Automatisierung der Abläufe ein wesentlicher Aspekt: Bildfehler lassen sich automatisch detektieren und können einfach beseitigt werden – zumeist in Bezug auf Bildinhalte anderer Frames.

258

FRANZISKA HELLER

ihrer Menge – zu speichern). So impliziert der Transfer in die digitale Domäne, dass die ästhetischen Informationen (determiniert durch die Art und Weise, wie sie gescannt wurden) in ihrer nachfolgenden Bearbeitung nicht mehr an physische Begrenzungen gebunden sind (Farb- und Kontrastbestimmung, Bildstand, Fehlerdefinition): Die Entscheidung liegt mehr denn je am System9 oder am Bearbeiter, inwieweit er in die Informationen eingreift. Damit rücken die herangezogenen Bezugsrahmen in den Vordergrund. Der pragmatische Zusammenhang des Digitalisierungsprozesses wird zunehmend wichtig, eben weil man eigentlich fast alles mit den ästhetischen Informationen machen kann. So geraten in der Praxis stärker zeitgenössische Geschmacksvorlieben als Orientierung in den Vordergrund – und/oder man orientiert sich an moralischen Richtlinien der Denkmalpflege und Restaurationsethik. Hier tritt man aktiv in Bereiche der Memopolitik und Wertedebatten um Film ein, seinen Status als Kunstwerk und den jeweiligen Zweck10 – vor allem auch in Hinblick auf institutionelle Zwänge – der Restauration und Bearbeitung.11 Es geraten zudem Fragen nach historischer Korrektheit und dem historischen Original in den Fokus. Diese machen einen sehr komplexen Bereich in Bezug auf das Medium Film aus. Wie schon Vinzenz Hediger schrieb, gilt insbesondere für den Film The Original is always lost.12 Und Emigholz formuliert in Bezug auf Filmhistoriographie: Die Sicherheit und Autorität, die in anderen Künsten ein wie auch immer angekratztes Original noch auszustrahlen vermag, ist in der ‚Filmgeschichte‘ nicht gegeben. Es gibt derer möglicherweise viele, und Generationen von Kopien erzeugen das Echo eines Clusters von Originalen.13

9

10

11

12 13

In diesem Zusammenhang sind die Automatisierungen der Abläufe ein komplexes Feld aus Vorteilen, aber auch restaurationsethischen Bedenken – vor allem auf welchen Grundprinzipien man etwa automatische Farbrekonstruktionsverfahren aufbaut und die Ergebnisse später misst. Vgl. ausführlicher hierzu Heller, Franziska/Flückiger, Barbara: „Zur Wertigkeit von Filmen. Retrodigitalisierung und Filmwissenschaft.“ In: montage av, 19,2/2010, S. 139-153. Aufgrund der Komplexität der anfallenden Probleme wird im gegebenen Rahmen nur auf zwei Felder der Retrodigitalisierung eingegangen. Insbesondere die Frage nach digitalen Archvierungspraxen und -verfahren wird hier aufgrund des Umfangs nicht diskutiert. Hediger: „The Original is Always Lost.“ (vgl. Anm. 5) Emigholz, Heinz: „Vorwort.“ In: Universität der Künste Berlin (Hrsg.): Metropolis. DVD-Studienfassung. Begleitheft. Berlin 2005, S. 3.

PRETTIER THAN EVER

259

Umso mehr stehen die Digitalisate von historischem Filmmaterial im direkten Kontext mit ihrem jeweiligen Zweck und Zeitpunkt der Entstehung: Dies betrifft ihre Ästhetik (bedingt durch die jeweilige Digitalisierungstechnik und -verfahren) und ihre Präsentationsformen (Format wie auch Dispositiv: Ob auf You Tube, DVD oder Blu-ray-Disc).14 Insbesondere über die neuen Distributionsmöglichkeiten hat sich im Kontext der digitalen Domäne vor allem das Versprechen von Zugänglichkeit verbreitet. Inwieweit diese Zugänglichkeit sich ideologisch geprägt findet, soll im Folgenden an zwei Beispielen kurz vorgestellt werden.

Rekonstruktionen, Editionen und digitale Wissensarchitektur Stefan Drössler merkte 2004 an, dass die Filmwissenschaft bisher kaum Kenntnis davon genommen habe, dass das Material, mit dem sie arbeitet, sich durch ständig wandelnde technische und dadurch ästhetische Bedingungen in der Zeit verändert.15 Insbesondere mit dem Vertrieb von filmhistorischem Material via digitaler Dispositive und digitaler Derivate (unterschiedlicher Ausgabeformate) potenziert sich diese bisherige Problematik der Filmfassungen als Referenzen der Forschung enorm. Es gibt kaum ein Bewusstsein für die Disparität der Quellen.16

14

15 16

An dieser Stelle sei auf die Schwierigkeit verwiesen, den Begriff „Digitalisierung“ zu fixieren. So schreibt Ringler: Es gäbe eine „stark differierende und divergierende Literaturlage auf diesem Gebiet. Der Begriff Digitalisierung hat in den letzten Jahren im Kontext der Filmindustrie Hollywoods zu einem mächtigen Schlagwort etabliert, welches sich zunächst nur schwer fassen lässt. Wer heute von Digitalisierung spricht, beschreibt zumeist nur das, was der Rezipient letzten Endes im Kino sieht, nämlich Special Effects.“ Ringler, Mathias J.: Die Digitalisierung Hollywoods. Konstanz 2009, S. 13. Ringler spricht einen wesentlichen methodischen Aspekt an, weshalb ich für meine Argumentation den Begriff von digital methodologisch präzisiere. Drössler, Stefan: „Lola Montez – in neuem Licht.“ In: Rüffert, Christine et al. (Hrsg.): ZeitSprünge. Berlin 2004, S. 170-185. S. 170. Dies ist allerdings kein grundsätzlich neues Problem des filmhistorischen Arbeitens. Insbesondere Frank Kessler hat sich methodologisch mit der Problematik der unterschiedlichen Versionen und Fassungen als Quellen publizistisch auseinandergesetzt. Vgl. hierzu etwa Kessler, Frank: „Filmgeschichte und Filmkopien.“ In: Kinoschriften 5: Jahrbuch der Gesellschaft für Filmtheorie. Wien 2002. S.199-209. Sowie Kessler, Frank: „Historische Pragmatik.“ In: montage/av. 11,2/2002. S. 104112.

260

FRANZISKA HELLER

Im Folgenden sollen an dem Fallbeispiel Metropolis (1927) einige Varianten und Möglichkeiten von digitaler Edition im Zusammenhang mit dem kritischen Umgang mit Filmrekonstruktion und den Konsequenzen für Filmgeschichtsschreibung diskutiert werden. So sollen die entstehenden filmwissenschaftlichen Probleme und konkurrierenden Zeitlichkeitskonzepte deutlich werden. Der Fall Metropolis ist eines der prominentesten Beispiele der deutschen Filmrestauration: Seit Jahrzehnten ist Fritz Langs Werk Objekt restauratorischer wie rekonstruktiver Bemühungen.17 In den 1980ern hat Enno Patalas sich mit seiner philologischen Quellenarbeit hervorgetan und die sogenannte Münchner Fassung erstellt.18 Seine Vorarbeiten hatten lange Zeit Referenzfunktion. 2001 folgte dann die digitale Restauration – mitgetragen von der Friedrich-Wilhelm-Murnau-Stiftung, Martin Koerber, der Deutschen Kinemathek in Zusammenarbeit mit Alpha Omega Digital.19 Lange Jahre war diese Fassung in Deutschland die bekannteste DVD von diesem Film. 2005 folgte dann die bemerkenswerte kritische Studienfassung, die auf DVD die Rekonstruktionsgeschichte strukturell in den Film einbaute (dazu später mehr.) Die Geschichte der 2010 rekonstruierten Fassung, in die das bis dahin verschollen geglaubte Material aus Argentinien integriert wurde, ist weithin in der Presse verbreitet worden. Als Basis dieser Rekonstruktion wurde die 2001 digital restaurierte Version verwendet. Die publizistische, d. h. strukturell vor allem auch die diskursive Rahmung dieser Rekonstruktionsgeschichte, die durchaus auch in einigen filmhistorischen Dokumentationen weiter geschrieben wird, zeigt vor allem eines: Das historische Werk Metropolis wird auf ganz unterschiedlichen Ebenen begriffen, narrativ konstruiert und instrumentalisiert. Die Komplexität liegt zum einen im industriellen, institutionellen wie ästhetischen Objekt begründet, das der (historische) Gegenstand Film darstellen kann. Über was redet man, wenn man über den historischen Film redet? Fokussiert man den Inhalt, das historische Dokument oder Artefakt, die institutionellen und produktionsgeschichtlichen Umstände? Und mit wachsender zeitlicher Distanz multiplizieren sich auf allen Ebenen die Narrative. 17

18 19

Bohn, Anna: „Edition eines Torsos.“ In: Universität der Künste Berlin (Hrsg.): Metropolis (vgl. Anm. 13), S. 8-11, S. 8. DVD-Nachweis: Metropolis. DVD-Studienfassung (1927, Lang/2005, UdK, Filminstitut). Vgl. Worschech, Rudolf: „Zwischen gestern und morgen. Die Metropolis-Story.“ In: epd-Film. 02/2010, S. 28-32. S. 32. Metropolis (1927, Lang/2003, Friedrich-Wilhelm Murnau Stiftung, Transit Film, Deutsche Kinemathek)

PRETTIER THAN EVER

261

Mit Blick auf Metropolis bedeutet dies, dass die Zuschreibungen von Modernität zunächst auf die inhaltliche Ebene (der Story) sowie auch auf die historischen filmtechnischen Innovationen der Spezialeffekte und Tricktechniken bezogen werden. Bereits diese beiden Ebenen sind miteinander vermengt: „Alchimie für die Zukunft“.20 Die phantastischen Modernitätsattribute erfahren dann eine Übertragung auf die heutige Wirkung. Sie liefern in der Verlängerung der Argumentation die Begründung der heutigen Aktualität des Films und seiner Bedeutung als kulturelles Erbe. Interessanterweise scheint der Film gerade durch seine Geschichte in der Zeit seine zusätzliche Bedeutung bekommen zu haben: „Bei seiner Premiere war Metropolis ein Film der Superlative. Aber noch kein Meisterwerk.“21 Dies wird zusätzlich überlagert von der narrativierten Genese des Films wie seiner mittlerweile nun über 80jährigen Fassungen- und Versionsgeschichte, deren Varianten mit dem Gestus einer abenteuerlichen Schatzsuche nach den verschollenen Partien nachhaltig weiter geschrieben werden. So erzählt Karen Naundorf 2008 eindrücklich in ihrer Reportage zu der Reise nach Metropolis: Paula Félix Didier hatte geahnt, dass ihr niemand glauben würde. Sie saß an dem Schreibtisch in ihrem kalten Büro in Buenos Aires und wartet auf eine Mail aus Deutschland. Doch es kam – nichts. Warum auch sollte irgendein Experte glauben, dass sie [...] gefunden hatte, wonach Forscher und Restauratoren seit Jahrzehnten vergeblich in den Archiven der Welt suchten? [...] Aber in der kleinen Kammer hinter der grünen Metalltür gleich neben ihrem Büro lagen sie: drei große Rollen, vorsichtig in silbrig schimmernden Blechdosen verstaut.22

Eine ‚digitale‘, ideelle, zeitlich vorgelagerte Reaktion auf diese grundsätzliche Problematik ist die bereits erwähnte kritische Studienausgabe von Metropolis. Sie übersetzt die Werkgenese und Überlieferungsgeschichte in eine „digitale Wissensarchitektur“.23 Strukturell heißt dies, dass in dieser Ausgabe nicht mehr eine lineare Auffassung von Filmgeschichte und dem Werk vertreten wird, sondern diese durch das Konzept von Simultaneität ersetzt ist: Über horizontale und vertikale Rezeptionsmöglichkeiten können die clusterartigen Überformungen der Zeit und in der Zeit als Verwei-

20 21 22 23

Süddeutsche Zeitung, Nr. 30, Samstag/Sonntag, 6./7.02 2010, S. 15. Worschech: „Zwischen gestern und morgen“ (vgl. Anm. 18), S. 30. Naundorf, Karen: „Reise nach Metropolis.“ In: Filmgeschichte – Leben auf ZEIT ONLINE. http://www.zeit.de/2008/28/Metropolis-Reportage-28 (18.06.2009), S. 1. Völckers, Hortensia: „Grusswort der Kulturstiftung des Bundes.“ In: Universität der Künste Berlin (Hrsg.): Metropolis, S. 4 (wie Anm. 13 und 17).

262

FRANZISKA HELLER

sungsstruktur über die DVD-Architektur erfahren werden.24 In der literarischen Editionsgeschichte sind solche Verfahren schon lange etabliert. Für das Medium Film existiere aber – so Friedemann Beyer von der Friedrich Wilhelm-Murnau-Stiftung – bisher noch kaum eine vergleichbare Methode.25 Die kritische Studienausgabe versucht gerade über das Medium der DVD, die Arbeit der Rekonstruktion und Filmhistoriographie zu problematisieren: Die Arbeit der Rekonstruktion ist [...] wesentlich auch die des Erkennens eines komplexen, prozesshaften Geschehens, das es auf einer Zeitschiene – linear und zugleich simultan – zu begreifen gilt. Die Konsumentenvorstellung einer in geregelten Bahnen und in abgeschlossenen Einheiten rekonstruierbaren Filmgeschichte muss zwangsläufig enttäuscht werden; es kann sie logisch gar nicht geben.26

Insbesondere mit den digitalen Möglichkeiten beschleunigt sich die Tendenz: Alte Filme, neue Lektüre – laut Enno Patalas verstärken digitale Technologien das Problemfeld. So sei mit dem Film das herkömmliche Verständnis erschüttert worden: Autor, Werk, Original – diese Grundbegriffe des bürgerlichen Kunstdenkens seien durch die auf technische Reprodu-

24

25

26

Die Hybrid-DVD nutzt die technischen Möglichkeiten des Mediums, um den Film in verschiedenen Varianten zu präsentieren und gleichzeitig immer wieder Zugriffe an entsprechenden (leeren) Stellen auf Quellenmaterial (Fotos, Skizzen, Text-Dokumente) zu ermöglichen. Während der Sichtung des Films kann man unterschiedliche Ebenen als Querverweise einblenden. Hinzu kommt noch die Anreicherung der DVD um die ROM Funktion. So ergibt sich ein komplexes, interaktives Netzwerk: „Aufgrund der Möglichkeiten der DVD, die es zulassen, Bild-, Tonund Textinformationen bei zeitlicher Kontinuität frei zu kombinieren und verschiedene Inhalte via Menüs, interaktiven Schaltern, Skripten, Slideshows oder DVD-ROM Daten zu vernetzen, entsteht eine visuell und akustisch erfahrbare wissenschaftliche Analyse.“ Krüger, Gunther: „Navigare necesse est. Zum Authoring der DVD.“ In: Universität der Künste Berlin (Hrsg.): Metropolis (vgl. Anm. 13), S. 15-19, S. 15. Vgl. Beyer, Friedemann: „Grußwort der Friedrich-Wilhelm-Murnaus-Stiftung.“ In: ebd., S. 5. Beim Film gibt es oft bisher nur quellen- und editionskritische Informationen und Dokumentationen in Form schriftlicher und graphischer Rekonstruktions- wie Restaurationsberichte – und hier muss man m. E. oft bei der Quellenlage bedenken, dass es sich um Arbeitsberichte von Firmen handelt, die natürlich auch mit ihrem Produkt und ihrer Handfertigkeit werben wollen. D. h. die hergestellte Version muss eine gewisse, materialinhärente Zwangsläufigkeit vermitteln. Emigholz, Heinz: „Vorwort“ (vgl. Anm. 13), S. 3

PRETTIER THAN EVER

263

zierbarkeit basierenden Medien mächtig ins Rutschen gekommen.27 Vor allem beim Film hätten wir es weniger mit Werken als mit Serien zu tun: Fassungen, Kopien, Aufführungen, von ihrem Regisseur überarbeitet.28 Giovanna Fossati hat in ihrer bemerkenswerten Studie From Grain to Pixel schon darauf hingewiesen, dass jede neue Restauration ein neues Dispositiv darstellt, das von bestimmten institutionellen, ökonomischen wie technologischen Frameworks, die die jeweilige Bearbeitung und Präsentation beeinflussen, geprägt sei.29 Die kritische Studienfassung von Metropolis sticht hier hervor. Denn man hat sich für die Edition eines Torsos entschieden. Sie legt offen, dass das filmische Werk nicht vollständig überliefert ist. Metropolis wird bewusst – eingedenk seiner tatsächlichen Überlieferungsgeschichte – als Fragment belassen. Die Fehlstellen werden als solche deutlich gekennzeichnet und mit Verweisen auf mögliche außerfilmische Quellen optional angereichert. Der bewusst von dem anschaulichen Begleitheft reflektierte Begriff der Lacunae wird aus den Editionswissenschaften übernommen.30 Damit wird aber auch eine lineare Konstruktion des ästhetischen Textes, die die Fragmenthaftigkeit der Quellenlage und des Wissenstandes um die fehlenden Bilder verschleiern würde, verweigert. Man akzeptiert, dass das ästhetische Erleben in der Zeit eine nonlineare, fragmentierende Geschichte hat. So wird filmhistorisches Arbeiten offen gelegt und digital editiert. Historiographisch ist in diesem Kontext interessant – und hier hat die Causa Metropolis sich selbst überholt – , dass die Fassung von 2005 heute ein Zeitdokument über die Forschung und das Wissen in jenem Jahr ist. Damit und mit dem technologischen Stand wie den restaurativen wie rekonstruktions-editorischen Entscheidungen schreibt sich der Moment der DVD-Produktion in die Filmhistoriographie ein.31 Mit Deleuze könnte 27 28 29 30

31

Patalas, Enno: „Alte Filme, neue Lektüre.“ In: ebd., S. 6-8. S. 6 Ebd. Vgl. Fossati, Giovanna: From Grain to Pixel. The Archival Life of Film in Transition. Amsterdam 2009. Bohn, Anna: Edition eines Torsos. In: Universität der Künste Berlin (Hrsg.): Metropolis. (vgl. Anm 13), S. 8-11, S. 9. Vgl. hier auch den Umgang mit antiken Statuen: Bis zum 19. Jahrhundert war es üblich, die verstümmelten Statuen mit Stücken zu komplettieren. Heute sei die gängige Praxis in kunstwissenschaftlicher Restaurierung, dass nicht eine ‚Ergänzung‘ oder ‚Komplettierung‘ erfolge, sondern die Praxis bestände in der Konservierung des Torsos als Fragment ohne imaginative Ergänzungen. Mittlerweile ist auch die Fassung von 2010, in der das in Argentinien gefundene Material integriert ist, auf DVD und Blue-ray-Disc erschienen. Interessant im Kontext der vorliegenden Ausführungen ist vor allem auch der ins Netz gestellte Trailer

264

FRANZISKA HELLER

man wissenschaftshistorisch fast feststellen: Hier liegt ein digitales Zeugnis vom filmhistoriographischen Wissensstand von 2005 vor – in Form eines clusterförmigen, auf Simultaneität bauenden Zeit-Bildes. Das hier vermittelte Wissen setzt sich aus verschiedenen (Forschungs-Stand-)Schichten und Bildbearbeitungsphasen zusammen. Über diese Funktion hinaus kann man zudem konstatieren, dass die Architektur der DVD alternative Potentiale aufzeigt, die digitalen Möglichkeiten und mediale Geschichtsschreibung jenseits von linearen Mustern zu begreifen.32

Erzählformen digitaler Mythen Die kritische Studienausgabe von Metropolis stellt eher eine Ausnahme im Gros der digital editierten historischen Filme dar. Umso mehr lohnt es sich, den Blick auf jene (herkömmlicheren) Dokumentationen zu werfen, die die historische Dimension von Filmen in populärer Form auf den jeweiligen DVDs aufgreifen und perspektivieren. Vor diesem Hintergrund sollen die Spannungen zwischen zeitlichen Konzepten von historiographischer Linearität, konstruktivistischen Zuschreibungsmechanismen und einer auf Fragmenten basierenden Geschichtsschreibung untersucht werden. Die DVD zu Josef von Bakys Münchhausen (1943) – ebenfalls von 200533 – beinhaltet neben der digital restaurierten Fassung eine Dokumentation – ähnlich dem eingangs zitierten Beispiel zu The Wizard of Oz. Damit wird die Dokumentation zum Paratext, der Film Münchhausen zur Referenz. Es stellt sich nun die Frage, wie sich Paratext und Referenzfilm wechselseitig narrativ zueinander auf der DVD verhalten. Filmimmanent gesehen bietet Münchhausen – wie schon Knut Hickethier eindrücklich beschrieben hat – eine Vielzahl von Wahrnehmungsangeboten mit hohem selbstreflexiven Potential: „Doch sind es heute weder die tollwütigen Kleider, das eingefrorene Posthorn, aus dem beim Auftauen Töne kommen, noch der Flug auf der Kanonenkugel [...], die faszinieren, sondern filmisch-erzählerische Irritationen, die an Truffauts

32 33

für den Film bzw. für die 3-Disc Special Edition. Vgl. http://youtube.com/ watch?v=cj8pmovHLvQ (08.03.2012). Vgl. dazu auch den Beitrag von Jan Distelmeyer in diesem Band. Münchhausen (1943, von Báky/ 2005, Friedrich-Wilhelm Murnau Stiftung/Transit Classics).

PRETTIER THAN EVER

265

Amerikanische Nacht erinnern.“34 Der Film bietet so eine Menge an Bedeutungsangeboten, was bereits – abgesehen von dem offensichtlichen Sujet einer nicht verlässlichen Lügengeschichte – anhand des Filmanfangs deutlich wird: Schon die Exposition, die zuerst mit einem stilistisch deutlich abgesetzten Gemälde des Barons von Münchhausen (Hans Albers) im Filmbild beginnt, etabliert die besondere Wichtigkeit von innerfilmischen Blickstrukturen und thematisiert somit Beobachterdispositionen. Die ersten diegetischen Figuren, die man als Gäste eines barocken Festes im Anschluss an das Gemälde sieht, beobachten ein Schauspiel, das für den Zuschauer zunächst im Hors Champs bleibt. Man hört nur die Musik. Zunächst betrachtet der Zuschauer also direkt das (zurückschauende!) Gemälde, um dann seine eigene Beobachterposition des nun folgenden ‚Schau-Spiels‘ durch die Gäste als Publikum in der Diegese gespiegelt zu bekommen. Hinzu gesellt sich der besondere Eindruck des Settings: Es ist ein Überschuss an Stilisierung, markiert über die pompösen Perücken und die Kleidung (dieser Eindruck verstärkt sich natürlich später noch mehr, wenn deutlich wird, dass es sich tatsächlich um eine Maskerade handelt). Nach wenigen Einstellungen sind Lug und Schein als Bildprinzipien im sinnlichen Überschuss etabliert, ohne dass die das Sujet dominierende Lügengeschichte bereits erwähnt wäre. Es wird ein Misstrauen in die Evidenz filmischer Bilder erweckt. Die Blickstrukturen des Zuschauers wie aber auch die der innerdiegetischen Figuren werden zusätzlich thematisiert und irritiert, wenn Spiegel, Fensterglas und Kader merklich die räumliche Wahrnehmung formieren. So findet sich das Prinzip des Spielens – als Motiv der Nicht-Verlässlichkeit der gezeigten Gegebenheiten – zum einen inhaltlich (Billard, Kinderspiele) in den Dialogen, zum anderen aber auch als dem Zuschauer implementierte Wahrnehmungsdisposition. Das Verhältnis zu den Bildern wird zunehmend – auch im weiteren Verlauf – spielerisch (vgl. auch das Ende, wo Münchhausen als Tableau Vivant dem Zuschauer vom Gemälde her zuzwinkert und sich auf diese Weise mit dem Zuschauer über den Konstruktcharakter der intradiegetischen Erzähl-Welt komplizenhaft-entlarvend verständigt (vgl. Abb. 4; diese Einstellung wird auch als Eröffnung für die Restaurationsdokumentation verwendet). So etabliert der Film Münchhausen bereits in den ersten Minuten einen sinnhaften wie sinnlichen Überschuss als sein Funktionsprinzip, was eine besondere Vielfalt an Rezeptions- und Wahrnehmungsangeboten zur Folge hat. Dies, hier nur sehr verkürzt dargestellt, scheint eine Ursache für die 34

Hickethier, Knut: „Münchhausen.“ In: Koebner, Thomas (Hrsg): Filmklassiker. Band 1. Stuttgart 1995, S. 458-462, S.462.

266

FRANZISKA HELLER

Abb. 4: Das Porträt blinzelt dem Zuschauer zu. Eröffnungsbild des Hauptfilms sowie der Dokumentation

zum Teil widersprüchliche Rezeption, die der Film auch mit Blick auf seine Produktionsphase in den 1940er Kriegsjahren und seinen Status als NS-Auftragsfilm hervorgerufen hat: von eskapistischen Einschätzungen bis hin zu systemkritischen Interpretationen. Der Film erweist sich als anpassungsfähig für die verschiedenen Interpretationsansätze – auch und vor allem wegen seiner ästhetischen und medienreflexiven Komplexität. Nun stellt sich die Frage, wie sich die 2005 veröffentlichte DVD-Edition dazu verhält und sich als aktuelles Zeugnis in die Interpretationsgeschichte einfügt. Die filmhistorische Dokumentation Ein Mythos in Agfacolor ist als Bonus dem Film als historisch einordnender Kommentar beigelegt. Meine Überlegungen fokussieren hier die ästhetisch vermittelte Argumentation und die Frage, wie der Beitrag als filmische historiographische Narration die Wahrnehmung des Referenzfilmes formiert. Die Einblendung Opfergang 1943 in der Mitte der Dokumentation ist Teil einer Rekapitulation von Farbfilmen, die im Dritten Reich entstanden sind. Zu eben jener Einblendung erfolgt der Kommentar: „In Opfergang [...] setzte Harlan ganz gezielt die Farben zum Zwecke der Suggestion ein.“ Dazu wird ein kurzer Ausschnitt präsentiert, der Kristina Söderbaum beim Bogenschiessen im Garten zeigt (Abb.5). Ihr knallrotes Kleid sticht in der

PRETTIER THAN EVER

267

Abb. 5: Bilder aus Opfergang zur Illustration der Farbenpracht bei Veit Harlan

vegetativen, satt grünen Umgebung sinnlich hervor. Umschnitt auf eine andere Szene des Films: „Eigentlich war der Karneval während des Krieges verboten, doch im Kino spielte die Realität keine Rolle. Farbenpracht und unverhüllte Todeserotik waren die Merkmale des Films. Zeitgenössische Kritiker bezeichneten Opfergang als Fest für die Augen. Bruno Mondi wurde zu dem führenden deutschen Farbkameramann.“ Die dazu ablaufende Filmszene zeigt ein Karnevalsfest, bei dem die tanzende Menge um einen übergroßen Clownskopf in der Mitte herumtollt, die Zunge des Kopfes ist eine Rutsche, auf der sich jauchzende Menschen hinabgleiten lassen (Abb. 6). Kreisbewegungen dominieren und verstärken den Eindruck von chaotischer Dauerbewegung. Auch in näheren Einstellungen sind ekstatische Bewegungen omnipräsent im Bild, gepaart mit den surrealen Eindrücken von Masken und verfremdenden Kostümen. Der Voice-Over liegt über der Musik und dem Partylärm. Neben einer Kette von tanzendem Partyvolk steigen ein Mann und eine Frau – umfangen von Luftschlangen – eine Treppe hinab (Abb. 7). In dieser Sequenz der Dokumentation geraten meines Erachtens die sinnliche Form der Filmbilder, die ihnen unterstellte Evidenz und der Voice-Over in ein Spannungsverhältnis. Zunächst fällt es schwer, die ge-

268

FRANZISKA HELLER

Abb. 6: Der Off-Kommentar hierzu: „Farbenpracht und unverhüllte Todeserotik waren die Merkmale des Films.“.

nannte „unverhüllte Todeserotik“ in den konkret gegebenen Bildern zu sehen35; zumal der Kommentar zugleich affirmativ das tatsächlich stattfindende „Fest für die Augen“ beschreibt, ohne den Kontext der eskapistischen oder ideologischen Hintergründe genauer zu benennen.36 Man gewinnt den Eindruck, dass zwischen kritischer Reflexion des schwierigen Verhältnisses von Film als sinnlicher Unterhaltung und zeitgeschichtlicher Einordnung die Dokumentation der Faszination der exzessiven Bilder mit erliegt. Denn sie benötigt diese, um die Qualität des Farbenspiels für einen heutigen Zuschauer zu illustrieren, koppelt dies aber von dem zeitgenössischen Kontext dieses spezifischen ästhetischen Erlebens ab. 35

36

Es ist unbestreitbar, dass dieser Tenor in dem Film vorhanden ist und insbesondere in Kristina Söderbaums Sterbeszene am Ende exzessiv auch formalästhetisch zum Ausdruck kommt. Doch im konkreten Argumentations- und Montagezusammenhang der Dokumentation ist dies – vor allem ohne Kenntnis des Films – nicht nachvollziehbar. Später in der Dokumentation wird auf den „Totalen Krieg“ und das Durchhaltedogma in den letzten Kriegsjahren hingewiesen. Allerdings sind diese Punkte argumentativ in dem Beitrag (zeitlich) weit entfernt von der Darstellung von Harlans Motiven, den ästhetischen Vorzügen und vor allem deren Effekten in bestimmten ideologischen Kontexten.

PRETTIER THAN EVER

269

Abb. 7: Der Off-Kommentar: „Zeitgenössische Kritiker bezeichnen Opfergang als Fest für die Augen.“

Der Titel lässt sich hier einordnen: Ein Mythos in Agfacolor. Der Mythos ist der Film Münchhausen. Der Film wird über seine technischen und insbesondere materialästhetischen, d. h. farblichen Vorzüge und Besonderheiten identifiziert. Somit wird der Mythos festgestellt. Dies will die Dokumentation filmisch – über die (fiktionalen) Filmszenen – belegen. In dem diskutierten Ausschnitt zu Opfergang wird der nicht unumstrittene Regisseur Veit Harlan durch den Voice Over als geschickter Künstler beschrieben, der die Farben zur Kraft der Suggestion einsetzt. Welche Form der Suggestion, in welchem Kontext – dies wird nicht erwähnt. Stattdessen werden die fiktionalen Spielfilmszenen als vermeintlich selbstevidentes Dokument verwendet. Die Formen der Zuschreibungen, die sich der ästhetischen Kraft der filmischen Bilder implizit bedienen, setzt sich fort: Der Kommentar schafft eine zeitliche und logische Linearität, die die Ambivalenzen in den Bildern auf eine Perspektive – die technische Entwicklung – beschränkt: Die Farbfilmbeispiele und -tests bei der Rekapitulation der Entwicklung des Agfacolor-Verfahrens zeigen Hakenkreuze. Diese Motivik wird lediglich als „Zeitgeschmack“ vom Voice-Over benannt (Abb. 8). Die Kontextualisierung, dass mit der Entwicklung des deutschen Farbfilms implizit die Ideologie einer deutschen (technologischen) Überlegen-

270

FRANZISKA HELLER

Abb. 8: Die Dokumentation zeigt Agfacolor-Tests

heit demonstriert werden sollte37, die den Fortschrittsgedanken transportiert, wird allenfalls am Rande kurz erwähnt. Stattdessen wird meines Erachtens, indem die Technikentwicklung gefeiert wird, in gewissen Zügen diese Ideologie reproduziert, und das – und dieser Aspekt ist das eigentlich Überraschende aus heutiger Sicht – verbindet sich mit der Rechtfertigung und Hervorhebung der Leistung in der heutigen, digitalen Restauration. Diese erscheint wie eine logische Fortschreibung des technischen Fortschritts, der mit dem Film Münchhausen erreicht wurde. Zugleich ist der technische Gehalt des Films auch die Argumentationsgrundlage für die Auffassung, der Film sei „schön“ und ein Meisterwerk – wie am Ende beschrieben wird. Andere ästhetische Werte werden ausgeblendet. Technischer Fortschritt und logistischer wie ökonomischer Produktionsaufwand sind die filmhistorischen Narrationsvehikel.38 Die digitalen Techniken die37

38

Vgl. hierzu die Arbeiten von Alt u. a.: Alt, Dirk: „Farbfilmstart oder Farbfilmphantom? Das Siemens-Berthon-Linsenrasterverfahren und seine Förderung durch die nationalsozialistische Propaganda 1936-38.“ In: Filmblatt, 40/2009 (Sommer), S. 5-18. Hediger hat dies schon in Bezug auf den Making-of-Film eindrücklich vorgestellt. Vgl. Hediger, Vinzenz: „Spass an harter Arbeit. Der Making-of-Film.“ In: Hediger, Vinzenz/Vonderau, Patrick (Hrsg.): Demnächst in ihrem Kino. Grundlagen der

PRETTIER THAN EVER

271

nen zur Festigung, zum Erhalt, aber auch der Weiterverwertung des Mythos des Münchhausen-Films: Zum einen wird in Anspruch genommen, dass die „originalen“ Qualitäten des Films bewahrt bleiben, gleichzeitig soll die Qualität für heutige Zuschauer akzeptabel sein, angepasst an den heutigen Geschmack – wiederum bei gleichzeitigem Bewahren der historischen Atmosphäre. Nun ist zu fragen, wie sich eine solche historische Dimension bestimmt. Denn diese Aura des Historischen dient nicht zuletzt als Vermarktungsargument und gedankliches Framework. Sie formiert die digitale Bearbeitung und damit die Erscheinungsweise des Films heute. Diese Problematik wird verschleiert zugunsten des Versprechens und des Drängens nach Sichtbarkeit des historischen Materials und der Zugänglichkeit als Primat von digitalen Distributionsmechanismen. Vor diesem Hintergrund ist zu sehen, dass Singularitäten (in Form von ‚Meisterwerken‘) und Eindeutigkeiten (etwa ‚finale‘, ‚definitive‘ Editionen) in der Filmgeschichte geschaffen werden müssen, damit das Produkt als ‚einzigartig‘ vermarktbar wird. Dafür bedarf es der Konstruktion eindeutiger kausaler Zusammenhänge und einer klaren verortbaren und damit instrumentalisierbaren historischen Position des Referenzwerkes. Münchhausen ist kein Einzelfall und mit Blick auf die Dokumentation und ihre argumentative Stringenz scheint es in mancher Hinsicht legitim, sich nur auf bestimmte Aspekte der Produktions- und Materialgeschichte – etwa der Entwicklung der Farbverfahren – zu konzentrieren. Meine obigen Überlegungen zielen vielmehr auf eine generelle Symptomatik für einen weit verbreiteten Umgang mit Film und seinen unterschiedlichen Dimensionen, die bei seiner Geschichtsschreibung zu Tage treten. Schaut man ähnliche Bonus-Materialien an, ist es dann nicht überraschend – sarkastisch formuliert –, wie viele Meisterwerke die Filmgeschichte hervorgebracht hat? Dies ist nicht neu im Filmmarketing, aber es ist doch erstaunlich, wie die historische Bedeutsamkeit von fiktionalen Filmen argumentativ begründet wird39 – und insbesondere im Kontext digitaler Technologien lohnt sich weiter ein genaueres, durchaus selbstkritisches Hinsehen: Was zugänglich wird, wird Filmgeschichte – auch durch und mit uns als Filmwissenschaftler(n), die mit diesen ‚neuen‘ Quellen ar-

39

Filmwerbung und Filmvermarktung. Marburg 2005, S. 332-341. Ein weiterer, sehr informativer überblicksartiger Beitrag zu filmhistoriographischen Narrativen unter dem Stichwort „Filmgeschichte als eine Funktion der Fragen, die man an sie stellt“, ist die Einleitung von Elsaesser, Thomas: Filmgeschichte und Frühes Kino. Archäologie eines Medienwandels. München 2002. S. 7-19, bes. S. 10-11. An dieser Stelle ist es wichtig, erneut zu erwähnen, dass ich mich im gegebenen Kontext nur auf die Diskurse im Kontext von fiktionalen Filmen beziehe.

272

FRANZISKA HELLER

beiten. Und es stellt sich die Frage, unter welchen Vorzeichen wir dann die Geschichte weiter schreiben ...

Das Beste aus der Vergangenheit mit unserer digitalen Gegenwart: Schlußüberlegungen Prozesse der Retrodigitalisierung werden in den vorgestellten Überlegungen als zeitgenössische und kulturelle Praxis perspektiviert. Im Kontext von Filmwissenschaft bedeutet dies: Man fasst die Praxen auch und vor allem als medial wahrnehmbares und wirksames Phänomen auf, weshalb dezidiert auch populäre filmhistorische Formate untersucht werden. Im Mittelpunkt stehen Fragen danach, wie sich die (populäre) Wahrnehmung von und durch Filme(n) im Kontext der Transition in die digitale Domäne verändert und welche kulturellen Narrative sich darum ranken. Zunächst einmal geschieht nachhaltig eine schleichende Veränderung der materialästhetischen Wahrnehmung: Nicht nur die Sichtungsmöglichkeiten multiplizieren sich, auch die tatsächlichen Bilder – je nach Rezeptionssituation (Komprimierung und Quelle) mehr oder weniger deutlich – verändern sich. Dies kann den Ton, die Farben, die Kontraste, den Bildausschnitt (Cropping) oder auch die Bewegungsgeschwindigkeit betreffen. Die kulturelle Rahmung dieser ästhetischen Veränderungen ist jedoch ebenso prägend für die Erscheinungsweisen und Wahrnehmungsformen: „The end result is a restoration which combines the best of our past with our digital present.“40 So sagt die Analyse von Verfahren der Retrodigitalisierung nicht nur viel über unser audiovisuelles Erbe aus, sondern fast noch mehr über den aktuellen Wert, die Stellung und die Umgangsformen mit audiovisuellen Medien in der Gesellschaft der Gegenwart. Wenn gerade Fiktionsfilme – wie in Bezug auf die Sammlungsaktivitäten der Library of Congress implizit in Anlehnung an Kracauer zuletzt geschrieben wurde41 40 41

Robert Gitt, Preservation Officer, UCLA Film&Television Archive über die Restauration von The Red Shoes, 2009 in dem begleitenden (Werbe-)Heft. „Panthersprung in die Zukunft. 25 neu gewählte Filme für das Archiv der Library of Congress.“ In: Süddeutsche Zeitung, Nr. 301, 29.12. 2010, S. 11. Der Artikel greift implizit und ungenannt auf Gedanken und Methoden von Siegfried Kracauer zurück, der bereits in Von Caligari zu Hitler Filme als adäquaten Gegenstand der Untersuchung von psychologischen Dispositionen von Gesellschaften profiliert. Auch verweist Kracauer bereits auf die Sammlungsaktivitäten und Auswahlverfahren der Library of Congress. Vgl. Kracauer, Siegfried: Von Caligari zu Hitler. Eine psychologische Geschichte des deutschen Films (1947). Hrsg. von Karsten Witte. Frankfurt, 1984. S. 13.

PRETTIER THAN EVER

273

– die Träume und Phantasien von Gesellschaften dokumentieren, dann dokumentiert der heutige Umgang mit der filmischen, fiktionalen Vergangenheit umso mehr die eigene (identitätsstiftende) Historiographie und kollektive Mythenbildung. Fiktionale Filme und vor allem ihr Weiterleben in der Zeit sind prozessuale Dokumentationen von sich entwickelnden kollektiven Träumen, in denen sich Technikgeschichte, Produktionsmythen, Startum (etc.) und traumähnliches ästhetisches Erleben des Filmtextes/-inhalts miteinander verquicken. Meine These ist, dass sich im Moment der Restauration all diese Aspekte in den zur Anwendung kommenden Praxen und begleitend publizierten Diskursen verdichten, da sie die Rechtfertigungen und die Referenz für die Bearbeitung und die finanzielle Förderung darstellen. Speziell in der digitalen (Bild-)Bearbeitung der Informationen liegt das Potential und zugleich das Problem der scheinbar unbegrenzten Möglichkeiten: Im Diskurs um Retrodigitalisierung und Film steckt das Versprechen, kollektive Träume und Erinnerungen immer noch, nach dem neuesten Stand, besser machen und omnipräsent erleben zu können. So beinhaltet, verfestigt und verkörpert die DVD Münchhausen nicht nur einen Mythos in Agfacolor, sondern auch ein digitales Märchen in HD. Die dazugehörigen Narrationsformen funktionieren nach einer fast märchenhaften – man denke nur an den Dokumentenstatus der fiktionalen Filmszenen als Illustration bei Restoration of Oz –, mythenschaffenden Dramaturgie, die der magischen Kraft des Digitalen zugeschrieben wird: Prettier than ever. Damit wird versucht, in einer Situation, in der Geschichtlichkeit, Materialität und fixierbare Zeit-Räumlichkeit schon lange in Frage gestellt sind, eine lineare Narration von Fortschritt aufrechtzuerhalten. Der augenblickliche Umgang mit historischen Filmen mittels digitaler Möglichkeiten zeigt somit vornehmlich: Es ist eine merkwürdige Verfasstheit zwischen Re-Aktualisierung von (nostalgischen) Träumen – vermittelt durch ästhetisches, filmisches Erleben – und dem Versprechen und Glauben einer greifbaren, wieder erlebbaren Vergangenheit (ironischerweise durch ein Medium); dies bei gleichzeitigem Wunsch nach Anpassung der Vergangenheit an die Gegenwart. Es ist der Gedanke, man könne mit der aktuellen Technik das Material und damit das Erleben modernisierend anpassen und sogar noch zugänglicher – räumlich wie ideell – gestalten. Die Möglichkeiten der digitalen Domäne nähren so paradoxerweise das Bedürfnis nach einer materiellen Essenz, die historisch, d.h. raum-zeitlich klar bestimmbar ist. Doch genau diese materielle Essenz bleibt virtuell, denn sie ist nur noch als imaginäre Referenz (etwa in Form eines älteren

274

FRANZISKA HELLER

Mediums und seiner ihm zugeschriebenen Qualitäten) vorhanden.42 Aber genau dieser Referenzrahmen auf vermeintlich fixierbare Attribute kann aufgrund der nostalgischen Qualitäten, die immer schon in der Gegenwart und ihren spezifischen Vorstellungen zutiefst verhaftet sind, eigentlich nur als virtueller Mythos funktionieren. Es geht nicht um die tatsächlichen historischen Eigenschaften, sondern nur um eine romantisierte, hypothetische Vorstellung. Dies bedeutet aber, dass die essentialistischen Referenzen diskursiv konstruiert werden. Und deshalb sind auch und vor allem Digitalisierungsprozesse ein analytischer Bereich der Geisteswissenschaften.

42

Diese Funktion erfüllt etwa die symbolhafte Darstellung des fotochemischen Filmstreifens in The Restoration of Oz.

Heinz Hiebler

Digital Tools Filmanalyse und Filminterpretation im digitalen Zeitalter Epistemologische Ausgangslage Die Analyse von Filmen ruft die unterschiedlichsten Formen von Wissen auf. Neben der herkömmlichen Spielart des expliziten reverbalisierbaren Wissens, wie man ihm vor allem bei der inhaltlichen Analyse von Filmen begegnet, bringt die formale Auseinandersetzung mit den audiovisuellen ästhetischen Gestaltungsmitteln des Films Formen des Wissens ins Spiel, die sich einer Verbalisierung tendenziell entziehen. Das Gesicht einer Schauspielerin, die Stimme eines Synchronsprechers lassen sich mit Worten nicht eindeutig bezeichnen. Wer jedoch schon einmal einen Film mit Marilyn Monroe oder Humphrey Bogart gesehen hat, wird die dazugehörigen Gesichter und Stimmen auch in anderen Filmen erkennen. Ähnliches mag bei eingehender Betrachtung auch für die spezifischen Stile und mehr oder weniger versteckten audiovisuellen Botschaften von Regisseuren, Kameraleuten, Cuttern, Sounddesignern etc. gelten, sofern man deren Machenschaften auf dem Weg einer eingehenden medienästhetischen Analyse auf die Schliche kommt. Vieles, was für die Analyse und Interpretation von Filmen von zentraler Bedeutung ist, lässt sich mit den expliziten Mitteln der Sprache nur annäherungsweise, nie aber vollständig einholen. Aktuelle theoretische Positionen zur Beschreibung von Medien und ‚Realität‘, wie sie Ludwig Jäger und Georg Stanitzek auf der einen und Dieter Mersch auf der anderen Seite vorgelegt haben, oszillieren zwischen den durchaus eigenwilligen Polen von Sagen und Zeigen. Während Jäger und Stanitzek bei ihren hermeneutisch-mediensemiotischen Konzepten der ‚Transkription‘ davon ausgehen, dass alles Wahrnehmen, Denken und Erkennen auf dem Prozess der Versprachlichung von Wissen beruht,1 betont die „negative Medientheorie“ von Mersch die prinzipielle Unüber1

Vgl. dazu die Beiträge der Herausgeber in Ludwig Jäger, Georg Stanitzek (Hrsg.): Transkribieren. Medien/Lektüre. München 2002. Grundlage dafür ist Ludwig Jägers Auffassung der Sprache als „audiovisuelles Archimedium“. Vgl. Ludwig Jäger: „Sprache als Medium. Über die Sprache als audio-visuelles Dispositiv des Media-

276

HEINZ HIEBLER

setzbarkeit von Medien, deren aisthetischer Wahrnehmungsmodus nicht der des Sagens, sondern der des Zeigens sei.2 Die medienkulturhistorische Folie für beide Perspektivierungen gibt das epistemologische Leitmedium der Gegenwart, der Computer, ab, der durch sein multimediales und interaktives Potential die Dichotomien von gesprochener Sprache und Schrift, aisthetischen und diskursiven, analogen und digitalen Medien wie kein Medium zuvor auf einer gemeinsamen Benutzeroberfläche zusammenführt. Inwiefern das mittlerweile in allen Lebensbereichen wahrnehmbare Nebeneinander von Schriften, Bildern und Sounds in der Lage ist, sich gegenseitig zu befruchten und neue Formen des Wahrnehmens, Denkens und Handelns zu befördern, für die das kreative Wechselverhältnis von Sagen und Zeigen, Sinn und Sinnlichkeit mehr ist als ein abstraktes Wort- oder Denkspiel, ist gegenwärtig eine der zentralen epistemologischen Fragen der Medien- und Kulturwissenschaften. Der intensiven Auseinandersetzung mit dieser Problematik verdanken wir, dass das erkenntnistheoretische Potential des Audiovisuellen bzw. Sinnlichen in den aktuellen medienkulturwissenschaftlichen Debatten ebenso in den Blick gerät wie der ästhetische Mehrwert des Diskursiven. Auf der einen Seite geht es um die unterschiedlichen Formen einer sinnlichen Erkenntnis und die daran anknüpfenden Fragestellungen, inwiefern etwa die Musik3 oder die akustischen,4 optischen5 und audiovisuellen Medien in der Lage sind Wissen zu transportieren bzw. ob es überhaupt außersprachliche Formen von Wissen6 geben kann. Auf der anderen Seite steht die Frage, wie man mit den armseligen Mitteln diskreter bzw. di-

2

3 4 5

6

len.“ In: Horst Wenzel u. a. (Hrsg.): Audiovisualität vor und nach Gutenberg. Zur Kulturgeschichte der medialen Umbrüche. Wien, Milano 2001, S. 19-42. Vgl. Dieter Mersch: „Medialität und Undarstellbarkeit. Einleitung in eine ‚negative‘ Medientheorie.“ In: Sybille Krämer (Hrsg.): Performativität und Medialität. München 2004, S. 75-95. Vgl. Alexander Becker, Matthias Vogel (Hrsg.): Musikalischer Sinn. Beiträge zu einer Philosophie der Musik. Frankfurt a. M. 2007. Vgl. Petra Maria Meyer: „Minimalia zur philosophischen Bedeutung des Hörens und des Hörbaren“. In: Dies. (Hrsg.): acoustic turn. München 2008, S. 47-74. Vgl. u. a. Ralph Köhnen: Das optische Wissen. Mediologische Studien zu einer Geschichte des Sehens. München 2009. – Dieter Mersch, Martina Hessler (Hrsg.): Logik des Bildlichen. Zur Kritik der ikonischen Vernunft. Bielefeld 2009. – Eva Schürmann: Sehen als Praxis. Ethisch-ästhetische Studien zum Verhältnis von Sicht und Einsicht. Frankfurt a. M. 2008. – Gottfried Boehm: Wie Bilder Sinn erzeugen. Die Macht des Zeigens. Berlin 2007. Zu der generellen Fragestellung vgl. Sybille Krämer, Ekkehard König (Hrsg.): Gibt es eine Sprache hinter dem Sprechen? Frankfurt a. M. 2002.

DIGITAL TOOLS

277

gitaler Zeichensysteme wie der phonetischen Schrift oder des Binärcodes des Computers in der Lage sein kann, blühende Welten und fabelhafte Vorstellungen einer wie auch immer gearteten ‚analogen Realität‘ zu vermessen, zu erkunden und gegebenenfalls sogar zu simulieren. Ein mögliches Forschungsfeld, das sich diesbezüglich in den unermesslichen Weiten eines Wissens im digitalen Zeitalter eröffnet, ist das der multimedialen und interaktiven Medienanalyse. Die Ausgangspunkte für zeitgemäße multimediataugliche Analysemodelle, die sich mit der ganzen Bandbreite medialer Erscheinungsformen auseinanderzusetzen vermögen, findet man in der Film- und Fernsehanalyse und in der medienkulturhistorischen Urszene analytischen Denkens: in den antiken Modellen des Schriftgebrauchs. Damit der Computer als Rechenmaschine audiovisuelle Inhalte anzeigen und verarbeiten kann, müssen Bilder und Sounds durch das Nadelöhr der Digitalisierung. Während alphanumerische Texte, sofern sie nicht als Bilder oder als gesprochene Sprache in Erscheinung treten, nur noch von einem mehrwertigen alphanumerischen Code in den binär-digitalen Code des Computers übersetzt werden müssen, beruhen die Übersetzungsprozesse der Analog-Digital- und Digital-Analog-Wandlung für analoge Signale wie Bilder und Sounds auf den Prinzipien der Vermessung, Zerlegung und Codierung. Messung, Zerlegung und Codierung sind Grundfiguren der Analyse. Digitale Medien sind in Hinblick auf ihre grundlegende Arbeitsweise funktional analytisch, d. h., damit sie Informationen verarbeiten können, müssen sie diese vermessen, in ihre Bestandteile zerlegen und codieren. Für die Ausgabe auf Bildschirmen, Kinoleinwänden oder über Lautsprecher müssen die gespeicherten und verarbeiteten digitalen Informationen wieder zu einem analogen Signal zusammengefügt werden. Der Computer ist nicht das erste Medium dieser Art. Analyse und Synthese, Zerlegen und Zusammenfügen sind zentrale Denkfiguren der abendländischen Kultur. Das (digitale bzw. diskrete) Medium, von dem diese Denkfigur entscheidend geprägt ist, ist die Schrift (in unserem Kulturkreis vor allem das phonetische Alphabet). Die Kulturtechniken ‚Schreiben‘ und ‚Lesen‘ werden seit der Antike als Techniken des ‚Zerlegens‘ und ‚Zusammenfügens‘ von Worten (gr. λόγος) und Buchstaben (gr. Στοιχεϊα, auch: Elemente) verstanden. Dieses Verständnis prägt über den Einfluss der Schrift auf die Logik und Grammatik unserer Sprache auch das Denken.7 Schon bei Platon findet man die Problematik des Wissens immer wieder mit Schriftbeispielen belegt, die aus der antiken 7

Vgl. Christian Stetter: Schrift und Sprache. Frankfurt a. M. 1997.

278

HEINZ HIEBLER

Praxis des Schreiben- und Lesenlernens entlehnt sind.8 In Platons Theätet wird die Leistungsfähigkeit analytischen Wissens am Beispiel eines Wagens erörtert. Ein schon bei Platon immer wiederkehrender Gedankengang auf der Suche nach Wissen als „wahre[r], gerechtfertigte[r] Meinung“9 ist es, „die Frage nach dem Wesen irgendeines Dinges […] durch die Aufzählung der Elemente“10 zu beantworten. Die Lösung, auf die Sokrates sich in seinem Gespräch mit Theätet bezieht, kommt von Hesiod, demzufolge ein Wagen aus 100 Stücken bzw. Bestandteilen bestehen soll. Sokrates greift diese These auf, er vergleicht sie ausdrücklich mit der gängigen Schriftpraxis der Zerlegung von Namen in Silben und Buchstaben und kommt letztendlich zu folgender Forderung: […] erst wer imstande sei, durch Aufzählung jener hundert Stücke das Wesen desselben [des Wagens; Anm. Hiebler] genau zu bestimmen, habe durch dieses Plus zu der richtigen Meinung auch noch die Erklärung hinzugewonnen und sei dadurch statt eines bloß Meinenden ein Sachverständiger und Wissender geworden hinsichtlich des Wesens des Wagens, indem er vermittelst der Elemente das Ganze abhandelte.11

Doch es wäre nicht Sokrates, wenn er sich in Hinblick auf das wahre Wissen mit einem derart mechanistischen Erkenntnismodell zufrieden geben würde. Der „Weg durch die Elemente zum Ganzen“12 erweist sich letzten Endes trotz des gesuchten Bezugs zur Ganzheit als „Luftschloss“13. Die analytische Methode, wie Sokrates sie am Beispiel des Wagens und des Schreibens von Namen exemplifziert, wird letzten Endes als „eine richtige Meinung verbunden mit Erklärung“ entlarvt, „die man noch nicht ‚Wissen‘ nennen darf“.14 In den erkenntnistheoretischen Modellen der letzten drei Jahrtausende nimmt die Dichotymie von Analyse und Synthese dennoch einen zentralen Stellenwert ein. Ihr Einfluss reicht vom antiken Atommodell über die Welterklärungsmodelle des Barock bis hin zu modernen Ansätzen in den computerbasierten Naturwissenschaften.

8 9

10 11 12 13 14

Vgl. Jürgen Villers: Das Paradigma des Alphabets. Platon und die Schriftbedingtheit der Philosophie. Würzburg 2005. Vgl. Wolfgang Detel: Grundkurs Philosophie, Bd. 4: Erkenntnis- und Wissenschaftstheorie. Stuttgart 2007, S. 51 und Platon: Theätet. Übersetzt u. erläutert von Otto Apelt. 4. Aufl. Leipzig 1923, S. 140. Vgl. Platon: Theätet, S. 138. Ebda, S. 138f. Ebda, S. 141. Ebda, S. 140. Ebda.

DIGITAL TOOLS

279

Die semiotische Interpretation mit ihrer Abfolge von Segmentierung, Selektion und Kombination sowie interner und externer Umcodierung15 lässt sich auch heute noch mit der (im Idealfall geglückten) Zerlegung eines Wagens vergleichen, den man zu dem Zweck auseinandernimmt, um die Funktionsweisen jedes seiner Bestandteile zu ‚begreifen‘. Damit wäre allerdings noch nichts gewonnen, wenn man im Anschluss daran nicht auch in der Lage wäre, den zerlegten Wagen und seine in mehrfachem Sinne ‚begriffenen‘ Einzelteile wieder so zusammenzusetzen, dass der Wagen nach seiner erfolgten Rekonstruktion wieder fährt und dabei womöglich sogar noch besser funktioniert als zuvor. Eine geglückte semiotische Interpretation ist immer auch ein derartiger Akt der Zerlegung (Analyse) und Rekombination (Synthese). Texte jeder Art (geschriebene bzw. gedruckte Texte, Filme, Hörspiele etc.) werden im Rahmen einer semiotischen Analyse in ihre kleinsten Bestandteile zerlegt. Die dabei beobachteten Einzelheiten werden dann im Rahmen der eigentlichen Interpretation wieder zusammengefügt (Synthese), um dem Rezipienten im Idealfall zu einem tieferen Verständnis des Textes als Ganzes zu verhelfen. Nicht ganz unähnlich, wenn auch in Hinblick auf die zum Einsatz gebrachte Medientechnologie als weitaus komplexer erweisen sich bislang die Bemühungen jener, die mit Hilfe des Computers und seines digitalen Analysepotentials an intelligenten Lern- und Wissenssystemen oder an konkreten multimedialen und interaktiven Modellen einer computergestützten Filmanalyse arbeiten.

Computergestützte Filmanalyse Die Anfänge der computergestützten Filmanalyse verfolgen dieser erkenntnistheoretischen Ausgangslage entsprechend zunächst ein ganz bescheidenes Ziel. Das Grundproblem der ersten computergestützten Modelle der Filmanalyse betrifft die bild- und zeitgenaue sprachliche Erfassung von Filmen. Durch die synchronisierte Koppelung eines vom jeweiligen Rezipienten eingegebenen PC-Protokolls mit einem Gerät zur Filmwiedergabe (Filmprojektor, Videorecorder, Schneidetisch) soll zunächst nicht mehr als eine sekundengenaue Beschreibung des Films erreicht werden. Neben der Beschreibung und der exakten Markierung der 15

Vgl. z. B. Erika Fischer-Lichte: Semiotik des Theaters. Eine Einführung. Bd. 3: Die Aufführung als Text. 4. Aufl. Tübingen 1999. – Götz Schmedes: Medientext Hörspiel. Ansätze einer Hörspielsemiotik am Beispiel der Radioarbeiten von Alfred Behrens. Münster u. a. 2002.

280

HEINZ HIEBLER

Schnitte, die immer wieder kontrolliert und korrigiert werden können, ist die eigentliche (quantitative) Auswertung, die zunächst nur auf der Basis des schriftlichen Protokolls möglich ist, zweitrangig. Einfache Filmprotokollierungssysteme, wie das Ende der 1980er Jahre von Günter Giesenfeld und Philipp Sanke an der Universität Marburg entwickelte FILMPROT, sehen neben der Möglichkeit eines Ausdrucks des Protokolls und seiner weiteren inhaltlichen Bearbeitung unterschiedliche grafische Darstellungen zum Sequenzprofil oder zum Parameter der Einstellungslänge vor.16 Vordergründige Intention von FILMPROT 1.01 war es, die eigentliche filmwissenschaftliche Arbeit von den „viele[n] mechanische[n] und stupide[n] Tätigkeiten“ des Transkribierens zu entlasten. In einer Zeit, in der Personal Computer selbst noch nicht in der Lage waren, Filme digital anzuzeigen, geschweige denn zu bearbeiten oder zu analysieren, betraf dies so einfache, aber lästige Tätigkeiten wie das „Stoppen mit der Stoppuhr,[…] Aufschreiben und Zuordnen der Einstellungen, Reinschrift der häufig flüchtig geschriebenen und korrigierten Notizen, ihre Einordnung in eine Tabelle, Auszählen und Auswerten der Einstellungslängen und -arten, sowie anderer quantitativer Daten, Errechnen von Durchschnittswerten und Zeichnen von illustrierenden Grafiken etc.“17 Der Computer als Hilfsmittel ‚fürs Grobe‘ sollte als „komfortabler Schreibstift“ zu einer Entlastung führen und Kapazitäten für die weiterführende Interpretation frei machen. Den verwendeten „[g]rafische[n] Mittel[n] (Tabellenform, Säulen- und Kurvendarstellungen“ wird nur ein „veranschaulichende[r] Sinn“ zugesprochen. Das zentrale Medium des wissenschaftlichen Diskurses ist die Sprache.18 Die sprachliche Erfassung des Films bleibt auch für den Schritt vom computergestützten Filmprotokoll zur computergestützten Filmanalyse, wie ihn Werner Faulstich und Holger Poggel mit ihrem in Siegen entwickelten EDV-Programm CAFAS (für „Computer Aided Film Analysis Siegen“19) vollziehen, unumgänglich. Die Ziele dieses Programms zur quantitativen Auswertung von Filmtranskripten sind Arbeitserleichte16

17 18 19

Vgl. Günter Giesenfeld, Philipp Sanke: „Ein komfortabler Schreibstift für spezielle Aufgaben. Vorstellung des Filmprotokollierungssystems FILMPROT (Vers. 1.01)“. In: Helmut Korte, Werner Faulstich (Hrsg.): Filmanalyse interdisziplinär. Göttingen 1988. (= Zeitschrift für Literaturwissenschaft und Linguistik. Beiheft 15.) S.135146. Ebda, S. 135. Vgl. ebda, S. 146. Vgl. Werner Faulstich, Holger Poggel: „Computergestützte Filmanalyse: ‚CAFAS‘. Ein EDV-Programm zur quantitativen Auswertung von Filmtranskripten“. In: Ebda, S. 147-155; hier: S. 150.

DIGITAL TOOLS

281

rung und Horizonterweiterung. Durch die Datenverarbeitung sollen Fehlerquellen umgangen und „ergänzende, neue Gesichtspunkte in die Filmanalyse“ eingebracht werden. Einsatz sollte das System vor allem bei der quantitativen Frequenz- und Kontingenzanalyse finden, wo es „um die Untersuchung der Häufigkeit bestimmter Momente in einem gegebenen Textfundus“ geht. Als mögliche Untersuchungsparameter wurden die Bereiche Handlung (‚Handlungsort‘, ‚Motiv‘), Figuren (‚Protagonist‘, ‚Figurenkonstellation‘), Bauformen des Erzählens (‚Einstellungsgröße‘, ‚Zeitdauer der Einstellung‘) oder Normen und Werte vorgeschlagen.20 Weiterführende Ansätze wie die Dialoganalyse sollten vor allem den positivistisch-quantifizierenden Forscherdrang befriedigen und ‚harte Fakten‘ zur „Anzahl der gesprochenen Worte für jede einzelne Figur“, zur „Anzahl der Sätze pro Figur“ und schließlich zur „durchschnittliche[n] Satzlänge pro Figur“ liefern.21 Technische Grundlagen des Verfahrens waren ein IBM-kompatibler PC und eine Software mit dem vielsagenden Namen ‚Framework‘, die es ermöglichte, die vier Aufgabenbereiche Textverarbeitung, Datenbank, Tabellenkalkulation und Grafik miteinander zu verbinden. Inwiefern die aufgeführten computergestützten Protokollverfahren und Analysemodelle in der Praxis der Filmanalyse tatsächlich erfolgreich zum Einsatz gebracht wurden, ist aufgrund der schlechten Materiallage oft nicht eruierbar. Im Kontext von Werner Faulstich haben zumindest eine Reihe von vollständigen Filmskripten ihren Weg auch in die traditionelleren Bücherregale von KollegInnen gefunden.22 Seltener begegnet man Formen der rechnergestützten Visualisierung von Filmstrukturen, wie sie Wolfgang Ramsbot, Professor für „Experimentelle Filmgestaltung“ an der Hochschule der Künste Berlin (HdK) und der Medienkünstler und -gestalter Joachim Sauter zur linearen Darstellung aller „wesentlichen Gestaltungsfaktoren des Films“ vorstellten. Die Entwicklung eines optischen Filmprotokolls, das einen raschen Überblick über „das Konstruktionsprinzip Film“ ermöglichen sollte, lieferte zwar zum Teil künstlerisch recht anspruchsvolle Bilder und Grafiken im 2D- und sogar 3D-Mo-

20 21 22

Vgl. ebda, S. 147f. Vgl. ebda, S. 154. Orson Welles: ‚The Stranger‘/‚Die Spur des Fremden‘. Transcript von Ricarda Strobel. Tübingen 1981. (= Medienbibliothek: Serie A, Texte; Bd. 6.). – Joseph Sargent: ‚Die Nacht, als die Marsmenschen Amerika angriffen‘/‚The Night that Panicked America‘. Transcript von Werner Faulstich. Tübingen 1982. (= Medienbibliothek: Serie A, Texte; Bd. 10.)

282

HEINZ HIEBLER

dus.23 Als problematisch erweist sich jedoch wohl nicht nur aus heutiger Sicht die Lesbarkeit der Darstellungen, die sich dem ungeschulten Betrachter nur schwer erschließen. Mit dem „Bemühen, die vorhandene Simultaneität der filmischen Gestaltparameter in Analogie zum (zeitlichen) Verlauf des Films zu veranschaulichen“24, stellen die Arbeiten von Ramsbott und Sauter dennoch Pionierarbeiten auf dem nach wie vor aktuellen Feld der Visualisierung und Formalisierung von filmischen Daten dar. Ähnlich wie bei Rolf Kloepfers AKIRA III (2006/07) steht bei derartigen Visualisierungsbestrebungen nicht die Zerlegung des Films und die Analyse seiner einzelnen diskreten Elemente im Mittelpunkt, sondern das aisthetische Zusammenwirken der unterschiedlichen Gestaltungsparameter und die Problematisierung des Films als komplexem analogem Gesamtkunstwerk. Die konkretesten und nachhaltigsten Ergebnisse aus der Reihe der um 1990 konzipierten Filmanalysesysteme lieferte die Computergestützte Notation filmischer Abläufe (CNfA), von der in den Jahren zwischen 1988 und 1994 unter der Leitung von Helmut Korte von der Hochschule für Bildende Künste Braunschweig eine erste Software-Version entwickelt werden konnte.25 Auch hier stand zunächst die bildgenaue Kopplung von Rechner und Filmwiedergabegerät (in diesem Fall handelte es sich um ein analoges Videogerät) im Vordergrund. Als analytisches Pendant zu den eher synthetisierenden Bestrebungen der Visualisierungsstrategien von Ramsbott und Sauter, denen durchaus an einer Kooperation mit Korte gelegen war,26 charakterisiert sich die von diesem entwickelte Methode der Systematischen Filmanalyse zunächst vor allem als filmwissenschaftliches ‚Instrument‘ der Zerlegung und Beschreibung. Ziel des Korte’schen Verfahrens ist es, sich einen repräsentativen Überblick über die einzelnen Bestandteile des Films zu verschaffen. Zu diesem Zweck wird die simultane analoge Informationsfülle an gesprochener Sprache, Schrift, Bewegtbildern und Sounds, die der Film als audiovisuelles Gesamtkunstwerk miteinander verknüpft, in ein „überschaubares Nacheinander“ aufgelöst. Die Zerlegung und „formal-inhaltliche Protokollierung des filmischen Ablaufs“ dient letzten Endes jedoch nicht einer ausschließlich quantitativen Datenerhebung, sondern hat das Ziel, „einen 23

24 25 26

Vgl. Wolfgang Ramsbott, Joachim Sauter: „Visualisierung von Filmstrukturen mit rechnergestützten Mitteln“. In: Korte, Faulstich (Hrsg.): Filmanalyse interdisziplinär (wie Anm. 16), S. 156-165. Ebda. Vgl. John-Patrick Wowra: Computergestützte Filmanalyse. Göttingen 2004, S. 24. Vgl. Ramsbott, Sauter: „Visualisierung von Filmstrukturen“ (wie Anm. 23), S. 160.

DIGITAL TOOLS

283

präzisen und überprüfbaren Interpretationsrahmen für die qualitative Gesamtanalyse zu erhalten“27. Als präzise Methode zur Erfassung von Inhalt, Medienästhetik und zeitlicher Struktur des Mediums Film bleibt Kortes Ansatz zunächst weitestgehend textimmanent und präsentiert sich als filmische Variante des literaturwissenschaftlichen ‚Close reading‘, des genauen Lesens, Wahrnehmens und Beschreibens. Den daran anschließenden qualitativen Fragestellungen sind keinerlei inhaltliche Grenzen gesetzt. Einziger Orientierungspunkt bleibt der Prätext des Films, der durch Einstellungs- und Sequenzprotokolle in Hinblick auf seine Inhalte, seine medienspezifischen Darstellungsformen und seine Dramaturgie minutiös erschlossen wird. Die im Umfeld dieser Methode oder von Korte selbst angefertigten Sequenzgrafiken28 ermöglichen mehr oder weniger detailreiche Einblicke in die Szenenfolge und Dramaturgie des Films. Was hier in Form von Einstellungsprotokollen, Sequenzprotokollen und Sequenzgrafiken transkribiert und visualisiert wird, erinnert letzten Endes auf unterschiedlichen Abstraktionsniveaus an den Versuch einer schrittweisen Rückübersetzung des Films in die Anfänge seines schriftbasierten Entstehungsprozesses. Für eingehendere Beobachtungen auf der Ebene der filmischen Inhalte oder zur schematischen Darstellung von Kamerabewegungen verwendet Korte visuell aufgewertete Formen des Transcripts mit Einstellungsfotos oder des Storyboards mit handskizzierten Filmeinstellungen. Technische Grundlage der Computergestützten Notation filmischer Abläufe (CNfA) ist die von Anfang an eingeplante Möglichkeit, die analogen Filmbilder des verwendeten Videorekorders zu digitalisieren, im Computer zu nutzen und gegebenenfalls auszudrucken. Inwiefern die von Korte bei seinem Verfahren der Systematischen Filmanalyse verwendeten Sequenzprotokolle und grafischen Modelle direkt auf die Computergestützte Notation filmischer Abläufe (CNfA) rekurrieren, lässt sich im Detail nicht immer abschätzen und wird von Korte auch nicht extra hervorgehoben. Deutlich ist jedoch, dass das Tool (wie gut oder schlecht es im Hintergrund der Analysen auch funktionierte) letzten Endes ein nützliches Hilfsmittel einer wissenschaftlichen Auseinandersetzung mit dem Film darstellt, deren zentrales Medium das Buch bleibt. Aktuellere Entwicklungen im Bereich der computergestützten Filmanalyse setzen nach wie vor auf die von Helmut Schanze schon in den 27 28

Helmut Korte: Einführung in die Systematische Filmanalyse. Berlin 1999, S. 24f. Vgl. u. a. Helmut Korte: „Systematische Filmanalyse als interdisziplinäres Programm“. In: Korte, Faulstich (Hrsg.): Filmanalyse interdisziplinär (wie Anm. 16), S. 166-183; hier: S. 177. – Korte: Einführung in die Systematische Filmanalyse. (wie Anm. 27), S. 41.

284

HEINZ HIEBLER

Abb. 1: Akira III

Abb. 2: Videana

Abb. 3: Avid Media Composer 5

1970er Jahren geforderte Engführung von Produktion und Rezeption.29 Filmanalysetools wie Rolf Kloepfers AKIRA III (2006/07) oder Ralph Ewerths Videana (2007) haben sich diese Forderung auch in Hinblick auf ihre grafische Gestaltung und ihre technologische Funktionalität zu Herzen genommen, erinnern ihre benutzerfreundlichen Oberflächen doch stark an die Seitengestaltung professioneller Schnittprogramme wie den AVID Media Composer 5. Rolf Kloepfer, dessen Filmanalysetool AKIRA III im Jahr 2006 unter Berücksichtigung der Erfahrungen mit den beiden Vorgängerversionen vollständig neu konzipiert und bis Februar 2007 mit Hilfe von Borland Delphi® zur Marktreife entwickelt werden konnte,30 bringt in dem dazugehörigen Benutzerhandbuch die gesuchte Annäherung an den Filmschnittplatz als „Ideal jedes Filmwissenschaftlers im 20. Jahrhundert“31 explizit zur Sprache. Die Problematik, von der Kloepfer bei der Zielsetzung seines Tools ausgeht, deckt sich nicht von ungefähr mit der allgemeinen Kernfrage der Ästhetik als Wissenschaft: „Wie“ – so fragt er – „lässt sich die jeweilige Wirkung im Subjekt, das das Werk unter mehr oder weniger besonderen Bedingungen empfängt, verarbeitet, mit dem es mitgeht etc., intersubjektiv kommunizierbar machen?“32 Vor dem Hintergrund der unumgänglichen Tatsache, dass die Leistungsfähigkeit des jeweils verwendeten Analysetools sich nicht nur auf die Genauigkeit, sondern auch auf die jeweilige Blickrichtung der Analyse konstitutiv auswirkt, wird die Wahl des Analyseinstruments zu einer wichtigen Vorentscheidung bei der Interpretation von Filmen. Alle gängi29 30 31 32

Vgl. Helmut Schanze: Medienkunde für Literaturwissenschaftler. Mitarbeit: Manfred Kammer. München 1974, S. 49. Vgl. Rolf Kloepfer: AKIRA III. Benutzerhandbuch. Heidelberg 2007, S. 5. Ebda, S. 3. Ebda. Zu dieser allgemeinen ästhetischen Fragestellungen vgl. bereits das Konzept der „proportionierten Stimmung“ der Erkenntnisvermögen im Rahmen von Immanuel Kants „Analytik des Schönen“ in: Immanuel Kant: Kritik der Urteilskraft. Frankfurt a. M. 1974, S. 134.

DIGITAL TOOLS

285

gen computergestützten Filmanalysetools versuchen eine Laborsituation herzustellen, in der mit Hilfe des Messinstruments Computer eine (scheinbar) objektive Fassung des Films hergestellt und der Film als komplexe zeitbasierte Textform so verfügbar wie möglich gemacht wird. Ziel ist die Rückführung des Films in das Stadium seiner Entstehung. Der konkrete Bezug zum Filmschnittplatz entpuppt sich auf diese Weise als Metapher für die unbändige Sehnsucht, nach den ontologischen Ursprüngen des Films. Wie in Platons Beispiel einer analytischen Definition des Wagens durch die Aufzählung seiner Elemente, versucht man, dem Wesen des Films durch die Zerlegung desselben in seine Bestandteile auf die Spur zu kommen. Die eigentlich primäre ganzheitlichere und komplexere Erfahrung des Films im Kino wird dabei weitgehend ausgeklammert bzw. umgangen. Damit diese ganzheitliche Erscheinungsform des Films nicht ganz aus dem Blick gerät, hat Kloepfer bei seinem nach Akira Kurosawa benannten Tool für die Funktion der Aufschreibung bzw. Notation das Modell der musikalischen Partitur gewählt. Außerdem lässt sich das Tool im Präsentationsmodus mit Vollbildansicht auch zur Vorführung von Filmen auf Großbildleinwand nutzen, verliert dann aber durch die Ausblendung des Partiturfensters seine analytische Funktion. Inspiriert von Kurosawas Rashomon (Japan 1950) und der darin erkennbaren Funktion der Musik als unbewusstem Steuerungselement, begründet Kloepfer sein ‚musikalisches‘ Ordnungsmodell mit dem Eindruck, die Vielzahl der audiovisuellen Elemente eines Films mit Hilfe einer für viele Instrumente und Stimmen gedachten Partitur am besten zur Darstellung bringen zu können. Um die Metapher der Partitur als Raster für eine adäquate Analyse des Films als analoges Ganzes terminologisch zu festigen, spricht Kloepfer im Kontext seines Tools von Parts und Spuren. Im konkreten Gebrauch lassen sich Filmfenster und Partiturfenster per Mausklick beliebig vergrößern und verkleinern. AKIRA III kann dabei durch Zuhilfenahme einblendbarer Textfenster „als eine Art Notizblatt genutzt werden, um den Film auf verschiedenen Ebenen bearbeit- und begreifbar zu machen“33. Erste Eindrücke können über die Textfunktion hinaus auch mit Hilfe von Markierungen und Schnappschüssen festgehalten werden. „Durch das Anlegen von Spuren und Parts (bspw. zu Schlüsselszenen) […] kann eine individuelle Partitur erstellt werden.“34 Da die im Zuge der Analyse untersuchbaren inhaltlichen, formalen oder explizit filmästhetischen Parameter vom jeweiligen Interpreten frei gewählt und benannt werden kön33 34

Kloepfer: AKIRA III. Benutzerhandbuch (wie Anm. 30), S. 3. Vgl. ebda, S. 4.

286

HEINZ HIEBLER

nen, ist das Tool innerhalb seiner vorgegebenen Funktionen, deren Symbolik und Webdesign sich zur einfacheren Handhabbarkeit weitgehend am konventionellen Windows-Standard orientierten, entsprechend flexibel und kreativ nutzbar.35 Mit der Digitalisierung des Films und seiner Einbettung in moderne computergestützte Analysetools verwandelt sich der Film unterhalb der Wahrnehmungsschwelle benutzerfreundlicher Oberflächen in das nahezu beliebig analysierbare und berechenbare Ergebnis eines Rechenvorganges. Die damit verbundenen Mathematisierungsvorgänge aller im Film verarbeiteten medienästhetischen Parameter (bewegtes Bild, Sound, Schrift) bilden die medientechnische Voraussetzung dafür, dass der Computer mit Hilfe entsprechender Analyseprogramme und Algorithmen mittlerweile zu durchaus bemerkenswerten Ergebnissen in Bereichen der automatisierten inhaltlichen Analyse von Filmen gelangen kann. Die Ergebnisse von großangelegten Forschungsprojekten zur biometrischen Gesichts- und Stimmerkennung oder zur automatischen Musikerkennung, wie sie seit Jahren unter anderem am Fraunhofer-Institut durchgeführt werden, haben mittlerweile Eingang in handelsübliche Film- und Fotokameras oder in weitverbreitete ‚Apps‘ wie den Musik-Identifikationsdienst für Mobiltelefone und Smartphones Shazam gefunden. Auch Filmanalysetools, wie sie vorwiegend in wissenschaftlichen Kontexten von Interesse sind, können sich dieses vorhandene Know How (sofern es als Open Source zugänglich ist) zunutze machen. Sie können die einzelnen Programme als Plugin in ihre Anwendungen integrieren, sie vor dem Hintergrund filmwissenschaftlicher Forschungsinteressen weiterentwickeln oder durch eigene Entwicklungen revolutionieren. Ein derartiges Werkzeug zur automatisierten Video- und Filmanalyse haben Ralph Ewerth und sein Team im Kontext des Kulturwissenschaftlichen Forschungskollegs SFB/FK 615 „Medienumbrüche“ an der Universität Siegen entwickelt. Basis des Teilprojekts „Methoden und Werkzeuge zur rechnergestützten medienwissenschaftlichen Analyse“ ist Mediana, „ein an die Bedürfnisse der medienwissenschaftlichen Projektpartner angepaßtes Datenbanksystem mit dem Ziel, beliebige textuelle und audiovisuelle Datenobjekte zu verwalten und so die medienwissenschaftlichen Arbeitsprozesse zu unterstützen“. Aufbauend auf diese Archivumgebung erforscht und entwickelt Videana als Mediana-Komponente „rechnerge35

Zum Potential von Kloepfers Tool vgl. auch Rolf Kloepfer: „How to Capture Offers of Filmic Effectiveness. AKIRA III as an aid“. In: Michael Ross, Manfred Grauer, Bernd Freisleben (Eds.): Digital Tools in Media Studies. Analysis and Research. An Overview. Bielefeld 2009, S. 177-191.

DIGITAL TOOLS

287

stützte Verfahren zur medienwissenschaftlichen Analyse digitaler Bildund Videodaten“.36 Zum aktuellen Funktionsumfang von Videana gehören die Schnitterkennung, das „Finden von eingeblendetem Text“, die „Bestimmung der Kamerabewegung“ sowie die „Detektion und Wiedererkennung von frontal erscheinenden Gesichtern“.37 Ähnlich wie bei aktuellen Schnittprogrammen oder bei AKIRA III ist das Hauptfenster von Videana in mehrere unterschiedlich große Frames unterteilt. Ein Fenster dient „zur Wiedergabe des Videos“ (in diesem Fall links oben), ein Fenster zeigt Screenshots von Anfang, Mitte und Ende der Einstellungen, die zur untersuchten Sequenz gehören (rechts oben), und eine Reihe von Zeitleisten enthält grafische Angaben zu den automatisch untersuchten Parametern ‚Cuts‘ bzw. ‚Schnitte‘ und ‚Faces‘ bzw. ‚Gesichter‘ (unten).38 Damit neben harten Schnitten auch graduelle Übergänge mit einer möglichst hohen Wahrscheinlichkeit erkannt werden können, vergleicht das Programm nicht nur Einzelbilder, sondern alle Bilder in einem kurzen Zeitfenster. Auf diese Weise lassen sich mit den besten im Augenblick zur Verfügung stehenden Programmen 90 % der harten Schnitte und immerhin noch bis zu 80 % der graduellen Übergänge automatisch erkennen.39 Zum Auffinden von Texten kommt ein Textdetektor zum Einsatz. Um den Text mit Hilfe einer OCR-Software zur Schrifterkennung nachbearbeiten zu können, ist eine Textsegmentierung oder Textextraktion erforderlich, mit deren Hilfe der Text zur besseren Maschinenlesbarkeit als schwarzer Text auf weißem Grund erscheint.40 Zur Gesichtsdetektion wird ein Ansatz von Viola und Jones aus dem Jahr 2004 genutzt, „der in der Intel Open Source Computer Vision Library (OpenVC) verfügbar ist“ und bei Standard-Tests Detektionsraten von mehr als 90 % erreicht.41 Probleme bereitet das System bei Außenaufnahmen. Jüngere Personen werden in der Regel schwerer erkannt als ältere, Männer werden besser erkannt als Frauen. Außerdem verringert sich die Identifikationsleistung „linear im Verhältnis zum Logarithmus der Datenbankgröße (Anzahl der Personen)“. Für eine ebenfalls angestrebte Erken-

36

37 38 39 40 41

Vgl. Ralph Ewerth, Bernd Freisleben: „Computerunterstützte Filmanalyse mit Videana“. In: Augen-Blick. Marburger Hefte zur Medienwissenschaft, H. 39: Technisierung des Blicks. Marburg 2007, S. 54-66; hier: S. 54. Vgl. ebda, S. 56. Vgl. ebda, S. 55. Vgl. ebda, S. 58. Vgl. ebda, S. 59. Vgl. ebda, S. 60.

288

HEINZ HIEBLER

nung der Gesichter im Profil ist das verwendete System „noch nicht ausgereift genug“.42 Bei einem Vergleichstest, in dem es um die Erkennung von horizontalen und vertikalen Kamerabewegungen sowie um die Erkennung von Einstellungen mit Zoom ging, nahm Videana die vordersten Plätze ein.43 Konkrete Anwendung fand das System bislang in unterschiedlichen Kontexten. In einem Siegener Forschungsprojekt zur „Industrialisierung der Wahrnehmung“ wurde es für die exemplarische Analyse der Schnittfrequenzen von sieben Kurzfilmen aus dem Zeitraum zwischen 1907 und 1913 genutzt. (Die Studie ergab, dass die durchschnittliche Schnittfrequenz amerikanischer Filme in diesem Zeitraum höher ist als die französischer und dass die durchschnittliche Schnittfrequenz im Zeitraum 1911 bis 1913 beinahe doppelt so hoch ist wie die zwischen 1907 und 1909.)44 Im Kontext des Siegener Teilprojekts „Mediennarrationen und Medienspiele“ von Rainer Leschke wurden „automatisch extrahierte Merkmale genutzt […], um statistische Modelle über die Videocharakteristika von interaktiven Computerspielsequenzen und narrativen Sequenzen in [sic!] Spielfilm maschinell zu ‚lernen‘ und diese zum Finden derselben in anderen Videoaufnahmen anzuwenden“45. Wie immer bei derartigen Unternehmungen standen weniger die möglichst ‚fehlerlosen‘ Antworten des Computers, sondern die allgemeineren Probleme der Formalisierung bzw. der mediengerechten ‚Übersetzung‘ inhaltlicher Fragestellungen in die Sprache des Computers im Vordergrund. Bei einer dritten, externen Kooperation mit Klaus Mathiak (RWTH Universität Aachen) und Rene Weber (University of California, Santa Barbara) wurde ein automatisches System zur semantischen Videoanalyse einer psychologischen Forschungsfrage entwickelt, bei der es darum ging, ob und wie Gewaltdarstellungen in Computerspielen beim Nutzer Aggressionen hervorrufen. Die Leistungsfähigkeit des Systems zeigte sich hier vor allem in der raschen Bewältigung großer Datenmengen und der immerhin bei 91 % liegenden korrekten Verarbeitungssicherheit der Ergebnisse.46 42 43 44

45 46

Vgl. ebda, S. 61. Vgl. ebda, S. 63. Ralph Ewerth, Markus Mühling, Thilo Stadelmann, Julinda Gllavata, Manfred Grauer, Bernd Freisleben: „Videana: A Software Toolkit for Scientific Film Studies“. In: Ross, Grauer, Freisleben (Eds.): Digital Tools in Media Studies (wie Anm. 35), S. 101-116; hier: S. 110f. Ewerth, Freisleben: „Computerunterstützte Filmanalyse mit Videana“ (wie Anm. 36), S. 65. Vgl. Ewerth u. a.: „Videana: A Software Toolkit for Scientific Film Studies“ (wie Anm. 44), S. 111.

DIGITAL TOOLS

289

Wer trotz der relativ hohen Trefferquoten und der immer bestehenden Möglichkeit einer nachträglichen manuellen Korrektur der errechneten Resultate vollautomatischen Tools wie Videana nicht vertraut, kann in Hinblick auf die Untersuchung durchschnittlicher Schnittfrequenzen auch auf halbautomatische Tools wie Cinemetrix zugreifen. Das 2005 von Yuri Tsivian am Department of Art History an der University of Chicago entwickelte Tool kann gebührenfrei von der dazugehörigen Webseite heruntergeladen werden.47 Es ermöglicht per Mausklick die manuelle Markierung von Schnitten zu einem auf dem eigenen Player wiedergegebenen Film. Nach Abschluss des Zählvorgangs kann das Ergebnis auf die Webseite hochgeladen werden, wo es mit Hilfe von Statistiktools ausgewertet, grafisch umgesetzt und in Echtzeit veröffentlicht wird. Als Teil der Cinemetrics-Datenbank werden die Daten damit anderen NutzerInnen zugänglich gemacht und können jederzeit abgerufen und ausgewertet werden. Die Datenbank verfügt gegenwärtig über 5178 zum Teil mehrfach ausgewertete Filme, wobei – wie aus Screenshots von zwei Schnittfrequenzmessungen zu Jim Jarmuschs Dead Man (USA 1995) ersichtlich wird – auch bei derartigen von Hand durchgeführten Untersuchungen nicht ganz unerhebliche Differenzen in den Messergebnissen zutage treten können. Was den allgemeinen Nutzen einer derartigen Anwendung für die Filmwissenschaft angeht, gibt Tsivian selbst eine launige Antwort zum Maß allen Fortschritts: It may sound a truism, but it is one worth repeating: in science as in scholarship, progress is measured not by new answers given to old questions, but by new questions put to old answers. What narrative factors make cutting rates change within the duration of a film? What correlations are there between staging and editing, between the scale of a shot and its duration?48

Fragestellungen, wie sie sich aus der Vermessung von Filmen in Hinblick auf ihre durchschnittlichen Schnittfrequenzen und andere messbare Parameter in der Montage von Filmmaterial ergeben, findet man vor allem im Kontext der gesuchten Verknüpfung zwischen Filmtechnologie und Stil, wie sie am prominentesten von Barry Salt und David Bordwell bearbeitet wurden.49 Mögliche Fragen in dieser Hinsicht beziehen sich sowohl auf 47 48

49

Siehe http://www.cinemetrics.lv/database.php [Datum: 29.8.2010]. Yuri Tsivian: „Cinemetrics, Part of the Humanities’ Cyberinfrastructure“. In: Ross, Grauer, Freisleben (Eds.): Digital Tools in Media Studies (wie Anm. 35), S. 93-100; hier: S. 99. Vgl. Barry Salt: Film Style and Technology. History and Analysis. 3rd and Biggest Edition. London 2009. – David Bordwell: Visual Style in Cinema. Vier Kapitel Filmge-

290

HEINZ HIEBLER

allgemeine Tendenzen des Films hin zu immer rasanteren Schnittfolgen als auch auf spezielle Stile des Filmemachens, die diesem Trend zuwiderlaufen. Von Barry Salt findet man unter den Cinemetrix-Webseiten nicht nur eine eigene Database,50 er und Bordwell sind auch auf einer von Tsivian eingerichteten Webseite mit Articles and Cinemetrics Studies neben Autoren wie Warren Buckland, Charles O’Brien oder James Cutting und Matt Hauske vertreten.51

DVDs zu Grundlagen der Filmanalyse Filmanalysen auf CD-ROM, DVD oder im Internet stellen – auch in Hinblick auf das nach wie vor erweiterbare Beschreibungsvokabular der Filmanalyse – eine relativ neue Herausforderung für die gegenwärtige Generation von Medienwissenschaftlern dar. Die einheitliche Codierung von Schrift, Bild und Sound auf der 0/1-Ebene der Maschinensprache des Computers macht alle bisherigen Erscheinungsformen skripturaler, typografischer und audiovisueller Medien zu einem Oberflächeneffekt, dessen Interpretation alle bisher entwickelten semiotischen Analysemodelle aufruft. Mehr noch: Der PC bietet darüber hinaus die Möglichkeit, diese Analysemodelle zu perfektionieren, da er Sounds und Bilder in einem bislang unerreichten Ausmaß in einem Gerät bündelt und damit optimal ‚lesbar‘ macht. Der digitalisierte Film auf DVD unterscheidet sich in Hinblick auf seine Verfügbarkeit nicht mehr von einem gedruckten Text und lässt sich bis ins Detail zerlegen und analysieren. Die Grenzen der Umsetzung eines Mediums in ein anderes (in diesem Fall des Films in Sprache) werden durch die Möglichkeiten des simultanen Nebeneinanders zwar relativiert, aber freilich nicht aufgelöst. Diese unmittelbare Verbindung von Theorie und Anschauungsmaterial ermöglicht jedoch auch im medienwissenschaftlichen Bereich eine neue Form der Auseinandersetzung, die die zur Diskussion stehenden audiovisuellen Medien nicht nur als Illustration, sondern als wesentlichen Teil der Interpretation begreift. Wie sich dieses Potential durch die Konzeption multimedialer und interaktiver Lehr- und Lernsoftware auf CDROM, DVD oder im Internet nutzen lässt, deuten die ersten Beispiele aus

50 51

schichte. 3. Aufl. Frankfurt a. M. 2006. – Kristin Thompson, David Bordwell: Film History. An Introduction. 2nd Edition. Boston u. a. 2003. Siehe http://www.cinemetrics.lv/satltdb.php [Datum: 29.8.2010]. Siehe http://www.cinemetrics.lv/articles.php [Datum: 29.8.2010].

DIGITAL TOOLS

291

verschiedenen Bereichen der Wissenschaft bereits an.52 Besonderen Erfolg versprechen sich die Entwickler in jenen Wissensgebieten, mit deren Erfassung die Schriftgelehrten (und ihr Basiswerkzeug die Schrift) bislang ihre liebe Not hatten. Gerade in jenen Erkenntnisbereichen, wo es nicht um begriffliche oder mathematische Inhalte, sondern – wie häufig in den Medienwissenschaften – um implizite Formen des Wissens wie ‚Wissen als Handlung‘53 oder ‚Wissen als Kenntnis‘54 geht, können multimediale und interaktive digitale Medien der Wissensvermittlung neue Horizonte und Betätigungsfelder eröffnen. Ein Tool, das Aspekte der audiovisuellen Gestaltung für eine spielerische Annäherung am Computer aufbereitet, haben Günther Hörmann von der Hochschule für Gestaltung Schwäbisch Gmünd und Roland Barth, Filmautor, Multimediaentwickler und Grafik-Designer in Ulm, mit ihrer Media Toolbox (2002) vorgelegt. Die multimediale interaktive DVD-ROM gibt dem Nutzer die Möglichkeit, zentrale Grundlagen der Gestaltung audiovisueller Medien in einfachen Simulationen selbst zu erproben. Das Grundprinzip der DVD-ROM basiert zu einem großen Teil auf der Integration bzw. Übersetzung von prinzipiellen audiovisuellen Gestaltungsmechanismen in einfache PC-Anwendungen.55 Themenbereiche der DVD sind Bildgestaltung, Tongestaltung, Montage, Montageformen, Dramaturgie, Filmanalyse und Mediengeschichte. Die tatsächlich angebotenen Tools erinnern – ähnlich wie die bereits vorgestellten computerbasierten Filmanalyseprogramme – an ‚abgespeckte‘ Versionen von Schnittprogrammen. Auf der Grundlage vorhandener Abbildungen können Bildausschnitte in verschiedenen Bildformaten (4:3, 16:9 oder 1:2,35) ausgewählt werden, die in einem Vorschaufenster vergrößert zur Darstellung gebracht werden und damit die Grundprinzipien der Bildauswahl und Kadrierung vor Augen führen sollen. In einem anderen Tool zur Bildgestaltung lassen sich ebenfalls anhand vorgegebener Beispielbilder mit Hilfe eines halbkugelförmigen 3D-Rasters Standbilder aus unterschiedlichen Perspektiven abrufen. Im Kontext der Tongestal52

53 54 55

Vgl. Torsten Stapelkamp: DVD-Produktionen gestalten, erstellen, nutzen. Video interaktiv: DVD, Blue ray Disc, HD-DVD. Audio-/Videotechnik: DVD-Formate, TV, Podcast. Berlin 2007. In diesem Zusammenhang sei noch einmal auf den engen Zusammenhang zwischen Begriffen der Filmproduktion und Begriffen der Filmanalyse verwiesen. Typische Betätigungsfelder eines ‚Wissens als Kenntnis‘ sind im Kontext der AVMedien das Erkennen von Gesichtern oder Stimmen bekannter SchauspielerInnen. Vgl. Begleittext zu: Günther Hörmann, Roland Barth: Media Toolbox. Grundlagen der Gestaltung audiovisueller Medien. Eine interaktive DVD-ROM. Konstanz 2002, S. 4.

292

HEINZ HIEBLER

Abb. 4-5: Hörmann / Barth: Media Toolbox (2002) Abb. 4: Bildgestaltung / Raumausschnitt + Abb. 5: Bildgestaltung / Perspektive

tung werden neben Grundprinzipien wie Selektion, Perspektive und Zeitaspekten einfache Modelle der Manipulation von Tönen visualisiert und hörbar gemacht. Im Kapitel ‚Montageformen‘ kann man unter anderem die Prinzipien der Assoziationsmontage kennenlernen, indem man anhand mehrerer kurzer Filmsequenzen die vorgegebenen Filmeinstellungen je nach Lust und Laune auf einer Timeline arrangiert. So amüsant und aufwändig die einzelnen Tools, von denen die DVD noch unzählige weitere enthält, auch sein mögen, in Hinblick auf ihren eigentlichen Geltungsbereich, die wirkliche Praxis des Filmemachens und Filmegestaltens, bleibt diese Form der ‚Praxis‘ immer eine PC-gestützte Schwundstufe. Inwiefern es sich bei den angebotenen Tools wirklich um „kognitive Werkzeuge“56 handelt, bleibt offen. Die Filmanalysen zu Klassikern wie Panzerkreuzer Potemkin (UdSSR 1925), Der Mann mit der Kamera (UdSSR 1929), Citizen Kane (USA 1941), Primary (USA 1960), Short Cuts (USA 1993) oder Lola rennt (D 1998) enthalten zwar grafische Darstellungen zur Erzählstruktur oder zu Schnittfrequenzen, wie man sie schon aus dem Umfeld der computergestützten Filmanalyse kennt, die Analysen und Kommentare fallen aber relativ knapp und oberflächlich aus. Ganz zu vernachlässigen sind die auf einer Timeline aufgereihten Kurzeinträge zur Mediengeschichte, bei denen unter den Aspekten Medientechnik, Medienökonomie, Medienprodukte und Medientheorie ausgewählt werden kann. Gar keinen Aufschluss gibt die DVD in Hinblick auf die spezielle Terminologie konkreter Schnitt- und Montageformen, die die Stärke nachfolgender Projekte wie der Filme-sehen-lernenDVDs von Rüdiger Steinmetz sind. Der Leipziger Medienwissenschaftler Rüdiger Steinmetz präsentiert auf seinen Video-DVDs Filme sehen lernen 1, 2 +3(2005, 2008 und 2011) 56

Ebda.

DIGITAL TOOLS

293

anschauliche Einführungskurse in die Welt der Filmsemiotik und gibt mit unzähligen kurzen Filmbeispielen gleichzeitig einen kursorischen Überblick über Meilensteine der Filmgeschichte.57 Die Gestaltungsprinzipien des Films werden auf ansprechende, amüsante Weise als diskursiv begleitete Video-Clips umgesetzt, deren Gestaltung sich an aktuellen DVDund PC-Oberflächen orientiert, wie man sie aktuell auch auf CD-ROMs und DVD-ROMs zur Wissensgestaltung findet.58 Die ursprünglich für den filmwissenschaftlichen Bereich entwickelte DVD, die 2005 den Sprung vom Prototyp zur Veröffentlichung geschafft hat, ist als wissenschaftliches Hilfsmittel zum Selbststudium filmischer Grundbegriffe konzipiert, richtet sich aber ihrer kommerziellen Zweitverwertung gemäß ganz allgemein an einen größeren Kreis von Filmliebhabern. Mit dem zentralen Konzept des Vorführens und gleichzeitigen Kommentierens, das auf dem ebenso einfachen wie universellen Prinzip der Video-DVD basiert, geht Steinmetz sowohl technisch als auch inhaltlich und formal den Weg des geringsten Widerstandes. Da die DVDs von Steinmetz im Gegensatz zur Media Toolbox von Hörmann und Barth generell keine komplexeren Computerfunktionen bedienen und deshalb auch nicht installiert werden müssen, lassen sie sich nicht nur am PC, sondern auf jedem handelsüblichen DVD-Player wiedergeben. Die Menüfunktionen sind einfach und übersichtlich gehalten. Die Inhalte lassen sich zwar einzeln ansteuern, sie sind jedoch nicht durch Hypertextstrukturen verlinkt und dementsprechend linear strukturiert. Das Gestaltungsprinzip ist das der ‚Guided Tour‘: Der Nutzer wird in Bild und Ton durch die aufeinander aufbauenden, aber auch unabhängig voneinander rezipierbaren Hauptmodule ‚Exposition‘, ‚Basics‘ sowie ‚Schnitt / Montage‘ geführt. In der ‚Exposition‘ werden am Beispiel der Ankunft eines Zuges in La Ciotat , einem der ersten Film-Klassiker der Brüder Lumière, die Gestaltungsprinzipien des Films, hier die exakte Kalkulation einer einzigen Einstellung, vorgeführt. Die filmische Erfassung der ‚Realität‘ wird dadurch als medienästhetisches Konstrukt sichtbar gemacht. In den ‚Basics‘ werden die Einstellungsgrößen und Aspekte der ‚Kamera als Erzähler‘, wie Erzählhaltungen, statische und bewegte Kamera sowie Zoom, Transfocator oder Perspektiven abgehandelt. Unter ‚Schnitt / Montage‘ werden neben einzelnen konkreten Schnitt- und Montageformen 57

58

Vgl. Rüdiger Steinmetz: Filme sehen lernen. Grundlagen der Filmästhetik. Mit Originalsequenzen von Lumière bis Kubrick und Tykwer. Frankfurt a. M. 2005. (= Buch mit DVD-Video.) Vgl. Stapelkamp: DVD-Produktionen gestalten, erstellen, nutzen (wie Anm. 52), S. 448f.

294

HEINZ HIEBLER

auch allgemeine Gestaltungsprinzipien wie Assoziations- und Kontrastmontage, Cross Cutting, Parallelmontage, Plansequenz, Mise en Scène oder der Achsensprung erläutert und vorgeführt. Wie in einem imaginären Museum, das den prinzipiellen Gestaltungsformen der Filmästhetik gewidmet ist, werden die wesentlichsten Grundbegriffe zur Beschreibung von Filmen zur Sprache gebracht und anhand repräsentativer Beispiele aus der Filmgeschichte zugleich veranschaulicht. Im Stil einer aufgezeichneten Power-Point-Präsentation werden Filmzitate, Filmstills und Grafiken durch einen Sprecher kommentiert und gleichzeitig durch die Einblendung von kurzen zusammenfassenden Texten begleitet. Wer einen speziellen Begriff oder eine bestimmte Form der Montage bzw. des Schnitts sucht, gelangt über eine Sitemap zum Ziel. Wer die DVD nur wegen ihres umfangreichen fast 90minütigen Archivmaterials nutzen will, kann über das ‚Archiv‘ die einzelnen Filmausschnitte auch ganz ohne Voice-OverKommentar vorführen oder betrachten. Wer sich unabhängig von der DVD über deren Inhalt oder einzelne Aspekte und Begriffe in Schriftform informieren will, kann das begleitende dünne Buch nutzen. Die Steinmetz-DVDs verfolgen vor allem ein pädagogisches Ziel: Interessierte Filmlaien sollen möglichst barrierefrei und bequem in die Wunderwelt des Filmbetrachtens und Filmemachens eingeführt werden. Der Aufbau und die Kommentare der DVDs entsprechen dieser didaktischen Intention, indem sie den Nutzer Schritt für Schritt durch den Parcours filmästhetischer Inhalte geleiten. Die konkrete Kombination von Sagen und Zeigen durch einen Sprecher und die dazugehörigen Filmausschnitte machen die DVD prinzipiell sogar Analphabeten zugänglich. Der offensichtliche Erfolg der Unternehmung von Steinmetz59 hat einige Nachahmer mit ähnlichen Zielsetzungen auf den Plan gerufen. Hybrid-Publikationen als ‚Kombi-Pack‘ aus Buch und DVD haben sich vor allem im Kontext der schulischen Bildung etabliert. Die von Werner Barg, Studienleiter an der Deutschen Film- und Fernsehakademie (dffb), und Horst Schäfer gestaltete Begleit-DVD zu dem 2006 erschienenen Band Jugend:Film:Kultur folgt dem von Steinmetz erfolgreich verwendeten Prinzip der ‚Guided Tour‘. Im Abschnitt Filmsprache geht es dabei um Gestaltungsmittel wie Bild, Montage, Ton und Effekte, im Abschnitt Analyse-Instrumente „werden die wichtigsten Hilfsmittel zur praktischen

59

Die DVD wurde mit dem „1. Preis des Multimedia Transfer 2003 für ‚optimale Nutzung des Mediums‘“ sowie mit dem „Medieninnovationspreis 2006 des Kulturstaatsministers“ Bernd Neumann ausgezeichnet und kam beim Medida Prix 2003 ins Finale. Vgl. Klappentexte zu Steinmetz: Filme sehen lernen (wie Anm. 57).

DIGITAL TOOLS

295

Abb. 6-7: Steinmetz Filme sehen lernen 1 (2005) Abb. 6: Basics / Einstellungsgröße + Abb. 7: Basics / Amerikanische

Filmanalyse erläutert: Filmprotokoll, Segmentierung, Schnittfrequenz“.60 Bei Alice Bienk ist die Film-DVD auf ein reichhaltiges Angebot an begleitenden Filmausschnitten zu den Kapiteln des Buches Filmsprache (2008) reduziert. Die im Untertitel des Buches anvisierte „interaktive Filmanalyse“ basiert im Wesentlichen auf der Idee des Stationenlernens und der fortgesetzten Interaktion des Lesers bzw. Betrachters mit Buch und DVD. Im Buch vorgegebene Aufgabenstellungen können mit Hilfe der BegleitDVD und der darauf befindlichen Filmausschnitte gelöst und in Hinblick auf ihre Richtigkeit mit einer Musterlösung im Buch verglichen werden.61 Eine Interaktivität, wie sie für gewöhnlich mit den PC-basierten sozialen Aktivitäten einer netzgebundenen Interaktivität assoziiert wird, ist bei Bienk nicht vorgesehen. Auf den 2008 erschienenen Nachfolge-DVDs Filme sehen lernen 2 widmet sich Steinmetz auf zwei DVDs den Gestaltungsaspekten von Licht und Farbe bzw. Sound. Dabei bleibt er im Wesentlichen seinem einfachen, aber effizienten Erfolgsrezept treu. Neu sind auf den ersten Blick vor allem der ganz in Schwarz gehaltene Hintergrund, den Steinmetz allerdings bereits beim limitierten und nur für den Wissenschaftsbetrieb gedachten Prototyp seiner ersten Filme-sehen-lernen-DVD verwendet hatte, und die größeren Sichtfenster für Filme und Grafiken. Beide Maßnahmen sollen wohl den allgemeinen Gesetzmäßigkeiten des Webdesigns folgen, wonach Schriften und Bilder vor dunklem Hintergrund immer größer erscheinen als vor hellem, und dadurch die Bildschirmfreundlichkeit 60

61

Vgl. den „Kurzkommentar zur DVD: Filmsprache und Filmanalyse“. In: Werner Barg, Horst Niesyto, Jan Schmolling (Hrsg.): Jugend:Film:Kultur. Grundlagen und Praxishilfen für die Filmbildung. München 2006. (= Buch + Film-DVD.) S. 272. Vgl. Alice Bienk: Filmsprache. Einführung in die interaktive Filmanalyse. 2. Aufl. Marburg 2008. (= Buch + Film-DVD.) S. 22.

296

HEINZ HIEBLER

Abb. 8-9: Steinmetz Filme sehen lernen 2 – Licht/Farbe und Sound Abb. 8: Exposition / Licht/Farbe / Einführung + Abb. 9: Exposition / Licht/Farbe / Lichtgestaltung / Licht/Farbe

sowie die prinzipielle Lesbarkeit der Texte erhöhen. Inhaltliche Neuerungen betreffen die stärkere explizite Hinwendung zur Filmgeschichte, die in den Kapiteln zur Farbe im SW-Film und zum (frühen) Farbfilm (auf DVD 2/1) sowie zum Stummfilm und frühen Tonfilm (auf DVD 2/2) deutlich wird. Steinmetz widmet sich diesmal nicht nur allgemeinen Gestaltungsprinzipien von Farbe, Licht und (Film-)Sound, er setzt sich auch mit kulturwissenschaftlichen Aspekten wie der kulturellen Bedeutung der Farben oder Fragen der akustischen Atmosphäre auseinander. Mit der Hinwendung zum Sound greift er – ähnlich wie zuvor Hörmann und Barth – ein in der Film- und Medienwissenschaft oft vernachlässigtes Thema auf. Auffallend an dem zweiten Teil seiner DVD-Reihe sind eine größere Anzahl aufwändiger Computer-Animationen, mit deren Hilfe die physiologischen Grundlagen von Wahrnehmungsprozessen wie Sehen, Farbsehen oder Hören demonstriert werden.62 Im anglo-amerikanischen Raum haben Marie Gillespie und Jason Toynbee, beide von der Open University, Milton Keynes, UK, mit ihrer Einführung Analysing Media Texts (2006) eine vergleichbare Hybridpublikation, bestehend aus Buch und DVD-ROM, herausgegeben. Gillespie und Toynbee führen hier in fünf Kapiteln in Themenbereiche wie Semio62

Vgl. Rüdiger Steinmetz: Filme sehen lernen 2. Licht, Farbe, Sound. Mit Originalsequenzen von Bresson bis Fassbinder und Spielberg. Frankfurt a. M. 2008. (= Buch + 2 DVDs Video.) In der kürzlich erschienenen 3. Ausgabe seiner Reihe beschäftigt sich Steinmetz gemeinsam mit seinen DVD-Entwicklern noch einmal intensiver mit dem Thema Filmmusik. Vgl. Rüdiger Steinmetz: Filme sehen lernen 3. Filmusik, Mit Originalsequenzen von Eisenstein bis Hitchcock und Wenders. Frankfurt a. M. 2011. (=Buch + 2 DVDs Video.)

DIGITAL TOOLS

297

Abb. 10-11: Gillespie / Toynbee: AMT – Chapter Activities: Semiotics Abb. 10: Arbitrary and Motivated Signs mit linearer Anordnung und Feedback Abb. 11: Unlimited semiosis mit Multiple-Choice-Test

tik, Genreproblematik, Narratologie, Diskurs- und Inhaltsanalyse sowie in das Problemfeld von ‚Medien und Realität‘ ein. Anders als bei Steinmetz steht bei Gillespie und Toynbee die traditionelle schriftliche Aufarbeitung der Themen im Vordergrund. Die DVD-ROM ist als ‚intelligente‘, multimediale Erweiterung und Ergänzung zum Buch gedacht. Buch und DVD können sich so ganz auf ihre jeweiligen Stärken konzentrieren, ohne einander aus dem Blick zu verlieren. Während das Buch einen stärkeren Fokus auf der diskursiven Profilierung der Themen hat, liefert die DVD mit ihrem multimedialen und (wenn auch nur eingeschränkt) interaktiven Gestaltungsmöglichkeiten das dazugehörige Anschauungsmaterial, eine Reihe von begleitenden Tests (mit Feedback) und ein amüsantes Praxistool für den spielerischen Zugang zum Thema audiovisueller Mediengestaltung. Beide Medien gemeinsam umkreisen auf diese Weise im Stil einander ergänzender Studienmaterialien ein Themenfeld, wie man es im Kontext einer Fern-Universität besser nur noch über das Internet abdecken könnte. Unter der Rubrik „Chapter Activities“ sind multimedial aufbereitete Einführungen mit interaktiven Tests zu den Themen des Buches zu finden, in denen LeserInnen bzw. NutzerInnen ihr Wissen spielerisch überprüfen können und nach bewältigtem Test sogar ein kurzes, wenn auch einmalig aufgezeichnetes Feedback erhalten. Neben konventionellen Multiple-Choice-Tests kommen dabei auch einige ungewohnte Formen der Beantwortung zum Zug, bei denen es unter anderem darum geht, Abbildungen von Gegenständen je nach ihrem arbiträren oder motivierten Gehalt auf einer Leiste anzuordnen oder einzelne Begriffsmarken mit Hilfe der Maus an Abbildungen festzumachen. Das Feedback erfolgt in dem zuerst genannten Fall nicht nur mittels Audiokommentar, sondern auch

298

HEINZ HIEBLER

Abb. 12-13: Gillespie / Toynbee: AMT – Sequence Builder Abb. 12: Images / Bill + Abb. 13: Sounds / Effects

optisch durch die Einblendung eines Lösungsvorschlags, den man mit der eigenen getroffenen Auswahl abgleichen kann. Eine wirkliche Interaktion zwischen den GestalterInnen der DVD und den NutzerInnen kommt auf diese Weise zwar nicht zustande, als NutzerIn kann man sich aber immer wieder vom Erfindungsreichtum und der Spiellaune der Entwickler überraschen und anstecken lassen. Highlight der DVD-ROM ist der so genannte „Sequence Builder“, eine Anwendung, mit der aus einer größeren Anzahl von Fotografien bzw. Filmstills, Sprechtexten, Musiken und Geräuschen eigene kleine Fotosequenzen im Stil einer multimedialen Diashow bzw. eines animierten Storyboards zusammengestellt werden können. Neben Bildern der Protagonisten Bill und Jenny in verschiedenen Umgebungen und Konstellationen können gesprochene Sätze mit komischen oder spannenden Inhalten sowie unterschiedlich gestimmte Musiken oder Sound-Effekte auf einer Timeline zu einer kleinen Szene zusammengefügt und über den Internetbrowser wiedergegeben werden. Das erworbene Wissen über Filmanalyse lässt sich auf diese Weise eigenständig an der Praxis erproben.63 Störend wird von vielen NutzerInnen nur empfunden, dass sie den ‚Sequence Builder‘ nicht für ihre eigenen fotografischen bzw. filmischen Ideen nutzen können, weil es keine Möglichkeit gibt, eigene Fotos in die Anwendung zu integrieren.

63

Vgl. Marie Gillespie, Jason Toynbee (Eds.): Analysing Media Texts. Maidenhead 2006. (Buch + DVD-ROM.)

DIGITAL TOOLS

299

Plattformbasierte Filmanalyse (am Beispiel ELOISE) Einen weitaus größeren inhaltlichen Gestaltungsspielraum als ihn begrenzte Speichermedien wie CD-ROM oder DVD-ROM bieten können, eröffnet das Internet mit seinem nahezu unbegrenzten Speicherplatz und seinen vernetzten Formen tatsächlicher Interaktion. Einen besonders hohen Stellenwert nimmt Interaktivität im Projekt ELOISE (für: E-Learning: Online Innovative Student Education) ein, das Rainer M. Köppl in Kooperation mit Martin Schwehla am Institut für Theater-, Film- und Medienwissenschaft der Universität Wien entwickelt hat. Die ELOISEPlattform verbindet die Organisation von Lehrveranstaltungen mit der Organisation eines Forschungsanliegens, bei dem audiovisuelle Quellen eine zentrale Rolle spielen. Wie bei anderen Lehrveranstaltungsplattformen auch können Studierende über ELOISE ihre Lehrveranstaltungen verwalten, Termine organisieren und mit anderen Studierenden über EMail und Live-Chat kommunizieren. „Das Herzstück der ELOISE-Plattform ist das CMT (Comparative Media Tool). Es ermöglicht nicht nur das gleichzeitige Abspielen von zwei audiovisuellen Dateien, sondern auch die Kombination mit einem Texteditor. Auf diese Weise können Untertitel und Annotationen hergestellt werden, die mit der jeweiligen Medienquelle mitlaufen.“64 Obwohl das Tool ursprünglich für den Versionsvergleich von Filmen entwickelt wurde, sind seine Anwendungsmöglichkeiten nicht auf den Bereich der Film- oder Medienwissenschaft beschränkt. Durch die Kombinationsmöglichkeit mit Texten eignet es sich in diesem genuinen Bereich ähnlich wie die Film-DVDs von Steinmetz für Grundlageninformationen zur semiotischen Film- und Fernsehanalyse. Anders als bei Steinmetz können hier jedoch die Studierenden selbst aktiv werden und – der Philosophie des Web 2.0 gemäß – eigene Inhalte („user generated content“) wie etwa Filmbeispiele über das Internet hochladen. Das Tool ist so auch für Präsentationen in Referaten oder für die Erstellung von Hausarbeiten nutzbar, die direkt mit dem zu analysierenden audiovisuellen Material versehen werden können. Auf der Basis eines integrierten Rechtemanagements kann der jeweilige Urheber eines Projekts individuelle Nutzungsrechte für die Lehrenden und Mitstudierenden vergeben. So

64

Vgl. den Flyer des Projektteams zur Präsentation des Projekts im Rahmen der Tagung Studieren neu erfinden – Hochschule neu denken der Gesellschaft für Medien in der Wissenschaft und der Campus Innovation Hamburg, Hamburg vom 12.-14. September 2007.

300

HEINZ HIEBLER

ist jeder Studierende in der Lage, ungestört an seinen Projekten zu arbeiten. Er kann die Arbeit vom Leiter der Lehrveranstaltung oder von seinen Kommilitonen prüfen bzw. korrigieren lassen und sie nach ihrer Fertigstellung für alle TeilnehmerInnen des Seminars oder Forschungsvereins zugänglich machen.65 Dank hoher Komprimierungsraten sind die multimedialen Inhalte des Tools außerdem weltweit auch über langsamere Internetverbindungen in Echtzeit abrufbar. Die Oberfläche (Desktop) des Apple-basierten Comparative Media Tool (CMT) lässt sich je nach Aufgabenstellung in drei bis vier Fenster unterteilen. Die beiden oberen Fenster sind dem Namen des Tools und seiner ursprünglichen Intention gemäß für die vergleichende Wiedergabe von Filmausschnitten vorgesehen. Die Filmwiedergabe ist auf die Tausendstelsekunde genau. Die Zeitangabe erfolgt sowohl durch eine Timeline als auch durch eine digitale Anzeige. Für den Vergleich von Originalfassung und Remake eines Filmes können die hochgeladenen Filmausschnitte mit Hilfe des sync-Buttons gleichzeitig abgespielt werden. In der aktuellen Version des Tools können die Filmfenster durch Ziehen mit der Maus individuell vergrößert werden, sodass auch visuelle Details des Filmbilds analysiert werden können. Das untere Fenster ist für den schriftbasierten Kommentar vorgesehen. Hier finden die jeweiligen Beschreibungen der Filmausschnitte bzw. die Ergebnisse des Filmvergleichs ihren Platz. Für eingehendere Analysen – etwa zur Erstellung von Einstellungsprotokollen für jeden der beiden oben gezeigten Filmausschnitte – kann das untere Fenster auch weiter geteilt werden. Werkzeugen wie dem Comparative Media Tool (CMT) kommt in Hinblick auf die Präzision der Filmbeschreibung nicht der Status eines ursächlichen Bewegers, wohl aber der eines Katalysators zu. Die digitalen Möglichkeiten der Filmbetrachtung und -analyse nehmen dem Nutzer nicht die Mühen der eigenen Wahrnehmung und des selbstständigen Nachdenkens ab, sie stellen als Werkzeuge aber eine ganz wesentliche Erleichterung dar, die es mittlerweile jedermann (und nicht nur besonders gut und teuer ausgestatteten Filmwissenschaftlern) ermöglicht, Filme in all ihren Details zu untersuchen. Besonders deutlich wird das heute beim Vergleich unterschiedlicher Synchronfassungen, wo das ELOISE-Tool auch von den mittlerweile auf jeder vernünftigen DVD-Edition enthaltenen unterschiedlichen Sprachversionen eines Films profitiert. Durch die variable Einteilung des CMT-Bildschirms in einzelne Fenster und die flexible Zuordnung un-

65

Vgl. die Homepage des Projekts mit Einführungspodcasts und Handbüchern unter: http://www.eloise.at/ [Datum: 26.02.2008].

DIGITAL TOOLS

301

Abb. 14: ELOISE – Medienwechsel (Vergleich zwischen Film, Filmscript und Buchtext) Paul Verhoevens Starship Troopers (USA 1997) – Drehbuch: Edward Neumeier – Buch: Robert A. Heinlein

terschiedlicher Funktionalitäten lassen sich neben Filmvergleichen und Synchronfassungen aber auch medienwissenschaftliche Grundlagenthemen wie der Medienwechsel exemplarisch und übersichtlich abhandeln. So können alle für die Analyse notwendigen Materialien (ein Ausschnitt aus dem Film sowie die dazugehörigen Auszüge aus Drehbuch und Romanvorlage) bequem auf einer gemeinsamen Oberfläche verteilt werden. In einem vierten Fenster (in diesem Fall rechts unten) bleibt Raum für die Formulierung einer Aufgabenstellung und die schriftliche Analyse der Szene. Mit dem seit Herbst 2007 für alle InteressentInnen an der Universität Wien, aber auch außerhalb zugänglichen ELOISE-Nachfolgeprojekt MOVE! hat das Projekt eine nach wie vor interaktive, aber stärkere inhaltliche Profilierung erhalten. Im Mittelpunkt des Contentprojekts MOVE! steht vor allem die Ausweitung und Verfeinerung der Kursmaterialien. In den mit einem reichhaltigen Angebot an Inhalten und Filmausschnitten versehenen Kursen von Rainer M. Köppl zum Beispiel findet man mittlerweile ähnliche Themenbereiche abgedeckt wie auf den Filme-sehen-lernenDVDs von Rüdiger Steinmetz. Neben umfangreichen Begriffsklärungen und Materialsammlungen zu filmästhetischen Gestaltungsmitteln wie Montage und Schnitt werden in einem Grundkurs zur Wahrnehmung auch aufwändig animierte Beispiele zu den wahrnehmungspsychologischen Grundprinzipien der visuellen Wahrnehmung präsentiert. In der ak-

302

HEINZ HIEBLER

tuellsten Version des Tools kann mit Hilfe eines so genannten „Mediagraphen“ sogar eine grafische Filmanalyse durchgeführt werden, die sich gemeinsam mit den Texten und CMT-Sets auch zum Drucken exportieren lässt. Abgesehen von der inhaltlichen Ausgestaltung und der zunehmenden Multifunktionalität wird – anders als beim DVD-Konzept der ‚Guided Tour‘ von Steinmetz – jedoch immer Wert auf eine größtmögliche Interaktion aller an dem Projekt beteiligten und mit dem Tool arbeitenden NutzerInnen gelegt. Das dazugehörige didaktische Konzept setzt auf den permanenten Austausch zwischen Projektforschungen und Lehrveranstaltungen, Lehrenden und Studierenden.66 In der Lehrveranstaltungsarchitektur wird der Einsatz von ELOISE und seinen Inhalten als zentraler, aber nicht alleiniger Bestandteil einer Blended-Learning-Umgebung mit Präsenzveranstaltungen und Raum für Selbststudium von Lektüren skizziert. Wie das Beispiel ELOISE – MOVE! zeigt, bedarf es für die effektive Nutzung digitaler Tools nicht nur einer multifunktionalen technischen Basis, sondern vor allem auch attraktiver Konzepte, die den Einsatz der vorhandenen Werkzeuge und den damit immer verbundenen Aufwand auch für alle Beteiligten sinnvoll erscheinen lassen. Damit derartige Modelle nicht zum bloßen Ablenkungsmanöver in Hinblick auf überfüllte Hörsäle und Seminare werden, wie dies am Wiener Institut für TheaterFilm- und Medienwissenschaft aufgrund fehlender Zugangsbeschränkungen leicht der Fall sein kann, müssen neben dem Engagement der ‚MacherInnen‘, ‚BetreiberInnen‘ und ‚NutzerInnen‘ auch die notwendigen finanziellen Rahmenbedingungen stimmen. Es wäre dennoch vermessen zu behaupten, dass Wissensvermittlungsprozesse auf der Basis intelligenter Werkzeuge und guter institutioneller Voraussetzungen ‚einfach so‘ funktionieren würden. Onlineplattformen wie ELOISE eröffnen einen virtuellen Möglichkeitsraum, in dem der unabschließbare Dialog von Sagen und Zeigen durch den Einsatz einer multimedialen und interaktiven Technologie zur Debatte gestellt wird. Wie alle aktuellen Projekte und Praktiken, die in kommerziellen, musealen oder wissenschaftlichen Kontexten digitale Technologien zur Wissensvermittlung einsetzen,67 operiert ELOISE damit im Dreieck von Technik, Semantik und Effektivität, so wie es Warren Weaver als inhaltliche und pragmatische Ausbuchstabierung der mathematisch-technischen Kom-

66 67

Vgl. Team ELOISE: ELOISE – Didaktikkonzept. PDF-Datei. [Datum: 30.9.2010.] Vgl. Gerhard Rihl: Science / Culture: Multimedia. Kreativstrategien der multimedialen Wissensvermittlung. Wien 2007.

DIGITAL TOOLS

303

Abb. 15: ELOISE – Grundkurs Wahrnehmung: Was sehen wir?

munikationstheorie von Claude E. Shannon bereits Ende der 1940er Jahre profiliert hat.68 Im Kontext einer erfolgreichen Wissensvermittlung mit Hilfe digitaler Medien lassen sich die damit verknüpften Fragestellungen wie folgt konkretisieren. Auf der Ebene der Technik geht es um die Funktions- und Gestaltungsmöglichkeiten digitaler Medien. Dieses multimediale und interaktive Potential präfiguriert den medienspezifischen Spielraum für eine möglichst problemadäquate und nutzerfreundliche mediale Inszenierung der Inhalte. Der Inhalt und seine medienspezifische und nutzerfreundliche Gestaltung bilden die Grundlage für die effiziente Vermittlung von Wissensinhalten und deren notwendige Weiterverarbeitung durch den Nutzer, der durch sein Feedback seinerseits wiederum aufgefordert ist, sowohl an der Optimierung der technischen Prozesse als auch an der Gestaltung der Inhalte mitzuarbeiten. Vor dem Hintergrund des ständigen Durchlaufens der semiotischen Verknüpfungsroutinen von Technik, Semantik und Effektivität bzw. der Abstimmung von Geräten, Inhalten und Nutzerinteressen gerät die Optimierung digitaler Informationsprozesse zu einem unabschließbaren Prozess des stimmungsadäquaten wechselseitigen ‚Tunens‘ aller beteiligten Parameter. Die Einstimmung in den Text, 68

Warren Weaver: „Ein aktueller Beitrag zur mathematischen Theorie der Kommunikation“. In: Claude E. Shannon, Warren Weaver: Mathematische Grundlagen der Informationstheorie. München, Wien 1976, S. 11-39; hier: S. 12.

304

HEINZ HIEBLER

Abb. 16: Kreislauf von Technik, Semantik und Effektivität

wie sie in Kants Kritik der Urteilskraft am Beispiel ästhetischer Urteile thematisiert wird,69 erfolgt bei Wissensprojekten mit netzgebundener Interaktivität, nicht mehr einzig und allein durch einen allwissenden Autor, der alle möglichen Lesarten und Rezeptionsbedingungen seines Textes vorherzusehen vermag, sondern idealiter durch die ständige intersubjektive Überprüfung des Regelkreises von technischem Potential, inhaltlicher und formalästhetischer Gestaltung sowie individueller Nützlichkeit bzw. Effektivität. Jeder Nutzer wird durch die unterschiedlichen Formen des Feedbacks oder der Mitgestaltung zumindest prinzipiell auch zum Produzenten. Wirklich erfolgreich und effizient können derartige selbstregulierende Wissensprozesse (wie etwa das Beispiel Wikipedia zeigt) nur dort sein, wo die individuelle Anstrengung und die motivierte Mitarbeit des Einzelnen unermüdlich in Aktion bleibt.

Fazit und Herausforderungen Jede Filmbetrachtung – ob im Kino, am Fernsehgerät, am PC oder am Schneidetisch – braucht ein ‚Werkzeug‘, das die Wahrnehmung des Films durch seine jeweilige Präsentationsform entscheidend prägt und schon vor jeder anschließenden Interpretation auf einer sinnlichen Ebene unterschiedliche Prätexte ein und desselben Films erzeugt. Die demonstrierten Filmanalysetools versetzen Filmwissenschaftler mittlerweile in die Lage, einen Film mit einer bislang nie dagewesenen Präzision zu betrachten und in alle erdenklichen Einzelteile zu zerlegen oder gar zerlegen zu lassen. Der Film wird dabei in eine Laborsituation zurückgeführt, die auf den Ursprung seiner eigentlichen Entstehung, den Schneidetisch, rekurriert. 69

Vgl. Kant: Kritik der Urteilskraft (wie Anm. 32), S. 134.

DIGITAL TOOLS

305

Durch die Verknüpfung von Film- und Schriftfenstern (mit der zusätzlichen Option des akustischen Kommentars) bewerkstelligen derartige Analysewerkzeuge eine apparative Engführung der Praktiken des Sagens und Zeigens. Die medienwissenschaftliche Strategie dieses Zusammenführungsprozesses besteht dabei in der Regel darin, den Film (als analoges audio-visuelles Gesamtkunstwerk) reflexiv einzuholen, indem man ihn und seine künstlerisch-praktischen Entstehungsbedingungen rückwirkend simuliert. Theorie und Kunst, Denken und Wahrnehmen sollen dadurch offensichtlich auf einen gemeinsamen Weg gebracht werden. Welche neuen Fragestellungen die Filmwissenschaft unter diesen Voraussetzungen zu entwickeln vermag und wie sich der wissenschaftliche Blick auf den Film ändern wird, wird sich erst zeigen. Die Geräte- und Softwareentwicklungen selbst geben dazu keine Antworten. Sie modellieren nur den Raum für mögliche Antworten und vor allem neue Fragestellungen. Die Digitalisierung der audiovisuellen Medien hat der Medienkultur des 21. Jahrhunderts vollkommen neue Zugänge zur Produktion, Distribution und Rezeption von AV-Medien im Allgemeinen und Filmen im Besonderen beschert. Digitale Einzelmedien wie die DVD70 oder Bluray-Disc, aber auch die unterschiedlichen Formate der digitalen Codierung von AV-Material und die unterschiedlichen Orte des Films im Zeitalter digitaler Netzwerke71 haben einen vollkommen neuen Zugang zum Film eröffnet. Die Konsequenzen für das Betrachten, Archivieren und Analysieren von Filmen sind in ihrer Komplexität gegenwärtig noch gar nicht absehbar. In vielerlei Hinsicht hat sich der Film neu erfunden und neue alte Ziele (wie die Wiederentdeckung des lange Zeit totgeglaubten 3D-Formats im Kino und im Fernsehen) gesetzt. Für die Analyse konventioneller Filme scheinen die vorgestellten Tools auf den ersten Blick allemal ausreichend zu sein. Da drohen mit neuen künstlerischen Konzepten datenbankbasierter Filme, die ihre Inhalte bei jedem Betrachtungsvorgang neu zusammenstellen,72 oder Filmemachern wie Peter Greenaway, der seine kreativen Energien zunehmend an die unendlichen Weiten und 70

71

72

Welche Konsequenzen allein die DVD nicht nur für die Filmbetrachtung, sondern auch für unser Wahrnehmen, Denken und Handeln hat, zeigt Jan Distelmeyer in einer Reihe von Beiträgen und in seiner bislang unveröffentlichten Habilitationsschrift zur DVD als Dispositiv und deren Einordnung in den medienhistorischen wie medientechnologischen Diskurs. Vgl. Gudrun Sommer, Vinzenz Hediger, Oliver Fahle (Hrsg.): Orte filmischen Wissens. Filmkultur und Filmvermittlung im Zeitalter digitaler Netzwerke. Marburg 2011. Vgl. Lev Manovich, Andreas Kratky: Soft Cinema. Navigating the Database. Cambridge, Mass. 2005. Zu den auf dieser DVD-Video enthaltenen drei ‚Filmen‘ (Mis-

306

HEINZ HIEBLER

Speicherkapazitäten des Internet verschwendet,73 schon die nächsten Herausforderungen.

73

sion to Earth, Absences und Texas) vgl. Petra Missomelius: Digitale Medienkultur. Wahrnehmung – Konfiguration – Transformation. Bielefeld 2006, S. 146-157. Zu Peter Greenaways Mixed-Media-Mammutprojekt The Tulse Luper Suitcases, das sich zu einem großen Teil im Internet abspielt siehe: http://www.petergreenaway. info/content/view/34/1/ [Datum: 30.8.2010].

Filmregister (in der Regel mit Produktionsdaten), DVDs, Blu-rays, Computerspiele, Merchandising 300 (USA 2007) 148 Abre los ojos (E/F/I 1997, Öffne die Augen) 219 Abyss, The (USA 1989) 147 Adam Powers, the Juggler (USA 1981) 145 Alexander (USA/GB/D 2004) 198 Alice in Wonderland (USA 2010) 218 f., 221 A.I. Artificial Intelligence (USA 2001) 127 Amadeus (USA 1984) 115f. Antz (USA 1998) 146, 150 Armageddon (Armageddon – Das jüngste Gericht, USA 1998) 199 f. Arrivée d’un train à La Ciotat (F 1896/97) 20, 293 Avatar (Franchise) 166, 178f., 181 Avatar: Aufbruch nach Pandora (USA 2009) 34, 39, 43-46, 94,110f., 114, 119, 124-136, 137, 139, 144, 147ff., 151, 153, 167, 168f., 172, 198, 209, 217f., 221, 250 Avatar: Das Spiel 139, 144, 167f., 172, 174-178 Back to Gaya (D 2004) 151 Baldur’s Gate 162 Batman (Franchise)181 Batman (Warner Home Video 1997) 230 Batman: Arkham’s Asylum (Spiel) 167 Beach, The (USA 2000) 210 Beowulf (USA 2007) 34, 43-46, 127 Berlin Alexanderplatz (Fernsehen D 1980) 201 f.

Das Biest im Bodensee (Fernsehen D 1999) 152 BioShock 164 Black Swan (USA 2010) 218 Blade Runner (Film USA 1982) 167 Blade Runner (Spiel) 166 Blade Runner (The Director’s Cut, Warner 1997) 230 Boot, Das (Columbia TriStar 1997) 230 Brave (USA 2012) 94 Brilliance (USA 1984) 145 Bug’s Life, A (USA 1998) 146, 150 Cabinet of Dr. Caligari, The (Special Collector’s Edition, Image Entertainment 1997) 230 Call of Duty 157f., 163 Call of Duty: World at War 164 Cars (USA 2006) 146 Chronicles of Riddick, The: Escape from Butcher Bay 167 Citizen Kane (USA 1941) 292 Clash of the Titans (USA 1981) 199 Click (Special Edition, Sony 2006) 227 Click (USA 2006) 225ff., 232, 242, 250 Coraline (USA 2009) 150 Crysis 161 Culture Flash 52 Curious Case of Benjamin Button, The (USA 2008) 109ff., 111, 115-124, 137 Day of the Tentacle 160 Dead Man (USA1995) 289 DeathSpank 159

308

FILMREGISTER

Despicable Me (USA 2010) 147 Deus Ex 159 Diable noir, Le (F 1905) 65f. Die Hard (USA 1988, Stirb langsam) 199 Donkey Kong 153, 160 Doom (Film USA 2005) 162f., 166 Doom (Spiel) 161f. Doom 2: Hell on Earth 161f. Doom 3 161ff. Duke Nukem 3D 159 Dungeon Siege 162 Elder Scrolls, The 162 Eraser (Warner Home Video, 1997) 230 eXistenZ (USA 1999) 219 Fable 165, 177 fabuleux destin d’Amélie Poulain, Le (F 2001, Die fabelhafte Welt der Amelie) 198, 200-208, 210, 213, 220 Fall, The (India/GB/USA 2006) 219 Fallout 3 159 Far Cry158, 161 Fear and Loathing in Las Vegas (USA 1998, Angst und Schrecken in Las Vegas) 210 f., 218, 221 Fight Club (Film USA 1999) 37, 48, 208 f., 220 Fight Club (Spiel) 166 Final Fantasy (USA/J 2001) 43, 45, 94, 109, 113f., 147f. Finding Nemo (USA 2002) 93, 146, 150 Finding Neverland (USA 2004, Wenn Träume fliegen lernen) 210, 218, 221 Flushed Away (UK 2006) 150 Forrest Gump (USA 1994) 115 Gamer (USA 2009) 225, 226, 227, 249 Ghosts (USA 2007) 46 Go to Sleep 46 God of War 164

Godfather, The (USA 1972) 116 Godzilla (USA 1998) 147, 200 Grand Theft Auto 161 Grand Theft Auto: San Andreas 163 Grotesque Tactics 159 Half-Life 161 Halo 158 Harry Potter (Franchise) 177, 181 Harry Potter (Spiel) 166 Harry Potter (Warner Home Video) 243 Heavy Rain 153, 189 Heretic/Hexen 158 Hunger (Kanada 1974) 144 Ice Age (USA 2002) 146, 150 Inception (USA 2010) 220 Incredibles, The (USA 2004) 47, 93, 146, 150f. Indiana Jones (Franchise) 177 I, Robot (USA 2004) 127, 146 Jason and the Argonauts (USA 1963) 199 Jules et Jim (F 1962) 201 Jumanji (USA 1995) 219 Jurassic Park (USA 1993) 40, 109, 130, 147, 218, 235ff. King Kong (USA/Neuseeland/ D 2005) 147f., 151, 167, 172 King Kong, Peter Jackon’s (Spiel) 167, 172 King’s Quest 160 Kirby’s Epic Yarn 160 L.A. Noir 153 Laberinto del fauno, El (Pans Labyrinth E/Mexiko/USA 2006) 218 Lady in the Lake (USA 1947) 202 Lara Croft: Tomb Raider (USA 2001) 154, 166 Last Starfighter, The (USA 1984) 145 Lawnmower Man, The (USA 1992) 109

FILMREGISTER Leisure Suit Larry 160 letzte Mann, Der (D 1924) 212 ff. Liebe ’47 (D 1949) 213 Like a Rolling Stone 52 Little Big Man (USA 1970) 115 Little Big Planet (USA 1981) 160 Live Free or Die Hard (USA 2007) 250 Lola rennt (D 1998) 292 Looker (USA 1981) 145 Lord of the Rings, The (Der Herr der Ringe NL/USA 2001-2003) 46, 109, 114f., 135f., 147, 151, 154, 178, 178 Lord of the Rings, The (Franchise) 154, 178 Lord of the Rings, The Online 163 Luxo Jr. (USA 1986) 145 Madagascar (USA 2005) 146, 151 Maniac Mansion 160 Mann mit der Kamera, Der (UdSSR 1929) 292 Mario Bros. 160 Mask, The (New Line Platinum Edition, New Line 1997) 230 Mask, The (Film USA 1994) 147 Mass Effect 159, 177 Mathilde Möhring (BRD 1950) 213 Matrix, The (Film USA 1999) 48, 114, 142, 163, 219, 231 Matrix The (Franchise) 142, 181 Matrix, The (Warner Home Video) 230 Matrix, Enter the (Spiel) 147,163, 167 Max Payne 156, 162 Mega Man 160 Megamind (USA 2010) 146 Metadata (Kanada 1971) 144, 147 Metropolis (D 1927; 2005 DVD-Studienfassung, UdK Filminstitut) 260ff. Minority Report (USA 2002) 218, 225 Money for Nothing (USA 1993) 145 Monkey Island 160 Monsters Inc. (USA 2001) 146

309

Moonraker (GB/F 1979) 199 Movies, The 159 Münchhausen (D 1943, DVD 2005 Friedrich Wilhelm Murnau Stiftung) 264f., 266, 269ff., 273 Murder, My Sweet (USA 1944) 211 f. Na’vi (USA, voraussichtlich 2014) 167 Naked City, The (USA 1948) 201 f. Neverwinter Nights 156, 162 Nosferatu (D 1922, Image Entertainment 1997) 230 Okami 162 Opfergang (D 1943) 264, 266f., 269 Otros, Los (The Others E/USA 2001) 219 Over the Hedge (USA 2006) 146 Overlord 159 Pac-Man 153, 160 Panzerkreuzer Potemkin (UdSSR 1925) 292 Paper Mario: Die Legende vom Äonentor 162 Pirates of the Caribbean, The: Dead Man’s Chest (USA 2006) 94, 123, 135ff. Pitfall! 160 Polar Express, The (USA 2004) 125, 148 Primary (USA1960) 292 Prince of Persia 160 Rango (USA 2011) 146, 150 Rashomon (J 1950) 285 Ratatouille (USA 2007) 146 Rayman 160 Red Dead Redemption 158 Resident Evil (Film D/UK 2002) 166 Resident Evil (Spiel) 158 Robots (USA 2005) 146 Royal Tenenbaums, The (USA 2001) 209, 220 Running Scared (USA 2006) 37

310

FILMREGISTER

Sam & Max 160 Saw (USA 2004) 250 Saw (Franchise 2004ff.) 250 Se7en (New Line Home Video 1997) 230 Short Cuts (USA1993) 292 Shrek (Film USA 2001) 93, 146, 151 Shrek (Franchise) 154, 178 Simpsons Game, The 163 Simpsons, The (Fernsehen USA seit 1989) 146 Sims, The 159 Sin City (USA 2005) 148 Singing in the Rain (MGM/UA Home Video 1997) 230 Sonic the Hedgehog 160 Space Jam (Warner Home Video 1997) 230 Star Wars (Film USA 1977ff.) 9, 55, 145, 147, 154, 163f., 165f., 178 Star Wars (Franchise) 154, 178 Star Wars: Episode I – Die dunkle Bedrohung 147 Star Wars: The Empire Strikes Back 154, 166 Star Wars: The Force Unleashed 165 Star Wars-Trilogie Episode IV-VI (USA 1999-2005) 55 Starship Troopers (USA 1997)) 218, 301 Stranger Than Fiction (Schräger als Fiktion USA 2006) 208 f., 220 Street Fighter (USA 1994) 154 Stuart Little (USA 1999) 147 Super Mario Bros. (USA 1993) 154 Surf ’up (USA 2007) 47 Surrogates (USA 2009) 250 Terminator 2 (USA 1991) 51, 109, 147 The 13th Floor (D/USA 1999) 250 Tin Toy (USA 1988) 145 Titanic (USA 1997) 9, 125 Tomb Raider (Franchise) 178, 181 Tomb Raider (Spiel) 161 Toy Story (USA 1995) 92, 94, 100, 146, 150

Transformers (USA 2007) 200 Tron (USA 1982) 145 TRON: Legacy (USA 2010) 200 Troy (Troja USA 2004) 198 Tulse Luper Suitcases, The (2003ff.) 306 Twister (Warner Home Video 1997) 230 Toy Story (USA 1995) 92f.,100 Up (USA 2009) 146, 151 Van Helsing (2-Disc Collector’s Edition, Universal 2004) 229 Vanilla Sky (USA 2004) 210, 219 Wächter der Nacht (d.i. Nochnoi Dozor, Russland 2004) 37 Wall-E (USA 2008) 95f., 146 Warcraft III 158 Warhammer 40.000: Dawn of War 156 Westworld (USA 1973) 145 Where the Wild Things Are (Wo die wilden Kerle wohnen USA 2009) 218 Who Framed Rogger Rabbit (USA 1988) 127 Wing Commander III: Heart of the Tiger 163 Wixxer, Der (Doppel Deluxe Edition, Falcom/Universum 2004) Wizard of Oz, The (USA 1939/DVD 2005, Warner Brothers, Turner Entainment) 253ff., 263f., 273 Wizard of Oz, The (MGM/UA Home Video 1997) 230 World of Warcraft 157f. Wolfenstein 161 XIII 162 Ying xiong (Hero) (Honkong/China 2002) 219 Young Sherlock Holmes (USA 1985) 145

Personenregister

Adam, Ken 18 Adamowsky, Natascha 14 Albers, Hans 265 Attenborough, Richard 235 Baky, Josef von 264 Barba, Eric 116 Barg, Werner 294 Barth, Roland 291, 293, 296 Barthes, Roland 18, 34, 60, 74, 76, 121, 238f. Batchen, Geoffrey 71,74 Baudry, Jean-Louis 38, 228 Bazin, André 61, 86, 121 Bell, John 99f. Benjamin, Walter 79f., 232 Bennet, James 229 Beyer, Friedemann 262 Bienk, Alice 295 Böhme, Hartmut 14 Bogart, Humphrey 275 Bolter, Jay David 237 Bolz, Norbert 20, 29 Bordwell, David 230, 289f. Borges, Jorge Luis 221 Brand, Stewart 59f. Brando, Marlon 116 Brown, Tom 229 Brugger, Ralf 46f. Buckland, Warren 290 Bulter, Gerard 225, 237 Burtnyk, Nestor 144 Calhoun, John C. 63 Cameron, James 139, 144, 166, 167f., 173, 181, 250 Capra, Frank 226 Coraci, Frank 225f. Cosima, Lutz 226 Cortázar, Julio 221 Cutting, James 290

Deleuze, Gilles 229, 239 Dern, Laura 235 Derrida, Jacques 73 Deubler-Mankowski, Astrid 165 Didier, Paula Félix 261 Döblin, Alfred 201 Dyer-Witheford, Nick 240 Eco, Umberto 58, 63, 68, 78 Ekman, Paul 118, 171 Emigholz, Heinz 258 Ewerth, Ralph 284, 286 Faulstich, Werner 280f. Fincher, David 115f. Foldes, Peter 144, 153 Fossari, Giovanni 263 Foucault, Michel 225, 228, 239, 251 Giesecke, Michael 15 Giesenfeld, Günter 280 Gillespie, Marie 296ff. Goldblum, Jeff 235 Goodson, Jonathan 236 Gondry, Michel 52 Gorki, Maxim 19 Greenaway, Peter 305 Grusin, Richard 237 Gunning, Tom 83 GwóŹdŹ, Andrzej 230, 244 Hagen, Wolfgang 14, 47 Hajj, Adnan 59ff. Hansen, Rolf 213 Harlan, Veit 266f., 268f. Hauske, Matt 290 Hediger, Vinzenz 234, 258 Heinlein, Robert A. 301 Hesiod 278

312

PERSONENREGISTER

Jackson, Michael 46 Jackson, Peter 167 Jackson, Samuel L. 163 Jäger, Ludwig 275 Jarmusch, Jim 289 Jenkins, Henry 140, 167, 240 Jeunet, Jean-Pierre 201 Jones, James Earl 226 Kant, Immanuel 304 Kassovitz, Mathieu 200 Keane, Stephen 239f. Kenny, J.M. 243 Kittler, Friedrich 15, 20f., 29, 30, 246 Kline, Stephen 240 Kloepfer, Rolf 282, 284f. Knörer, Ekkehard 225 Köppl, Rainer M. 299, 301 Koerber, Martin 260 Kojima, Hideo 164 Korte, Helmut 282f. Kracauer, Siegfried 19, 57, 61, 66, 76, 272 Kratky, Andreas 305 Krauss, Rosalind 68, 74 Krämer, Sybille 14 Kücklich, Julian 241 Kuleschow, Lew Waldimirowitsch 79 Kurosawa, Akira 285 Lang, Fritz 260 Lauzirika, Charles de 233f. Lerner, Jeff 243 Lerman, Logan 225 Leschke, Rainer 288 Liebeneiner, Wolfgang 213 Lucas, George 9 Lumière, Auguste und Louis 293 Manovich, Lev 94, 246ff., 305 Maresch, Rudolf 29 Mark Neveldine 225 Mathiak, Klaus 288 Matussek, Peter 14 Mayday, Members of 52

McDonald, Paul 241 McPherson Tara 241 Méliès, George 65f. Mersch, Dieter 275 Mitchell, W.J.T. 59, 243 Molyneux, Peter 164 Monroe, Marilyn 275 Mori, Masahiro 43, 113 Mostow, Jonathan 250 Münsterberg, Hugo 19 Mumler, William H. 63 Murnau, Friedrich W. 212 Narayan, Lancelot 234 Naundorf, Karen 208 Negroponte, Nicholas 240 Neill, Sam 235 Neitzel, Britta 249 Neveldine, Mark 225 Neumeier, Edward 301 Nohr, Rolf 249 O’Brien, Charles 290 Paech, Joachim 229 Parker, Deborah und Mark 229f. Patalas, Enno 260, 262f. Peirce, Charles Sanders 57f., 67-84 Peuter, Greig de 240 Platon, 277, 278, 285 Pitt, Brad 116-120, 122 Poggel, Holger 280 Radiohead 46 Ramsbot, Wolfgang 281f. Reeves, Keanu 46 Reichert, Ramon 241 Rejlander, Oscar Gustave 62f. Richter, Sebastian 38, 93f. Richard, Russel 239 Rolling Stones 52 Rubinstein, Mirchell 243 Ruisi, Lawrence 235 Rusnak, Josef 250 Russel, Charles 230

PERSONENREGISTER Salt, Barry 289, 290 Sanke, Philipp 280 Sauter, Joachim 281f. Schäfer, Horst 294 Schanze, Helmut 283 Schwarz, Jeffrey 234 Schwehla, Martin 299 Sebok, Bryan 241 Seel, Martin 27f. Seeßlen, Georg 232. Shannon, Claude Elwood 85, 303 Shaviro, Stephen 225 Söderbaum, Kristina 266, 268 Spielberg, Steven 225 Stanitzek, Georg 275 Stauff, Markus 228f., 246, 247 Steinmetz, Rüdiger 292-296, 299, 301f. Stones, Rolling 52 Sutherland, Ivan 31 Sutherland, Kiefer 163

Tautou, Audrey 200 Taylor, Brian 225 Toynbee, Jason 296ff. Truffaut, François 264f. Tsivian, Yuri 289f. Turkle, Sherry 241

Talbot, William Henry Fox 61 Tan, Ed 154 Tapscot, Don 240

Zaldana, Zoë 170 Zielinski, Siegfried 239

Usai, Paolo Cherchi 232 Van Ling 233, 243 Verhoeven, Paul 301 Walken, Christopher 226 Weaver, Warren 302 Weber, Rene 288 Weiner, Rex 242 Willis, Bruce 250 Winkler, Hartmut 246, 248, 250 Worthington, Sam 170 Yokre, Thom 46

313

Zu den Autorinnen und Autoren Jan Distelmeyer Seit 2010 Professor für Geschichte und Theorie der technischen Medien an der FH Potsdam im Kooperationsstudiengang Europäische Medienwissenschaft der Fachhochschule Potsdam und Universität Potsdam. Arbeitsschwerpunkte liegen derzeit in den Bereichen Filmtheorie und Filmgeschichte sowie Ästhetik und Dispositive computerbasierter Medien. Publikationen u.a.: Tonfilmfrieden / Tonfilmkrieg. Die Geschichte der Tobis vom Technik-Syndikat zum Staatskonzern (2003 Hrsg.); Autor Macht Geschichte (2005); Babylon in FilmEuropa. Mehrsprachenversionen der 1930er Jahre (2006 Hrsg.); Game Over?! Perspektiven des Computerspiels (2008 Mithrsg.); Raumdeutung. Zur Wiederkehr des 3D-Films (2012 Mithrsg.); Das flexible Kino. Ästhetik und Dispositiv der DVD & Blu-ray (2012). Seit 2008 Mitherausgeber der CineGraph-Buchreihe Martin Doll Martin Doll ist wissenschaftlicher Mitarbeiter im ATTRACT-Forschungsprojekt „Ästhetische Figurationen des Politischen“ der Université du Luxembourg. Er war Postdoc-Fellow am ICI Berlin und Stipendiat des Graduiertenkollegs „Zeiterfahrung und ästhetische Wahrnehmung“ an der Goethe-Universität Frankfurt. Er hat ferner als Cutter und redaktionell mehrere Jahre für das Fernsehen gearbeitet. Seine Forschungsschwerpunkte sind: Medien-, Wissens- und Kulturgeschichte, Fälschung und Fake, Politik und Medien, mediale Utopien des 19. Jahrhunderts. Veröffentlichungen zu Fälschung und Fake (2012); Phantasmata. Techniken des Unheimlichen (Mithrsg. 2010); Image and Narrative, Gastherausgeber für Heft 11.3: „Hauntings I: Narrating the Uncanny“ (Mithrsg. 2010) u. 13.1: „Hauntings II: Uncanny Figures and Twilight Zones“ (Mithrsg. 2012); Mimikry. Gefährlicher Luxus zwischen Natur und Kultur (Mithrsg. 2008). www.mdoll.eu Jens Eder arbeitet als Professor für Medien- und Kommunikationswissenschaft an der Universität Mannheim, davor war er Professor für Filmwissenschaft in Mainz und Juniorprofessor für Medienwissenschaft in Hamburg. Forschungsschwerpunkte: Theorie und Analyse audiovisueller Medien; Fiktion, Narration, Figuren; Emotion und Rezeption; mediale Menschenbilder und Medienanthropologie; Transmedialität; aktuelle Entwicklungen der audiovisuellen Medienproduktion. Zahlreiche Aufsätze zu diesen und weiteren Themen, u.a. zu Politik und Propaganda, Glück, Depression und Tod in Film und Fernsehen. Buchpublikationen (Auswahl): Gefühle in Film und Fernsehen (Habilitationsschrift, Publikation i.V.); Medialität und Menschenbild (Mithrsg. 2012 i.V.); Characters in Fictional Worlds: Understanding Imaginary Beings in Literature, Film, and Other Media (Mithrsg. 2010); Die Figur im Film. Grundlagen der Figurenanalyse (2008); Audiovisuelle Emotionen. Emotionsdarstellung und Emotionsvermittlung durch audiovisuelle Medienangebote (Mithrsg. 2007); Dramaturgie des populären Films. Drehbuchpraxis

316

ZU DEN AUTORINNEN UND AUTOREN

und Filmtheorie (3. Aufl. 2007). Mitherausgeber der Website Menschenbilder in Medien, Künsten und Wissenschaften (www.menschenbild.org) sowie Medienwissenschaft / Hamburg: Berichte und Papiere (www.rrz.uni-hamburg.de/Medien/berichte/). Prof. Dr. Barbara Flückiger arbeitete als Filmpraktikerin in Europa, Kanada und USA, bevor sie Germanistik, Filmwissenschaft und Publizistik an der Universität Zürich und der Freien Universität Berlin studierte. Abschluss 1995 an der Universität Zürich, Promotion 2001 an der Universität Zürich. Habilitation an der FU Berlin 2007 (mit einer Schrift zu technischen, ästhetischen und narrativen Aspekten computergenerierter Visual Effects). Gastdozentin an vielen Universitäten und Filmhochschulen in Deutschland und der Schweiz. Seit 2007 Gastprofessorin am Seminar für Filmwissenschaft der Universität Zürich. Forschungsprojekte und Arbeitsschwerpunkte: an der Hochschule für Kunst und Gestaltung in Zürich im Rahmen des Projekts Digitales Kino zum Themenschwerpunkt Interaktion von technischer Innovation und Ästhetik; digitale Archivierung des audiovisuellen Kulturguts in der Schweiz (2008-2011); seit Juni 2011 Leiterin des Schweizer Nationalfondsprojekts Filmgeschichte Re-Mastered; Harvard University im Herbstsemester 2011: Forschungen zu historischen Farbfilmprozessen, mit Entwicklung einer kollaborativen Internetplattform http://www.zauberklang.ch/colorsys.php. Wichtigste Veröffentlichungen: Sound Design. Die virtuelle Klangwelt des Films. Marburg: Schüren, 2001, 5. Auflage 2012, das sich im deutschsprachigen Raum als Standardwerk etabliert hat; Visual Effects. Filmbilder aus dem Computer. Marburg: Schüren, 2008. Franziska Heller Dr. phil., Habilitandin und Lehrbeauftragte am Seminar für Filmwissenschaft der Universität Zürich. Arbeitet gegenwärtig im Schweizer Nationalfonds-Projekt Filmgeschichte Re-Mastered. 2009 Promotion an der Ruhr-Universität Bochum. Danach Tätigkeit an der Universität Zürich im Projekt AFRESA: Automatisches System zur Rekonstruktion von Archivfilmen (bis 2010). Autorin in verschiedenen Sammelbänden wie Film- und Medienzeitschriften. Arbeitsschwerpunkte: Phänomenologische Erzählforschung und Wahrnehmungstheorie, Theorie und Praxis der Retrodigitalisierung, Archivierung und Filmhistoriographie. Jüngere Publikationen: Filmästhetik des Fluiden. Strömungen des Erzählens von Vigo bis Tarkowskij, von Huston bis Cameron. (2010). Ferner: „Ben Hur vs. Star Wars. Technikdiskurse und filmwissenschaftliche Methoden im Zeichen der Digitalisierung am Beispiel der Blu-ray“. In: Positionen und Perspektiven der Filmwissenschaft, in Augen-Blick, Heft Nr. 52 (im Erscheinen). Heinz Hiebler Seit August 2007 Leiter des Medienzentrums der Fachbereiche Sprache, Literatur, Medien I + II an der Universität Hamburg. 1985–1991 Studium der Deutschen Philologie, Kunstgeschichte und Philosophie in Graz; 1994–2001 wiss. Mitarbeiter am FWF-Projekt »Literatur und Medien« (Karl-Franzens-Universität Graz); 2001 Promotion in Neuerer Deutscher Literatur und Medienwissenschaft; 2005–

ZU DEN AUTORINNEN UND AUTOREN

317

2007 wiss. Mitarbeiter an der Univ. Lüneburg, Fachbereich Kulturwissenschaften (Sprache und Kommunikation); Lehrtätigkeit an den Universitäten in Graz, Hamburg, Lüneburg und an der FernUni Hagen. Arbeitsschwerpunkte: medienorientierte Literaturwissenschaft, Medientechnik- und Medienkulturgeschichte, Medienästhetik, Mediensemiotik, Medien- und Kulturtheorie; Publikationen: Mitautor von Kleine Medienchronik (1997), Die Medien (1998), Große Medienchronik (1999); Autor von Hugo von Hofmannsthal und die Medienkultur der Moderne (2003); Medien und Kultur sowie Wissen im digitalen Zeitalter (Studienbriefe für die FernUni Hagen WS 2008/09); Kultur – Medien – Geschichte (Habilitationsschrift Hamburg 2010). Klaus Kohlmann Doppelexpertise in der fachpraktischen 3-D-Grafik sowie im wissenschaftlichen Diskurs. In den Jahren 2004 bis 2007 Workshop-Artikel in der Zeitschrift Digital Production. Publikation: Der computeranimierte Spielfilm (2007). Dozent für 3-DComputergrafik 2005/2006 an der Ruhr-Universität Bochum sowie 2007/2008 an der Macromedia Fachhochschule am Campus Köln. Seit 1996 Tätigkeit als Computergrafiker für 3-D-Animationen bei mehreren Agenturen. Seit 2008 virtueller Set Designer für 3-D beim öffentlich-rechtlichen Fernsehen. Markus Kuhn Seit 2010 Juniorprofessor für Medienwissenschaft am Institut für Medien und Kommunikation der Universität Hamburg. Von 2008 bis Ende 2009 Leiter der Doktorandengruppe „Die Textualität des Films“ an der Universität Bremen. Studium der Germanistik, Medienkultur, Kunstgeschichte und Publizistik in Göttingen und Hamburg; die Magisterarbeit zum Thema „Erzählsituationen in Literatur und Film. Der Roman Berlin Alexanderplatz und seine filmischen Adaptionen“ wurde mit dem Karl H. Ditze-Preis für herausragende Examensarbeiten ausgezeichnet. Die Dissertation Filmnarratologie: Ein erzähltheoretisches Analysemodell, die mit dem Absolventenpreis der Studienstiftung Hamburg ausgezeichnet wurde, ist 2011 bei de Gruyter erschienen. Arbeit als freier Journalist für verschiedene Print- und Onlinemedien. Arbeitsschwerpunkte: Filmnarratologie, Erzähltheorie, Filmanalyse, Erzählen im Internet, Webserien, Film und Fernsehen im Web, Transmedialität. Ausgewählte Publikationen: „Film Narratology: Who Tells? Who Shows? Who Focalizes? Narrative Mediation in Self-Reflexive Fiction Films“, in: Hühn, Peter/Schmid, Wolf/Schönert, Jörg (Hrsgg.): Point of View, Perspective, and Focalization: Modeling Mediation in Narrative (2009, S. 259-278); „Medienreflexives filmisches Erzählen im Internet: die Webserie Pietshow“, in: Rabbit Eye – Zeitschrift für Filmforschung, Nr. 001 (2010), S. 19-40, Online-Ressource: http:// www.rabbiteye.de/2010/1/kuhn_erzaehlen_ im_internet.pdf; „Erzählen mit bewegten Bildern“, in: Martínez, Matías (Hrsg.): Handbuch Erzählliteratur. Theorie, Analyse, Geschichte (2011), S. 41-49; Filmnarratologie. Ein erzähltheoretisches Analysemodell (2011). Homepage: http://www.slm.uni-hamburg.de/imk/Personal/ kuhn/MarkusKuhn.html

318

ZU DEN AUTORINNEN UND AUTOREN

Rüdiger Maulko Studium der Kultur- und Medienwissenschaft an der Universität Marburg, anschließend wissenschaftlicher Mitarbeiter bei Prof. Dr. Knut Hickethier und Mitarbeit im DFG-Projekt „Untersuchung der Programmstrukturen und Programmästhetik des deutschen Fernsehens in den neunziger Jahren“. Diverse Lehraufträge an der Universität Hamburg. Beisitzer im Vorstand der Gesellschaft für Medienwissenschaft (2000-2002). Derzeit freier Publizist (Schwerpunkt Medienwissenschaft), Texter, Redakteur und Konzepter (Print/Online). Promotion über digitale Fernsehästhetik. Arbeitsschwerpunkte: Neue Medien, Geschichte, Technik und Ästhetik des digitalen Bildes, Film-, Fernseh- und Programmästhetik, Real Life-Formate. Veröffentlichungen (Auswahl): „Vom einfachen Kürzel zum stilisierten Gütesiegel – Wie Senderkennspots auf PRO SIEBEN `Marke machen´“. In: K. Hickethier/ J.K. Bleicher (Hrsg.): Trailer, Teaser, Appetizer 1997; „Hamburg 1. Total lokal und ohne einen Pfennig in der Tasche“. In: Bleicher, J.K. (Hrsg.): Programmprofile kommerzieller Anbieter (1997); „Vom Hirtenhorn zum digitalen Telefon“. In: W. Köpke/B. Schmelz (Hrsg.): Das gemeinsame Haus Europa. Handbuch zur europäischen Kulturgeschichte (1999); „Über Strichzeichnungen und 3D-Artisten. Zur Technikgeschichte digitaler Fernsehbildgestaltung“. In: H. Segeberg (Hrsg.): Die Medien und ihre Technik. Theorie - Modelle - Geschichte (2004); „Referenz und Computerbild - Synthetischer Realismus in den Bildmedien“. In: H. Segeberg (Hrsg.): Referenzen. Zur Theorie und Geschichte des Realen in den Medien. (2009) Harro Segeberg Seit 1983 Professor für neuere deutsche Literatur und Medien an der Universität Hamburg; Gastprofessuren an der Universität Michel de Montaigne Bordeaux III (1989/90); Karl Franzens Universität Graz (2000); Northern Institute of Technology (TU Hamburg-Harburg, 1998-2004). 2004-2011: interuniversitäres Graduiertenkolleg Kunst und Technik an der TU Hamburg-Harburg, der HafenCity Universität Hamburg und der Universität Hamburg. Gesellschaft für Medienwissenschaft (1999-2003 Vorsitzender; 2004-2008 stellv.Vors.) Arbeitsschwerpunkte: neben zahlreichen Veröffentlichungen zur Literatur- und Mediengeschichte des 18. bis 21. Jahrhunderts Bücher über Soziale Maschinen (1978, Mitautor), Literarische Technik-Bilder (1987), Technik in der Literatur (Hrsg. 1987), Vom Wert der Arbeit (Hrsg. 1991), Ernst Jünger im 20. Jahrhundert (Mithrsg. 1994), Literatur im technischen Zeitalter (1997); Literatur im Medienzeitalter (2003). Hrsg. u. Mitautor einer Mediengeschichte des Films, Bd. I-VII (1996-2009); Die Medien und ihre Technik (Hrsg. 2004). Sound. Zur Technologie und Ästhetik des Akustischen in den Medien (Mithrsg. 2005); Digitalität und Literalität (Mithrsg. 2005); Kinoöffentlichkeit (1895-1920) (Mithrsg. 2008). Jan-Noël Thon ist akademischer Mitarbeiter am Institut für Medienwissenschaft der Eberhard Karls Universität Tübingen. Zu seinen Forschungsschwerpunkten gehören transmediale Narratologie, transmediale Figurentheorie, Comic Studies, Filmtheorie, Computer Game Studies und konvergente Medienkultur. Seine letzten Buchveröffentlichungen sind Probleme filmischen Erzählens (Mithrsg. 2009)

ZU DEN AUTORINNEN UND AUTOREN

319

und Poetik der Oberfläche. Zur deutschsprachigen Popliteratur der 1990er Jahre (Mithrsg. 2011). Demnächst erscheinen From Comic Strips to Graphic Novels. Contributions to the Theory and History of Graphic Narrative (Mithrsg. 2013) und Storyworlds across Media. Toward a Media-Conscious Narratology (Mithrsg. 2013).