216 86 6MB
German Pages 105 [108] Year 2002
Grundlagen der Medienkommunikation Herausgegeben von Erich Straßner
Band 14
Holger Rada
Design digitaler Medien
Niemeyer
Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar. ISBN 3-484-37114-5
ISSN 1434-0461
© Max Niemeyer Verlag G m b H , Tübingen 2002 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere f ü r Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Printed in Germany. Titelbild: Holger Rada Satz: Anne Schweinlin, Tübingen Druck: Guide-Druck G m b H , Tübingen Einband: Nadele Verlags- und Industriebuchbinderei, Nehren
Inhaltsverzeichnis Einleitung 1. Textgestaltung 1.1. Textgestaltung in den traditionellen Printmedien 1.1.1. Typografische Grundlagen 1.1.2. Textoptimierung und Textdesign 1.2. Textgestaltung in den digitalen Medien 1.2.1. Digitale Typografie und Lesbarkeit 1.2.2. Schreiben für Web und Multimedia 2. Gestalttheoretische Grundlagen der visuellen Kommunikation 2.1. Das Prinzip von Figur und Grund 2.2. Gruppierung zu gestalterischen Einheiten 2.3. Ergänzung von visuellen Informationen 3. Bildgestaltung 3.1. Die kommunikative Funktion von Bildern 3.2. Grundlagen der Bildgestaltung 3.2.1. Beleuchtung 3.2.2. Farbe 3.2.3. Bildkomposition 3.3. Das Bild in den digitalen Medien 3.3.1. Bildfalschung und Bildmanipulation 3.3.2. Die Fragmentierung des Bildes 3.3.3. Fensterwelten - der mehrgliedrige Bilderraum 4. Bildzeichen 4.1. Traditionelle Bildzeichen 4.2. Icons in Benutzeroberflächen 5. Das bewegte Bild 5.1. Animation 5.1.1. Von der Animation zum Film und zurück 5.1.2. Digitale A n i m a t i o n - interaktive Animation 5.2. Hypervideo 5.2.1. Erzähl- und Interaktionsstruktur 5.2.2. Navigationsprinzipien
1 5 6 6 10 14 14 16 19 20 21 24 26 27 30 30 35 38 44 44 46 47 50 51 53 57 58 58 61 63 63 66
VI
6. Vom klassischen Layout zur Informationsarchitektur 6.1. Layout in den Printmedien 6.2. Informationsarchitektur in den digitalen Medien 6.2.1. Informationsarchitektur und Benutzerfreundlichkeit 6.2.2. Site-Design 6.2.3. Seitendesign/Schnittstellendesign 6.2.4. Gestaltung von Navigationselementen 7. Virtuelle Realität 7.1. Stufen der künstlichen Realität 7.2. Räumliche Wahrnehmung in virtuellen Umgebungen 7.3. Orientierung und Navigation 7.3.1. Navigation und Wegfindung in Realräumen 7.3.2. Navigation und Wegfindung in virtuellen Räumen 7.4. Gestaltungsprinzipien Literaturverzeichnis
68 69 72 72 73 78 80 83 84 85 87 87 88 89 91
Einleitung Die Arbeit am und mit dem Computer prägt mittlerweile fast alle Lebens- und Arbeitsbereiche. Bei der Verwaltung und Organisation von Dokumenten benutzen wir Datenbanken. Beim Publizieren werden Texte direkt in Redaktionssysteme eingegeben und können quasi in Echtzeit gesetzt werden. Auch beim Druck von Zeitungen oder Büchern ist der Computer unersetzlich geworden. Andere Publikationen werden gar nicht mehr gedruckt, sondern online oder offline veröffentlicht. Die Produktions-, Distributions- und Publikationswege sind hier ausnahmslos digital. Insbesondere beim Kommunikationsdesign ist das Wissen um die Möglichkeiten der digitalen Produktion elementar. Gerade im gestalterischen Bereich werden Computerprogramme für DTP, Bildbearbeitung, 2D-Grafik und -Animation, 3D-Grafik und digitalen Videoschnitt schon seit längerem eingesetzt. Produziert werden damit Anzeigen, Plakate, Grafiken, Animationen oder Videoclips für die traditionellen Medien. Die Computerprogramme können in diesem Kontext als technische Hilfsmittel angesehen werden, die sich der gestalterischen Idee unterordnen müssen. Ganz anders sieht es dagegen aus, wenn auch das Publikationsmedium digital ist. Hier bieten die digitalen Medien als neuartige (hypermediale) Präsentationsund Publikationsformen auch neue Möglichkeiten der Darstellung, der Rezeption bzw. Interaktion und der Informationsstruktur. Sie stehen dabei in Abgrenzung zu den traditionellen Print- und elektronischen Medien. In diesem Buch soll es nicht um die digitale Produktion oder Distribution von herkömmlichen Medienprodukten gehen. Im Zentrum der Betrachtung stehen vielmehr digitale Produkte, die von vornherein im Kontext ihrer multimedialen und interaktiven Möglichkeiten konzipiert werden: Web-Sites, hypermediale Informationssysteme, digitale Bilderwelten oder virtuelle Räume. Ein Charakteristikum der digitalen Medien ist, dass Informationen - im Gegensatz zu den Printmedien - stärker visualisiert werden. Der Gestaltung von Bildern, Grafiken und Icons für Web und Multimedia kommt deshalb eine sehr große Bedeutung zu. Analog zum Hypertextprinzip können im Hyperspace auch Bilder oder Grafiken modularisiert und fragmentiert werden. In den neuen Medien können Dargestelltes und Benutzerschnittstelle miteinander verschmelzen. Bilder können nicht nur Bestandteil der Darstellungsebene sein, sondern auch der Benutzeroberfläche. Sie können andere Bilder oder Kommunikationsmittel refe-
2
Einleitung
renzieren. Mehrere Bilder können sich über ihre Bildgrenzen hinweg aufeinander beziehen und zu neuen Kompositionen anordnen. Digitale Triptychen und Bilder im Bild erweitern den Bildraum nicht nur vertikal und horizontal, sondern auch auf der räumlichen Z-Achse. Stärker noch als bei Bildern wird der interaktive Charakter bei Bildzeichen oder Icons deutlich. Icons sind in die Benutzeroberfläche digitaler Informationssysteme integriert. Sie sollen Systemoperationen visuell veranschaulichen oder Objekte bezeichnen. Icons können ein System von Metaphern bilden, das eine transparente und vorhersehbare Benutzerführung gewährleistet. Eine wichtige Grundlage für die Gestaltung von Bildern, Bildzeichen und Benutzeroberflächen stellen die Gesetze der Gestaltpsychologie dar. Die Gestaltgesetze berücksichtigen bei der Beschreibung menschlicher Wahrnehmungsprozesse nicht nur einzelne Reizmuster, sondern beziehen sich auf das Zusammenspiel aller Sinnesreize. Die Wirkung von Formen oder Farben kann demzufolge nicht isoliert betrachtet werden, sondern muss im Kontext anderer Gestaltungsmittel beurteilt werden. Während in den traditionellen Printmedien (Zeitung, Magazin) schon seit längerem eine Tendenz vom Durchlesen hin zum selektiven Lesen auszumachen ist, wird die Indizierung und Modularisierung von Texten in den neuen Medien noch einmal gesteigert. Lange Textstrecken sind kaum noch zu finden. Orientierungstexte, Appetizer, Teaser - egal, wie die neuen Textsorten genannt werden - sie alle dienen dazu, im überfrachteten Raum der virtuellen Benutzeroberfläche den Zugriff auf Beiträge zu vereinfachen und zu strukturieren. Durch diese Segmentierung und Zerlegung in kleine, teilautonome Einheiten wird auch dem Hypertextprinzip Rechnung getragen. Elektronische Texte werden nicht mehr linear aufgebaut, sondern von vornherein auf eine selektive Rezeption ausgelegt. Neben Textaufbau und Textdesign müssen in elektronischen Informationssystemen auch einige typografische und technische Besonderheiten berücksichtigt werden, etwa die Schriftdarstellung auf Monitoren, die Lesbarkeit von Online-Schriften, die Kantenglättung, die Verfügbarkeit von Fonts etc. Das Prinzip der linearen Rezeption wird in den digitalen Medien auch bei Videoclips oder Animationen durch segmentierte Formen abgelöst. Der interaktive Videoclip kann als eine Mischung aus digitalem Video und Hypertext bezeichnet werden. Anders als beim herkömmlichen Videoclip oder Film kann beim Hypervideo nicht nur die Erzählstruktur non-lineare Elemente aufweisen (etwa eine Rückblende). Vielmehr kann auch die Ablaufsteuerung segmentiert werden. Ein Hypervideoclip kann dem Rezipienten mehrere, alternative Handlungsstränge zur Verfugung stellen. Im Gegensatz zu Videoclips basieren Animationen zumeist auf Grafiken. Dabei können nicht nur die dargestellten Objekte animiert werden, sondern nahezu alle visuellen Merkmale wie Form, Farbe, Textur etc. Neben den traditionellen Animations- und Zeichentrickfilmen hat sich im Bereich der neuen Medien der
Einleitung computeranimierte (zweidimensionale
3 und dreidimensionale)
Animationsfilm
etabliert. Daneben ist ein vollständig neues Kommunikationsmittel entstanden: das interaktive Erklärstück. Dieser Typ bedient sich einerseits der Grafik, des Bildes und des Textes. Andererseits kann er bestimmte, komplexe Sachverhalte sehr viel einfacher veranschaulichen, als dies mit Text, Bild oder Grafik allein möglich wäre. Alle bislang skizzierten Kommunikationsmittel können in den digitalen Medien unter einer einheitlichen Oberfläche zusammengefasst werden und ihre spezifischen kommunikativen Möglichkeiten entfalten. Struktur und Design von Multimediasystemen oder Web-Sites müssen daher sorgfaltig geplant und aufgebaut werden. Zentral sind dabei die Begriffe der Informationsarchitektur und der Benutzerfreundlichkeit. Anders als bei herkömmlichen Informationsmedien lässt sich die Informationsdichte bei digitalen Anwendungen nur selten erahnen. Der Benutzer w e i ß oft nicht, wie viele Informationen welcher Art wie miteinander verknüpft sind. Digitale Systeme sind nicht über alle Sinne erfahrbar (so gibt es etwa keinen haptischen Bezug zum Produkt). Aus diesem Grund müssen Multimediaanwendungen eine konsistente und schlüssige Gliederung aufweisen. Die Informationsstruktur muss transparent sein, und der Anwender sollte Programmfunktionen vorhersehen können. Darüber hinaus muss er sich jederzeit im System zurechtfinden und orientieren können. Neben diesen strukturellen Grundlagen der Informationsarchitektur kommt auch der konkreten Schnittstellengestaltung eine große Bedeutung zu. Das Seitendesign umfasst die Definition des Layoutrasters, die Anordnung der einzelnen Bildschirmelemente und die formale Gestaltung dieser Elemente (etwa Buttons, Eingabefelder, Orientierungshilfen etc.). Die Benutzeroberfläche als kommunikative Schaltzentrale digitaler Anwendungen ist ein Instrument des Informationszugriffs, das in den traditionellen Medien keine Entsprechung findet. Die Möglichkeiten der Benutzeroberfläche gehen weit über das hinaus, was einzelne, herkömmliche Kommunikationsmittel in den Digitalmedien leisten können. Neben der zweidimensionalen Benutzerschnittstelle gibt es aber noch eine zweite, exklusive Form der Benutzerführung und des Informationszugriffs: die dreidimensionale, virtuelle Umgebung. Die Digitaltechnik ermöglicht es, virtuelle Räume verfügbar zu machen, durch die sich der Anwender frei bewegen kann. Die Umgebung ist auf allen drei Raumachsen erfahrbar. Standpunkt, Blickrichtung und Blickwinkel können vom Anwender frei gewählt werden. Dadurch eröffnen sich grundlegend neue Möglichkeiten der Darstellung und Interaktion. In den einzelnen Kapiteln des Buchs sollen im folgenden Gestaltungskriterien für die hier vorgestellten Kommunikationsmittel diskutiert werden. Ausgangspunkte sind dabei zunächst die traditionellen Designprinzipien für Text, Bild, Bildzeichen und Bewegtbild, wie wir sie aus den Print- und elektronischen Medien kennen. Denn beim Design digitaler Medien können die Grundlagen der typografischen Gestaltung, des Textdesigns, der Bildkommunikation, der Bildge-
4
Einleitung
staltung und des klassischen Layouts nicht unberücksichtigt bleiben. Diese Richtlinien und Erkenntnisse bilden einerseits die Basis für die Gestaltung multimedialer Anwendungen. Andererseits lassen sich die Besonderheiten bei Konzeption und Design und die grundlegend neuen Bedingungen der Kommunikation in den Digitalmedien erst erkennen, wenn wir Bezug auf die traditionellen Medien nehmen und die Unterschiede herausarbeiten. Generell wird in diesem Buch ein Designbegriff zu Grunde gelegt, der nicht nur die formale Gestaltung berücksichtigt, sondern konzeptionelle Kriterien wie Benutzerführung, Rezeptionsbedingungen und Funktionalität mit einbezieht. Am deutlichsten wird dies in Kapitel 6 (Vom klassischen Layout zur Informationsarchitektur). Der Begriff des eigentlichen Seitendesigns kann keinesfalls isoliert betrachtet werden, denn die Gestaltung von Objekten einer Benutzerschnittstelle setzt immer schon Kenntnis der Anwendungsziele, der Dokumentenstruktur und der Benutzerfuhrung voraus. Seitendesign ist deshalb nur Teil einer weitaus umfassenderen Organisationsstruktur - des Site-Designs. Ähnlich verhält es sich bei der Text- und Bildgestaltung: Erst wenn die Möglichkeiten und Funktionen des Kommunikationsmittels geklärt sind, kann sich der Designer Gedanken über die formale Umsetzung der vorab formulierten Ziele machen. Erst wenn er sich darüber bewusst ist, mit welchen Mitteln der Bildgestaltung er den Blick des Betrachters fuhren kann, kann er die formalen Elemente eines Bildes sinnvoll anordnen.
1. Textgestaltung Der Leser oder die Leserin nimmt Schrift und Text nur selten als gestalterische Einheiten wahr. Typografie und Textgestaltung haben jedoch einen ganz erheblichen Einfluss auf das Design von Print- und digitalen Publikationen. Von der Textgestaltung hängen so wichtige Kriterien wie Übersichtlichkeit, Lesbarkeit und Textverständlichkeit ab. Die Typografie kann das Interesse an Texten wekken und zum Lesen reizen. Sie bestimmt Leserichtung sowie Lesegeschwindigkeit, und sie kann auf das Image des Autors, des Verlages oder des Inhalts verweisen. Im ersten Abschnitt dieses Kapitels sollen deshalb die typografischen Grundlagen geklärt und die wichtigsten Begriffe erläutert werden (Schriftgruppen, Schriftfamilien, Schriftgröße, Satzarten etc.). Neben der typografischen Gestaltung soll im darauf folgenden Abschnitt auch die Textgestaltung auf inhaltlicher und sprachlicher Ebene behandelt werden. Dabei werden Strategien für Autoren vorgestellt, wie verständliche Texte verfasst werden können. Die Optimierung von Texten zielt auf eine bessere Verstehens- und Behaltensleistung des Lesers. Die behandelten Richtlinien können dabei sowohl für Print- als auch für digitale Texte gelten. Etwas anders verhält es sich mit den Textdesign-Strategien zur Portionierung und zur Strukturierung von großen thematischen Blöcken. Die vorgestellten Erkenntnisse und Methoden beziehen sich in erster Linie auf das Zeitungsdesign - auch wenn der Trend zur Modularisierung größtenteils auf die Entwicklungen des digitalen Publizierens Bezug nimmt. In Kapitel 1.2.1. wird der Bogen zu den Digitalmedien geschlagen. Gute Schriftgestaltung ist hier genauso wichtig wie im klassischen Printbereich. Die typografische Gestaltung für Web und Multimedia unterliegt jedoch völlig anderen technischen und gestalterischen Bedingungen. Die Funktionsvielfalt moderner Seitenlayoutprogramme steht weder einem Web-Designer noch einem Multimediaautor zur Verfügung. Selbst umfangreiche Autorensysteme wie Authorware oder Toolbook bieten hier nur wenig Möglichkeiten. Zeilenabstände können nur in ganzen oder halben Schritten definiert werden, automatischer Mehrspaltensatz wird nicht unterstützt, und es gibt auch keine Funktionen zum Ausgleichen oder Unterschneiden. Etwas besser sieht es im Online-Bereich seit Einfuhrung der Cascading Style Sheets im Jahr 1996 aus. Diese Formatvorlagen für HTML-Dateien bieten neben exakt definierten Schriftgrößen, variablen Zeilenabständen, erweiterten Satzarten (Block- und Mittelachsensatz) auch unterschiedli-
6
Textgestaltung
che Schriftvariationen an (allerdings entsprechen diese Variationen nicht eigens gestalteten Schnitten - sie sind lediglich computergeneriert). Während Fonts im Offline-Bereich direkt in Multimediaanwendungen eingebunden werden können, können sie im W W W lediglich referenziert werden. Bei der Verwendung von Schriften, die nicht zum Standard-Lieferumfang des Betriebssystems der eingesetzten Computerplattform gehören, kann es zu Problemen kommen. Nicht jeder Anwender hat jede Schrift auf seinem Computer geladen. Ein weitere spezifische Besonderheit beim Online-Publizieren liegt darin, dass unterschiedliche Computerplattformen (Windows, Apple, Unix/Linux) mit unterschiedlichen Schriften arbeiten. Deswegen müssen bei der Web-Typografie so genannte Schriftensubstitute angegeben werden. Im Prinzip wird dabei eine Liste möglicher Schriften abgearbeitet, bis das System einen zur Verfügung stehenden Font laden kann. Beispiele für solche Schriftlisten sind etwa Times New Roman, Times, Serif oder Verdana, Arial, Helvetica, Sans-Serif. Mittlerweile gibt es einige neuere Techniken, die es ermöglichen, Schriften auch in ein HTML-Dokument zu integrieren - etwa die TrueDoc-Technologie von Bitstream und Netscape oder das EOT-Format (Embedded Open Type) von Microsoft. Eine Alternative zur HTML-Typografie ist auch das vektorbasierte Flash-Format. Zum einen können Flash-Schriften automatisch geglättet werden, zum anderen sind sie direkt im Dokument verankert und somit plattformunabhängig. Der Designer hat dabei die volle Kontrolle über das typografische Erscheinungsbild. Analog zum Printbereich werden in Abschnitt 1.2.2. Richtlinien für die digitale Schrift- und Textgestaltung vorgestellt. Texte für Web- und Multimediaanwendungen werden vom Leser sehr viel selektiver gelesen und eher überflogen als bei gedruckten Zeitungen oder Magazinen. Daraus ergeben sich ganz bestimmte Konsequenzen für Autoren: Texte müssen gekürzt und umstrukturiert werden. Texte müssen verschiedene Nutzerprofile ansprechen und modularisiert werden. Die Informationsdichte kann dabei nach einem Zwiebelschalenmodell aufgebaut werden: Der eilige Querleser sollte sich schnell und präzise informieren können, während der interessierte Leser Schicht für Schicht Hintergrundinformationen freilegen kann.
1.1. Textgestaltung in den traditionellen Printmedien 1.1.1. Typografische Grundlagen Seit 1964 werden Schriften in Deutschland in genormte Schriftgruppen eingeteilt (DIN-Norm 16518). Neben den selten benutzten und teilweise ungeeigneten gebrochenen Schriften (Fraktur) und Schreibschriften ist für längere Texte insbesondere die Gruppe der ^/jZ/^ua-Schriften von Bedeutung. Sie lässt sich unterteilen in Renaissance-Antiqua, klassizistische Antiqua, Barock-Antiqua und
7
T e x t g e s t a l t u n g in d e n t r a d i t i o n e l l e n P r i n t m e d i e n
Linear-Antiqua (siehe Abbildung 1.1). Die Renaissance-Antiqua hat runde, nach links geneigte Serifen. Die Achse der Rundungen ist ebenfalls nach links geneigt, und die Strichstärke variiert kaum. Die Barock-Antiqua zeichnet sich durch eine größere Differenz in der Strichstärke aus als die Renaissance-Antiqua. Die Serifen dieser Gruppe sind feiner. Die Schriftachse bei Rundformen ist zumeist vertikal, und die Mittellänge ist relativ hoch. Die klassizistische Antiqua weist sehr große Unterschiede in der Strichstärke auf, die Serifen sind flach und horizontal angeordnet. Die Achse der Rundungen ist vertikal. Bei der serifenbetonten Linear-Antiqua gibt es in der Regel keine Unterschiede zwischen Haar- und Grundstrich. Auch die Serifen variieren nicht in der Strichstärke. Die serifenlose Linear-Antiqua hat ebenfalls eine gleichmäßige Strichstärke. Darüber hinaus - der Name weist daraufhin - fehlen die Serifen. Jeder Schrift kann eine eigene Schriftfamilie zugeordnet werden. So gibt es z.B. eine Times Roman (normal), eine Times Italic (kursiv), eine Times Bold (fett), eine Times Semi-Bold (halbfett) usw. Die einzelnen Schriftschnitte einer Familie sind jedoch keine simplen Variationen der Grundschrift: Ein Kursivschnitt ist keine schräggestellte Normalschrift, sondern weist in ihren An- und Abschwüngen durchaus einen eigenen Charakter auf.
Renaissance-Antiqua
Barock-Antiqua
Klassizistische Antiqua
Garamond
Caslon
Bodoni
Serifenbetonte Linear-Antiqua
Serifenlose Linear-Antiqua (Groteske)
Abb. 1.1: Schriftgruppen
Für die Lesbarkeit einer Schrift spielen ihre Größenverhältnisse eine wichtige Rolle (siehe Abbildung 1.2). Großbuchstaben nennt man Versalien, Kleinbuchstaben nennt man Gemeine. Die Versalhöhe entspricht der Höhe eines Großbuchstabens. Der Schriftgrad bezeichnet den Abstand von der Unterkante eines Buchstabens mit Unterlänge bis zur Oberkante eines Buchstabens mit Oberlänge. Die so genannte Mittellänge (auch x-Höhe) bezeichnet die Höhe von Gemeinen ohne Oberlänge. Die Oberlänge entspricht den oberen Elementen solcher Buchstaben wie k, l oder t. Entsprechend gibt es Unterlängen bei g, j oder y. Die Schriftlinie ist die Linie, auf der die Buchstaben (ohne Unterlängen) stehen. Die Einheit des typografischen Maßsystems ist der Punkt. Der typografische Punkt des Pariser Schriftgießers Ambroise Didot hat einen Durchmesser von 0,375 mm (früher 0,376 mm). Der amerikanische Punkt ist unwesentlich kleiner. Er misst 0,351 mm im Durchmesser. Mittlerweile hat sich der amerikanische
8
Textgestaltung
Punkt {Pico) auch in Europa durchgesetzt. 12 Punkt entsprechen einer Cicero (zum typografischen Maßsystem vgl. etwa Siemoneit 1989, 87f. oder Meissner 1992, 31 f.). Der Durchschuss bezeichnet den Abstand zwischen Schriftunterkante einer Zeile und Schriftoberkante in der Folgezeile. Der Zeilenabstand ist das Maß zwischen zwei Schriftlinien. Der Zeilenabstand hängt auch von der Mittellänge der Schrift ab: Eine kleine x-Höhe lässt den Durchschuss größer erscheinen. Schriften mit großer x-Höhe benötigen demzufolge auch einen größeren Zeilenabstand. Der optische Raum zwischen den Zeilen sollte in etwa den Mittellängen der verwendeten Schrift entsprechen.
Hyper Reality
Cyber
MrtteMnge
Scrtriftgròfì®
Abb. 1.2: Schriftmaße Zeilenabstand
Der Schriftgrad für die optimale Lesbarkeit einer Schrift liegt zwischen 10 und 12 Punkt. Auch eine hohe Mittellänge erhöht die Lesbarkeit der Schrift; die Schriften wirken dadurch größer. Die Lesbarkeit eines Textes hängt auch von der Breite der Spalte (Zeilenlänge) ab. Zu schmale Spalten verringern die Lesegeschwindigkeit, da das Auge von Zeile zu Zeile springen muss. Sehr breite Spalten hemmen den Lesefluss, weil das Auge Schwierigkeiten hat, den Anfang der nächsten Zeile zu finden. Die optimale Zeilenlänge liegt zwischen 50 und 60 Zeichen pro Zeile. Turtschi (1995, 102) sieht diese Faustregel aber lediglich auf Bücher oder ein- bis zweispaltige Texte anwendbar. Bei mehrspaltigem Satz (Zeitungen, Magazine) kann man von 30 bis 40 Zeichen pro Zeile ausgehen. Der Spaltenzwischenraum sollte zwischen 8 und 12 Punkt betragen. Zu geringer Zwischenraum kann dazu fuhren, dass der Leser in die nebenstehende Spalte hinüberliest. Zu große Zwischenräume bzw. Weißräume lassen die Spalten auseinander fallen. Weitere Möglichkeiten, die Lesbarkeit eines Textes zu steigern, sind das Ausgleichen und das Unterschneiden. Bei beiden Methoden werden die Buchstabenabstände verändert. Die Wortabstände bleiben gleich. Das Ausgleichen bezieht sich generell auf den Abstand aller Buchstaben eines Textes. Durch die Erhöhung dieses Abstandes (Sperren) kann insbesondere beim Versalsatz das Erfassen der einzelnen Buchstaben erleichtert werden. Die Laufweite einer Schrift wird aber nicht nur durch den Buchstabenabstand, sondern auch durch
Textgestaltung in den traditionellen Printmedien
9
den Wortabstand bestimmt. Bei gesperrtem Text muss deswegen der Wortabstand proportional zum Buchstabenabstand erhöht werden, weil die Wörter sonst fast nahtlos ineinander übergehen. Das Unterschneiden (Kerning) bezieht sich dagegen nur auf den Abstand bestimmter Buchstabenkombinationen. Versalien wie A, L oder T oder Gemeine wie v, w oder y haben an der Seite sehr viel freien Weißraum. Im Zusammenspiel mit anderen Buchstaben ergeben sich unangenehme Freiräume - so genannte Löcher im Satz (etwa bei Te, Ay oder vo. Der Lesefluss wird dadurch erheblich beeinträchtigt. Zeitungslesen sollte nicht ermüden. Der Fließtext muss leicht erfassbar sein. Vor allem die Untersuchungen Tinkers (1963) zur Lesbarkeit von Schriften haben gezeigt, dass serifenbetonte Schriften leichter und schneller zu erfassen sind als serifenlose. Einzelne Buchstaben oder Buchstabenkombinationen von serifenbetonten Schriften sind für das Auge besser voneinander zu unterscheiden als solche von serifenlosen Schriften (rn im Vergleich zu m). Diese Ergebnisse werden in einer breit angelegten Lesbarkeitsstudie (1982 bis 1986) von Wheildon bestätigt (Wheildon 1986, 17f.). Turtschi (1998b) bestreitet jedoch die These der besseren Lesbarkeit von Serifenschriften mit Verweis auf andere Einflussfaktoren: „Der Schriftcharakter allein gibt niemals eine Garantie für die Lesbarkeit. Es gibt sowohl schlecht als auch gut lesbare Antiquaschriften [...]." Auch wenn dieser Einwand empirisch nicht begründet ist, kann er im direkten Vergleich zweier Schriftarten - etwa einer Bodoni und einer Helvetica - durchaus Bestätigung finden. Zur Typografie gehört auch die Ausrichtung der Textblöcke. Neben dem Rauhsatz, dessen Zeilenlänge technisch bedingt ist, gibt es den Flattersatz und den Blocksatz. Die Zeilenlänge der Flattersätze richtet sich nach rhythmischen Gesetzen. Je nach Ausrichtung orientiert sich der Text am linken Spaltenrand, am rechten Spaltenrand oder an der Spaltenmittelachse. Beim Blocksatz ist der Zwischenraum zwischen den einzelnen Worten variabel. So haben alle Zeilen eine einheitliche Länge. Der Blocksatz ist bis heute die gebräuchlichste Satzart in Zeitungen und Büchern. Mehr und mehr findet aber auch der linksbündige Flattersatz Gebrauch. Er wirkt nicht so statisch wie der Blocksatz. Rechtsbündiger Flattersatz und Mittelachsensatz sind für längere Texte nicht geeignet, da das Auge große Schwierigkeiten hat, den Beginn der nächsten Zeile aufzufinden. Bezüglich der Lesbarkeit gelten Block- und linksbündiger Flattersatz als gleichrangig. Allerdings kommt der Silbentrennung beim Flattersatz eine ganz besondere Bedeutung zu: „Gute Trennungen tragen viel zur Lesefreundlichkeit bei. Logische Silbentrennungen werden problemlos überlesen, unlogische dagegen bilden optische Stolpersteine" (Turtschi 1995, 104). Generell kann gelten: Je weniger Trennungen, desto besser ist die Lesbarkeit. Allerdings kann der Verzicht auf Trennzeichen auch sehr unregelmäßige Zeilenenden erzeugen.
Textgestaltung
10
1.1.2. Textoptimierung und Textdesign Um Texte für den Leser verständlich und lesbar zu machen, bedarf es nicht nur typografischer Kenntnisse. Vielmehr muss auch die Struktur von Texten analysiert und optimiert werden. Der Trend zur Modularisierung von Informationen macht auch vor den klassischen Printmedien nicht Halt. Wurde vor einigen Jahren Text allenfalls mit Fotos ergänzt, spielen heute Infografiken, Tabellen und Zusammenfassungen eine immer größere Rolle. Diese Elemente müssen nicht nur optisch gestaltet, sondern auch inhaltlich und funktional aufeinander abgestimmt sein. Eine zentrale Bedeutung kommt dabei den Begriffen Textoptimierung und Textdesign zu. Aus instruktionspsychologischer Sicht können zwei wesentliche Modelle zur Textoptimierung unterschieden werden: das so genannte Hamburger Verständlichkeitsmodell und das Verständlichkeitsmodell von Groeben. Langer et al. (1974, 23) ermitteln im Hamburger Verständlichkeitsmodell vier grundlegende Verständlichkeitsdimensionen: Sprachliche Einfachheit, Gliederung/Ordnung, Kürze/Prägnanz und zusätzliche Stimulanz. Die Verständlichkeit eines Textes kann nach diesem Modell gemessen werden, indem für jede der vier Dimensionen eine Rating-Liste aufgestellt wird. Die Textmerkmale werden also nicht wie bei der traditionellen Lesbarkeitsforschung quantitativ erhoben, sondern durch Leserbefragung (empirisch-induktiv) ermittelt. Das Hamburger Verständlichkeitsmodell ist leicht anwendbar. Texte können unter Berücksichtigung der vier Verständlichkeitsdimensionen optimiert werden. Folgende Richtlinien sind dabei hilfreich: • • • •
Die Sätze sollten einfach und kurz sein. Geläufige Wörter sind ungeläufigen vorzuziehen Die Darstellung sollte übersichtlich und gut gegliedert sein Der Text sollte sich auf das Wesentliche beschränken, die Darstellung sollte kurz und knapp sein Die Darstellung sollte anregend, interessant und abwechslungsreich sein, sie sollte den Leser persönlich ansprechen
Untersuchungen haben belegt, dass die Verstehens- und Behaltenswerte der Leser durch eine Optimierung im Sinne dieser Kriterien deutlich gestiegen sind (vgl. Heijnk 1997, 110). Die Kritik am Hamburger Modell konzentriert sich dagegen auf die Theorielosigkeit des Ansatzes und die Problematik des RatingVerfahrens. Darüber hinaus kann Verständlichkeit nicht nur am Text selbst gemessen werden, sondern muss im Kontext der Text-Leser-Interaktion beurteilt werden. Im Gegensatz zum Hamburger Modell hat Groeben (1982) ein theoretisch-deduktives Verständlichkeitsmodell entwickelt, das die Voraussetzungen des Le-
Textgestaltung in den traditionellen Printmedien
11
sers beim Verstehen eines Textes mit berücksichtigt. Groeben unterscheidet genau wie Langer et al. vier unterschiedliche Verständlichkeitsdimensionen (Groeben 1982, 223 ff.): • • •
•
Grammatikalisch-stilistische Einfachheit (kurze Sätze und Worte, geläufige Begriffe, Aktiv-Sätze, Verzicht auf Nominalisierungen, keine Satzeinschübe) Semantische Redundanz (Satzglieder mit zentraler Bedeutung sollten inhaltlich wiederholt werden) Kognitive Gliederung/Ordnung (VorstrukturierungenA4ü?raHce Organizer, sequentielles Arrangieren, Zusammenfassungen, Hervorhebungen, Überschriften/Randbemerkungen, Fragen/Beispiele) Stimulierender kognitiver Konflikt (Darstellung alternativer Lösungsmöglichkeiten von Problemen, Vermittlung von Neuem und Überraschendem, Inkohärenz und Komplexität)
Verständlichkeit ist bei Groeben keine textimmanente Eigenschaft mehr, sondern muss im Zusammenspiel zwischen Text und Leser bewertet werden. Dabei ist zwischen Textverständlichkeit und Textverständnis zu unterscheiden. Die Textverständlichkeit bezieht sich auf die immanenten Textmerkmale, während das Textverständnis die Lesermerkmale berücksichtigt. Das Verständlichkeitsmodell von Groeben ist kritisiert worden, weil kognitive Textverstehensprozesse beim Leser nicht mit einbezogen werden. Der Prozess des Textverstehens ist jedoch ein überaus wichtiger Aspekt der Textrezeption. Nicki (2001) schreibt: Moderne, kognitive Theorien zum Textverstehen gehen davon aus, daß beim Lesen (und auch beim Hören) komplexe Verarbeitungsprozesse ablaufen, in der eine Vielzahl von Wissenssystemen aktiviert werden. Das Lesen ist also nicht mehr ein einfaches Entschlüsseln von Informationen, sondern der Aufbau eines Textverständnisses in einem Wechselspiel von Textinformation und eigenem sprachlichen und Faktenwissen. Der Leser versucht dabei, anhand seines Vorwissens Hypothesen über die Textbedeutung zu bilden und diese am Textmaterial zu prüfen. Gleichzeitig versucht er, ein zusammenhängendes Modell des Textmaterials zu erstellen und dieses in sein Vorwissen zu integrieren. Dieses Modell ist hierarchisch geordnet, an der Spitze steht das Textthema, unter das die Einzelinformationen eingeordnet werden. Der Aufbau des Modells geht schrittweise vor sich, es ist immer nur jeweils ein Teil aktiv, während andere Teile des Modells im Langzeitgedächtnis gelagert sind.
Textoptimierung kann generell auf drei Ebenen erfolgen. Auf Wortebene sollte man seine Wortwahl zielgruppenorientiert treffen (vgl. hierzu und zu den folgenden Kriterien Heijnk 1997, 133f.). Fremdwörter sollten möglichst vermieden werden. Ihr Gebrauch kann aber auch von der Zielgruppe abhängen. Darüber hinaus sollten Worte mit bereits eingeführter Bedeutung verwendet werden. Wörter, die in der Schriftsprache nicht vorkommen, sollten nicht eingesetzt wer-
Textgestaltung
12
den. Schließlich sollte man vor allem konkrete und anschauliche Wörter verwenden. Auf Satzebene sollten Nominalisierungen zugunsten von Verben vermieden werden (vgl. im folgenden Heijnk 1997, 138f.). Einfache Sätze sind komplizierten Satzstrukturen vorzuziehen. Eingeschobene Nebensätze sollten vermieden oder zumindest kurz gehalten werden. Auf doppelte Negationen sollte man verzichten. Aktivische Sätze sind Passiv-Sätzen vorzuziehen. Auf der Ebene der Textstrukturen formuliert Heijnk (1997, 141 f.) folgende Richtlinien: Längere Texte sollten mit einer Zusammenfassung eingeleitet oder abgeschlossen werden. Vorangestellte Zusammenfassungen liefern „Anknüpfungspunkte für die Verarbeitung nachfolgender Informationen. Nachgestellte Zusammenfassungen stabilisieren die gerade verarbeiteten Informationen und schützen diese vor dem schnellen Vergessen" (Heijnk 1997, 145). Innerhalb des Textes sollten Informationen stets auf vorangehende Informationen Bezug nehmen. Der Leser sollte erkennen können, wie bestimmte Textabschnitte zusammenhängen und welche Funktion sie haben. Die grafische und typografische Gestaltung (Absätze, Gliederung, Trennlinien etc.) kann die Informationsverarbeitung durch den Leser erleichtern. Schlüsselbegriffe können typografisch hervorgehoben werden. Generell sollte sich die innere Textstruktur im äußeren Erscheinungsbild des Textes widerspiegeln. Neben der Textoptimierung und Textverständlichkeit kommt gerade dem Zusammenspiel von Inhalt und formaler Gestaltung eine große Bedeutung zu: dem Textdesign. Bucher (1996, 33) definiert Textdesign als „Strategie, um die Lücke zwischen Layout und Text, zwischen Seitengestaltung und Beitragsgestaltung, zwischen Inhalt und Form zu schließen". Modernes Textdesign reagiert vor allem auf die veränderten Rezeptionsbedingungen von Zeitungs- und Zeitschriftenlesern in den letzten Jahren. Kürzere Lesezeiten, geringere Reichweiten und gestiegene Anforderungen an die Serviceleistungen haben die Verlage zu strategischen Kurskorrekturen gezwungen. Der Trend zur Visualisierung und zur Modularisierung im Printbereich ist vor allem aber auch eine Reaktion auf die neuen Möglichkeiten der Informationsdarstellung und Rezeptionsbedingungen in den digitalen Medien und im Fernsehen. Der Leser erwartet kurze, knappe Informationen. Er will sich schnell orientieren und legt Wert auf Übersichtlichkeit. Er möchte Informationen nicht nur über Text, sondern auch mittels Bild oder Grafik erschließen können. Blum/Bucher (1997, 16) machen fünf wichtige Trends in der jüngeren Zeitungsentwicklung aus: 1.
Die Wissens- und Informationsentwicklung in den Printmedien entwickelt sich von der Einkanaligkeit zur Mehrkanaligkeit: Statt hauptsächlich mit Texten wird die Information verstärkt auch in Bildern und Grafiken präsentiert, und zwar nicht zufallig, sondern systematisch.
Textgestaltung in den traditionellen Printmedien 2.
13
Komplexe Formen der Berichterstattung werden durch segmentierte Formen abgelöst. Aus dem Langtext wird ein modulares Cluster aus verschiedenen visuellen und textlichen Darstellungsebenen. Diese modularen Einheiten können für sich alleine stehen oder ein abgestimmtes Informationspaket bilden.
3.
Die Berichterstattung in den Zeitungen wandelt sich v o m Informations- zum Bedeutungsjournalismus. Die reine Faktenvermittlung wird den schnelleren Medien zugestanden, die Einordnung, Kommentierung und perspektivische Aufbereitung der Information wird dagegen als genuine Aufgabe der Printmedien gesehen, gewissermaßen als ihre Komplementärleistung gegenüber Rundfunk und Fernsehen.
4.
Zeitungen werden zunehmend nicht mehr für den Durchleser, sondern für den Anleser und den selektiven Leser gestaltet (vergleichbar mit dem Wandel des Hörfunks vom Einschalt- zum Nebenbei-Medium).
5.
Die Informationsfunktion der Zeitungen wird ergänzt durch eine Unterhaltungsund Servicefunktion.
Bucher (1998, 68) stellt fest, dass sich diese Trends konsequent in den OnlineZeitungen fortsetzen und die elektronische Zeitung mediengeschichtlich in Tradition zur gedruckten steht. Allerdings haben sich einige der Strategien erst mit Aufkommen der Online-Zeitungen etabliert, etwa die multimediale Darstellung von Information und das umfangreiche Service- und Unterhaltungsangebot. Folgende Mittel können generell hilfreich sein, um Texte für die Printmedien im Sinne der formulierten Richtlinien umzusetzen: Portionieren, Orientieren und Strukturieren. Die Portionierung oder Modularisierung eines Themas richtet sowohl nach inhaltlichen als auch gestalterischen Kriterien. Blum/Bucher (1997, 25f.) sehen vier wesentliche Herangehensweisen zur Zerlegung von Informationen: Im Sinne einer funktionalen Portionierung muss sich der Autor eines Textes fragen, mit welchen Textsorten oder welchen anderen Kommunikationsmitteln (Bild/Grafik) welche kommunikativen Zwecke verfolgt werden können. „Grundlage dieser Form der Modularisierung sind die journalistischen Darstellungsund Handlungsformen" (Bucher 1997, 86). Nach der thematischen Vorgehensweise muss geklärt werden, in welche Teilthemen sich das Hauptthema zerlegen lässt. Die dritte Möglichkeit besteht darin, nach den perspektivischen Zugängen zum Thema zu fragen. Welche Sichtweisen sollen wiedergegeben werden (Betroffene, Experten, Zeugen etc.)? Schließlich kann auch eine strategische Herangehensweise berücksichtigt werden: Aktuelle Informationen stehen an exponierter Stelle, Hintergrundinformationen werden an weniger exponierter Stelle positioniert. Große Informationsmengen können in so genannte Cluster oder Chunks, thematisch zusammengehörende Einheiten, aufgeteilt werden. Die Cluster selbst müssen zum einen inhaltlich und optisch Bezug aufeinander nehmen. Zum anderen muss eine hierarchische Ordnung der Einheiten erkennbar sein. Diese Hierarchisierung kann durch grafische oder typografische Auszeichnungen oder auch durch die Platzierung auf der Seite transparent gemacht werden. Eine große Informationsmenge (zu einem zusammenhängendem Thema) kann etwa in folgen-
14
Textgestaltung
de Textsorten bzw. Kommunikationsmittel aufgeteilt werden: Haupttext mit Überschrift (Feature, Hintergrundbeitrag, Reportage etc.), Nebentexte mit Überschriften (Kommentar, Glosse, Interview, Infotext, Meldung etc.), Fotos mit Bildunterschriften (Hauptfoto, Begleitfotos), Infografiken, Logotypen etc. Die Beiträge selbst können mit Hilfe von Zusammenfassungen, Vorspännen, Zwischenüberschriften und (typo)grafischen Elementen strukturiert werden. Insbesondere Überschriften und Vorspännen kommt eine bedeutende Orientierungsfunktion zu. Für Blum/Bucher (1997, 30) bilden diese beiden Elemente die entscheidende Voraussetzung für das selektive Lesen: „In ihrer Doppelfunktion bilden Überschrift und Vorspann die Schnittstelle zwischen der Seitenarchitektur und dem Einzelbeitrag, zwischen Layout und Information, zwischen Makrostruktur und Mikrostruktur einer Zeitung." Die Überschrift hat dabei folgende Aufgaben: Sie kann Inhalte zusammenfassen, sie kann Beiträge kategorisieren, sie bildet eine Brücke zum Text, und sie gewährleistet als festes Artikelelement eine übersichtliche Seitenstruktur (vgl. Harrower 2002, 23). Auch der Vorspann dient dazu, das Interesse des Lesers auf den eigentlichen Text zu lenken. „Vor allem bei [...] Nachricht und Bericht bündelt er die wesentlichen Fakten, Informationen und Zusammenhänge des Ereignisses oder Tatbestandes [...]. Bei Reportagen, Features und Stories hat der Vorspann die Aufgabe, den Leser durch einen attraktiven Einstieg in die Geschichte zu ziehen" (Meissner 1992, 123f.). Darüber hinaus dient der Vorspann der inhaltlichen Vorstrukturierung des Artikels. Neben Überschrift und Vorspann sind auch Zwischentitel ein probates Mittel, um Texte zu strukturieren und aufzulockern. Mit Verweis auf eine Blickverlaufsstudie des Poynter-Instituts heben Blum/Bucher (1997, 30) ihre Bedeutung als Einstiegspunkte für Querleser und Quereinsteiger von Texten hervor.
1.2. Textgestaltung in den digitalen Medien 1.2.1. Digitale Typografie und Lesbarkeit Wenn Informationen mit Hilfe von Videoclips, Audioclips, Bildern, Grafiken oder Animationen dargestellt werden können, sollte auf den exzessiven Einsatz von Text verzichtet werden. Dieser Grundsatz gilt auch und gerade für die Kommunikation in den digitalen Medien. Trotzdem wird man auch bei der multimedialen Informationsvermittlung nicht umhin kommen, mit Texten zu arbeiten. Dabei ist es unerlässlich, einige spezifische technische, systembedingte und gestalterische Grundsätze zu beachten. Eine Besonderheit bei der typografisehen Gestaltung von digitalen Informationen liegt in der Art, wie der Bildschirm Farben darstellt. Dadurch, dass der Monitor Licht direkt und aktiv ausstrahlt und Farben durch Addition von Rot-,
Textgestaltung in den digitalen Printmedien
15
Grün- und Blautönen erzeugt, können Bildschirmbilder einen höheren Kontrast aufweisen als gedruckte Dokumente. Während schwarze Schrift auf weißem Grund bei Zeitungen und Büchern die Regel darstellt, kann bei digitalen Dokumenten eine leichte Tönung des Hintergrundes sinnvoll sein, um einen allzu hohen Kontrast abzumildern. Dadurch wird die Lesbarkeit des Textes gesteigert. Eine im Jahr 1997 durchgeführte Lesbarkeitsstudie (Hill/Scharff 1997) belegt allerdings, dass auch auf Monitoren schwarzer Text auf weißem Grund am schnellsten zu erfassen ist - sowohl für kurze als auch für längere Texte. Knapp dahinter liegen die Kombinationen Schwarz/Grau und Blau/Weiß. Rot/Grün und Magenta/Blau sind am schlechtesten zu erfassen. Negativ gesetzte Schrift ist für längere Textpassagen ebenfalls nicht geeignet, da das Auge beim Lesen schnell ermüdet. Das gilt auch für Komplementärkontraste und Kombinationen von farbigem Text auf grauem Grund: „Bei Komplementärfarben besteht die Gefahr des Flimmerkontrastes, vor allem bei Rot- und Grüntönen mit gleichen Helligkeitswerten. [...] Der Einsatz farbiger Schrift auf grauen Hintergründen ist wegen des Simultankontrastes sehr problematisch. Der Simultankontrast erzeugt auf der Netzhaut des menschlichen Auges die Komplementärfarbe und führt damit zu flimmernder Randunschärfe" (Fröbisch et al. 1997, 145). Zwar sind Serifenschriften in gedruckten Dokumenten besser und schneller zu lesen als serifenlose Schriften. Doch bei der Schriftdarstellung auf Computerbildschirmen müssen qualitative Abstriche gemacht werden. Im Gegensatz zu gedruckten Dokumenten, die in Auflösungen von bis zu 2540 dpi vorliegen, schaffen Monitore gerade einmal zwischen 72 bis 96 dpi. Insbesondere bei kleinen Schriftgraden kann die Anmutung des Schriftschnittes durch den so genannten Pixeleffekt stark beeinträchtigt werden. Abhilfe kann bestenfalls die Kantenglättung (Antialiasing) schaffen, bei der die Treppenstufen der Buchstaben mit Graustufen gefüllt werden. Allerdings weicht die Kantenglättung das Schriftbild etwas auf, und die einzelnen Buchstaben werden breiter (vgl. Fröbisch et al. 1997, 129). Hier kann die Erhöhung der Laufweite zu einer besseren Lesbarkeit beitragen. Kantenglättung empfiehlt sich generell für größere Schriftgrade ab 12 Punkt. Unter 12 Punkt sind nicht geglättete Schriften oft besser zu lesen. Ein weiteres Problem der multimedialen Schriftgestaltung liegt darin, dass Serifen bei geringen Monitorauflösungen nur unzureichend dargestellt werden können. Aus diesen Gründen empfiehlt es sich, beim Fließtext auf Groteskschriften zurückzugreifen. Eine neue Untersuchung aus dem Jahr 2001 belegt, dass serifenlose Schriften auf Monitoren sehr viel schneller gelesen werden können als Serifenschriften (Wilson 2001). Interessant ist auch das Ergebnis, dass die eigens für das WWW entwickelte Verdana bei einer Größe von 12 Punkt schlechter zu lesen ist als die Arial. Erst bei kleinen Größen (10 Punkt) haben die Testleser der Verdana den Vorzug erteilt. Eine andere Studie von Bernard et al. (2001), bei der zwölf unterschiedliche Schriften getestet wurden (Agency, Arial, Comic, Tahoma, Verdana, Courier, Georgia, Goudy, Schoolbook, Times, Brad-
16
Textgestaltung
ley, Corsiva), ergibt bezüglich der Lesbarkeit folgende Rangfolge: Courier, Comic, Verdana, Georgia, Times. Auch bei der elektronischen Informationsvermittlung ist typografische Konsistenz oberstes Gebot. Das gilt sowohl für die Gestaltung der textbasierten Inhalte als auch für das Design der Navigationselemente. Gerade bei der Navigationstypografie sollte eine einzige Schriftfamilie ausreichen. Zu viele und zu unterschiedliche Schriften fuhren zu einer unübersichtlichen Benutzerführung. Kommt man nicht umhin, zwei unterschiedliche Schriftarten einzusetzen, müssen die Schriftkombinationen sehr sorgfältig ausgewählt werden. Schriften gleicher Schriftgruppen dürfen nicht gemischt werden; sie sind sich zu ähnlich und weisen doch markante Unterschiede auf. Gliederungsebenen gleicher Ordnung sind immer gleich darzustellen. Die typografische Darstellung soll die inhaltliche Gliederung transparent machen. Kombinationen von Kursiv-, Fett- oder unterstrichener Schrift sind - analog zu den Richtlinien der Printtypografie - zu vermeiden. Abgesehen davon, dass Unterstreichungen nicht mehr zeitgemäß sind, sind unterstrichene Begriffe beim Online-Publizieren von vornherein mit der Bedeutung eines Hyperlinks belegt. 1.2.2. Schreiben für W e b und Multimedia Im vorhergehenden Abschnitt wurde gezeigt, dass bei der typografischen Gestaltung von Multimediatexten einige spezifische Besonderheiten beachtet werden müssen. Spezielle Gestaltungskriterien für Print- und Multimediatexte gibt es jedoch auch in Bezug auf das Textdesign. Insbesondere im Bereich des OnlinePublishing haben sich hier Formen der Textmodularisierung herausgebildet, die in der Literatur unter dem Begriff Web Writing zusammengefasst werden. Beim Verfassen von Texten für das WWW müssen in erster Linie die hypertextuellen Möglichkeiten des Mediums und die unterschiedlichen Nutzungsgewohnheiten der Anwender berücksichtigt werden. Eine neuere Studie des Poynter-Instituts und der Universität Stanford belegt, dass sich Besucher von Nachrichtenangeboten im Web in erster Linie an Textinformationen orientieren (Stanford/Poynter 2000). Die Untersuchung der Blickverläufe hat ergeben, dass die ersten Augenfixationen auf Überschriften oder Zusammenfassungen liegen. Erst danach wendet sich der Blick Bildern bzw. Grafiken zu. Diese Ergebnisse sind insofern überraschend, als Blickverlaufsuntersuchungen im Printbereich (etwa bei Zeitungen) gezeigt haben, dass der Leser in der Regel über Bilder auf eine Seite einsteigt. Die Autoren der Stanford-PoynterStudie weisen darauf hin, dass der Einstieg über den Text bei Web-Angeboten auch damit zusammenhängen könnte, dass beim Laden einer HTML-Datei Texte zumeist vor Bildern aufgebaut werden. Eine weitere, wenn auch weniger überraschende Erkenntnis dieser Untersuchung ist, dass Leser von Online-Angeboten Texte vor allem überfliegen und
Textgestaltung in den digitalen Printmedien
17
nicht durchlesen. Wenn überhaupt, dann werden Zusammenfassungen gelesen. Komplette Texte werden zumeist nicht durch-, sondern quergelesen (Im Englischen hat sich hier der Begriff des Scanning etabliert). Die Ergebnisse der Stanford-Poynter-Studie zeigen, dass beim Scannen von Texten nur 75 Prozent des Gesamttextes erfasst werden. Ältere Untersuchungen, etwa von Nielsen, belegen darüber hinaus, dass Texte in den digitalen Medien bis zu 25 Prozent langsamer gelesen werden als gedruckte Texte (vgl. dazu auch Nielsen 2000, 101). Text ist also einerseits ein überaus wichtiges Kommunikationsmittel, von dem sich der Leser auch im Multimediabereich nicht abwendet. Andererseits ist die Lesbarkeit von digitalen Texten sehr viel geringer als die von gedruckten. Dadurch ergeben sich neben den bereits diskutierten typografischen Anforderungen auch Konsequenzen für Autoren: Texte müssen gekürzt, umstrukturiert und modularisiert werden. Nielsen (2000, 101) nennt in diesem Zusammenhang drei wichtige Richtlinien für das Verfassen von Texten für das WWW: •
Fasse dich kurz. Man soll nicht mehr als 50 Prozent des Textes schreiben, den man für ein gedrucktes Buch über das gleiche Material verwenden würde.
•
Unterteile lesefreundlich. Es ist den Benutzern nicht zuzumuten, langgezogene Textabschnitte zu lesen, sondern das Material ist in kurze Absätze, Untergruppierungen und Listen aufzuteilen.
•
Verwende Hypertext, um die Informationen auf mehrere Seiten zu verteilen.
Im folgenden sollen - ausgehend von diesen Grundsätzen - die elementaren Bausteine für Web- und Multimediatexte erläutert werden. Überschriften sind dabei mit Sicherheit die wichtigsten Elemente. Sie sollten klar und eindeutig formuliert sein. Sie müssen kurz und sachlich sein und sich auf den eigentlichen Text beziehen (vgl. etwa Petersen 2001 oder Nielsen 2000, 124f.). Sprachspiele oder Ironie, für deren Entschlüsselung der Leser mehr Zeit benötigt, sind hier weit weniger gefragt als schnelle, verständliche Informationsvermittlung. Neben den Hauptüberschriften bieten sich zur Gliederung und Strukturierung von Texten auch Zwischenüberschriften an. Diese Zwischentitel sollten genau wie die Hauptüberschrift kurz und prägnant formuliert sein und auf die nachfolgenden Abschnitte des Textes inhaltlich Bezug nehmen. Zusammenfassungen oder Vorspanntexte (Lead, Appetizer, Teaser) sind die zweitwichtigsten Textbausteine. Sie folgen unmittelbar der Hauptüberschrift und geben in kurzen, klaren Sätzen die relevanten Informationen des Beitrags wieder. Zusammenfassungen sind Teil des Prinzips der umgekehrten Pyramide. Am Anfang steht die wichtigste Erkenntnis des Textes. Dann folgen Detailinformationen zu jeder weiteren Kernaussage des Beitrags und zuletzt Hintergrundinformationen. Dieses Prinzip unterstützt das Überfliegen von Texten. Leser, die scannen, können so die relevanten Schlüsselbegriffe eines Artikels schnell erfassen und sich einen Überblick zum Thema verschaffen. Eine besondere Form des
18
Textgestaltung
Vorspanns ist der Advance Organizer. Er wird vor allem bei der Vermittlung von Lehrinhalten eingesetzt. Er ist eine kurze Zusammenfassung des Inhaltes, der auf das Vorwissen des Lesers Bezug nimmt und so die Brücke zu neuen Inhalten schlägt. Das Prinzip der umgekehrten Pyramide kann auch auf jeden einzelnen Textabschnitt angewendet werden. Pro Absatz sollte generell nur eine Kernaussage formuliert werden, wobei der erste Satz des Absatzes diese Aussage zusammenfassen sollte (vgl. Petersen 2001). Die Stanford-Poynter-Studie hat gezeigt, dass Leser, die Beiträge überfliegen, oft nur den ersten Satz eines Absatzes lesen. Auch Listen und interaktive Indices sind hilfreiche Mittel, Texte zu strukturieren. Lange Sätze werden auf wenige, prägnante Begriffe reduziert. Darüber hinaus heben sich Listen typografisch von anderen Textbausteinen ab. Eine weitere Möglichkeit, das Überfliegen von Texten zu erleichtern, ist die Heraushebung von Schlüsselbegriffen mit Hilfe typografischer Textauszeichnungen. Dabei hat sich vor allem die Fettung durchgesetzt, während Kursivschrift aufgrund der Treppenbildung sehr viel schwerer zu lesen ist. Allerdings können zu viele Heraushebungen den Lesefluss unterbrechen und die Lesegeschwindigkeit beeinträchtigen. Auf Satz- und Wortebene können Kürzungen ebenfalls hilfreich sein: „Don't be tender with your text, but be tender with visitors who read it. That means writing ,use' instead of,utilize', which is identical in meaning but has two more syllables. It means writing .decided' instead of ,made a decision'. And cutting whole paragraphs of non-essential information. Every word and phrase should have to fight for its life" (Kilian 2001). Kürzung und Modularisierung bedeuten jedoch keinesfalls, dass Informationen in Multimediatexten generell weggelassen werden sollen. Vielmehr muss es möglich sein, das Informationsangebot mit den Bedürfnissen des Nutzers abzustimmen. Dabei kann gerade das modulare Prinzip eine große Hilfe sein: Hintergrund- und Zusatzinformationen können ausgelagert und bei Bedarf über Verweise aufgerufen werden. Die Informationsdichte kann dabei sukzessive erweitert werden. Auf der anderen Seite birgt ein vernetztes Modulsystem aber auch Gefahren in sich. Weder kann der Anwender abschätzen, wie viel Informationen auf einem Zielknoten zur Verfügung stehen. Noch lässt sich anhand eines einfachen Textverweises genau ablesen, welcher Art die ausgelagerten Informationen sind.
2. Gestalttheoretische Grundlagen der visuellen Kommunikation Gestalttheorie ist eine facherübergreifende allgemeine Theorie, die den Rahmen für unterschiedliche psychologische Erkenntnisse und deren Anwendung darstellt. Der Mensch wird dabei als offenes System verstanden; er steht aktiv in der Auseinandersetzung mit seiner Umwelt. Sie ist insbesondere ein Ansatz zum Verständnis der Entstehung von Ordnung im psychischen Geschehen und hat ihren Ursprung in den Erkenntnissen von Johann Wolfgang von Goethe, Ernst Mach und besonders Christian von Ehrenfels und den Forschungsarbeiten von Max Wertheimer, Wolfgang Köhler, Kurt Koffka und Kurt Lewin, die sich gegen die Elementenauffassung des Psychischen, den Assoziationismus, die behavioristische und triebtheoretische Sicht wandten.
{Gesellschaft fiir Gestalitheorie und ihre Anwendungen) Als Teilbereich der Wahrnehmungspsychologie hat die Gestaltpsychologie (oder Gestalttheorie) bereits in den 20er Jahren großen Einfluss auf die Erforschung der menschlichen Wahrnehmungsprozesse gehabt. Der Gestaltpsychologie liegt die Frage zu Grunde, wie die Dinge, die wir w a h r n e h m e n , aussehen und warum sie so aussehen, wie sie aussehen. U m diese Frage beantworten zu können, müssen nicht nur die entsprechenden Reizgrundlagen einzelner Objekte geklärt werden, sondern auch ihr Verhältnis zur Gesamtstruktur der jeweiligen Reizverhältnisse. Der Satz „Das Ganze ist mehr als die S u m m e seiner Teile" wurde damit zwangsläufig zur Grundregel der Gestaltpsychologen. Denn die W a h r n e h m u n g eines Teils eines Reizmusters wird von seinen anderen Teilen beeinflusst. Zentral sind dabei nicht die einzelnen Sinnesreize, sondern die sich gegenseitig bedingenden Wechselbeziehungen. „Die jeweilige Wahrnehmungsstruktur geht aus der Reizstruktur dadurch hervor, daß das in der Reizstruktur vorhandene Rohmaterial nach einer Reihe von vorgegebenen (Gestalt-)Gesetzen und -Prinzipien organisiert wird. [...] Als Gestaltgesetze der W a h r n e h m u n g werden die Regeln bezeichnet, nach denen sich die räumliche und/oder zeitliche Struktur wahrgenommener Gebilde richtet" (Prinz 1992, 45f.). Dieser konstruktive Ansatz der Gestalttheorie, insbesondere das Ordnungsprinzip der Gestaltgesetze, dient nicht nur der Analyse von W a h r n e h m u n g , sondern kann auch bei der Organisation und Produktion von visuellen Kommunikationsmitteln eine wichtige Hilfestellung leisten. Der Gestaltpsychologie ist oft vorgeworfen worden, dass sie die in den Gestaltgesetzen aufgezeigten Phänomene nur beschreiben, aber nicht erklären kann.
20
Gestalttheoretische Grundlagen der visuellen Kommunikation
Darüber hinaus ist sie nach Einschätzung der Kritiker nicht in der Lage, konkrete Vorhersagen für die Wirksamkeit der Prinzipien in neuen (und weniger experimentellen) Anwendungsfallen zu treffen. Trotz dieser Kritik ist der Einfluss der Gestalttheorie auf die Wahrnehmungspsychologie aber unbestritten. Und gerade im Bereich der visuellen Kommunikation ist die praktische Anwendbarkeit der Prinzipien von großer Bedeutung. Konkrete Verwendung finden die Gestaltgesetze etwa beim Design von Benutzeroberflächen. Die Gesetze der Prägnanz, Nähe und Ähnlichkeit spielen eine wichtige Rolle beim Entwurf des Layoutrasters (siehe Kapitel 6.2.3.). Das FigurGrund-Prinzip ist eine feste Größe beim Entwurf von Icons (siehe Kapitel 4.2.). Icons müssen sich generell vom Hintergrund abheben - durch ihre Form oder Umrisslinien. Icons werden normalerweise in Bedieneinheiten zusammengefasst. Dabei müssen die Gesetze der Ähnlichkeit und Nähe beachtet werden. Schließlich kommen die Gesetze der fortgesetzt durchgehenden Linie und des gemeinsamen Schicksals zur Anwendung, wenn der Blick des Benutzers geführt werden soll. In Abschnitt 2.1. sollen zunächst das Figur-Grund-Prinzip und seine charakteristischen Merkmale vorgestellt werden. Die eigentlichen Gestaltgesetze werden in Abschnitt 2.2. vorgestellt. Ihnen ist allen gemeinsam, dass bestimmte visuelle Reize von unserer Wahrnehmung zu gestalterischen Einheiten zusammengefasst werden. Schließlich soll in Abschnitt 2.3. gezeigt werden, wie unser Wahrnehmungsapparat auch ohne entsprechende Reizgrundlage visuelle Informationen erzeugt bzw. ergänzt.
2.1. Das Prinzip von Figur und Grund Das Prinzip von Figur und Grund basiert auf einem Wahrnehmungsmechanismus, der unser Gesichtsfeld automatisch in stabile Referenzpunkte einteilt und solche, die wir für weniger beständig halten (vgl. Zettl 1999, 99). Die drei Teilflächen in der Abbildung unten links werden nicht als gleichartig wahrgenommen. Vielmehr nehmen wir die Flächen 1 und 2 als Figuren wahr, während Fläche 3 als Hintergrund gesehen wird. Die Figur-Grund-Beziehung ist kontextabhängig und hierarchisch. Der Grund
3 Abb. 2.1: Figur-Grund-Prinzip (links) und zu Grunde liegende Gestaltgesetze (rechts)
Gruppierung zu gestalterischen Einheiten
21
ändert sich in Relation zur Figur - j e nachdem, wie diese bestimmt wird. Würde man die gesamte Abbildung mit einem neuen, größeren Rahmen versehen, dann würden wir den neuen Rahmen als Grund wahrnehmen und den bisherigen als Figur (im Prinzip kann jede Abbildung in diesem Buch als Figur und die weiße Seite als Grund betrachtet werden). Nicht immer ist ein Muster jedoch eindeutig als Figur und das andere als Grund auszumachen. Bei den so genannten Kippbildern (das bekannteste Beispiel ist das Gesichter-Vase-Bild des dänischen Psychologen Edgar Rubin) hängt die Figur-Grund-Beziehung davon ab, worauf wir unseren Blick konzentrieren. Die Beziehung ist reversibel. Die Figur-Grund-Beziehung hat folgende charakteristischen Merkmale (vgl. etwa Goldstein 1997, 176f.; Guski 1989, 54 oder Zettl 1999, 100): • • • • •
Die Figur wird als Objekt wahrgenommen, während der Grund Teil der Bildfläche ist Die Figur liegt vor dem Grund Die Linien, die die Figur vom Grund abgrenzen, gehören zur Figur, nicht zum Hintergrund Die Figur ist weniger stabil als der Hintergrund; die Wahrscheinlichkeit, dass sie sich bewegt, ist viel höher als beim Grund Der Grund scheint hinter der Figur weiterzugehen
Diese Charakteristika gehen auf ganz bestimmte Strukturprinzipien der Wahrnehmung zurück. Zu nennen ist in erster Linie das Prinzip der Geschlossenheit. Demnach werden geschlossene Flächen eher als Figur gedeutet als offene Flächen oder Linien. Teilflächen, die im Vergleich zu ihrer Umgebung relativ klein, symmetrisch oder ebenbreit sind, tendieren ebenfalls dazu, Figurcharakter anzunehmen (siehe Abbildung 2.1 rechts, vgl. Prinz 1990, 46).
2.2. Gruppierung zu gestalterischen Einheiten Das Gesetz der Prägnanz (auch Gesetz der Einfachheit oder guten Gestalt) ist das zentrale Gesetz der Gestaltpsychologie. Es bildet den Rahmen f ü r alle anderen Gesetze. Es lautet: Jedes Reizmuster wird so gesehen, dass die resultierende Struktur so einfach wie möglich ist. Abbildung 2.2 zeigt zwei Beispiele. In der oberen Reihe ist links ein unregelmäßiges Vieleck ohne Begrenzungslinien (1) dargestellt. Wir nehmen dieses Vieleck jedoch nicht als komplizierte Figur wahr (2), sondern als übereinander liegende getrennte, einfache Figuren (3 oder 4). Das zweite Beispiel in der unteren Reihe zeigt eine komplexe Figur mit Umrisslinien (5). Unser Wahrnehmung tendiert auch hier dazu, möglichst einfache Formen zu entschlüsseln, nämlich ein Quadrat und einen Kreis (7). Es ist sehr unwahrscheinlich, dass wir weitaus kompliziertere Segmente entschlüsseln, etwa Tortenstücke oder ähnliches (6).
22
Gestalttheoretische Grundlagen der visuellen Kommunikation
Abb. 2.2: Gesetz der Prägnanz
Das Gesetz der Ähnlichkeit besagt, dass in einer komplexen Reizsituation unter sonst gleichen Bedingungen diejenigen Elemente zu einer Einheit organisiert werden, die sich ähnlich sind (vgl. Guski 1989, 55). Bei der visuellen Wahrnehmung (einige Gestaltgesetze lassen sich auch auf die akustische Wahrnehmung anwenden) bezieht sich das Kriterium der Ähnlichkeit auf die visuellen Merkmale Form, Farbe, Helligkeit, Größe, Anordnung, Textur, Richtung, Räumlichkeit, Bewegung (vgl. Kapitel 4.1.). In Abbildung 2.3 nehmen wir im ersten Beispiel vertikale Linien und im zweiten Beispiel horizontale Linien wahr, obwohl der Abstand der einzelnen Elemente immer gleich ist. Auch im dritten Beispiel wird deutlich, dass sich ähnliche Elemente zu Gruppen zusammenfügen.
Abb. 2.3: Gesetz der Ähnlichkeit
Nach dem Gesetz der Nähe erscheinen Elemente, die sich nahe beieinander befinden, als zusammengehörig. Die Gruppierung hat dort ihre Grenze, wo der Abstand zu anderen Elementen größer wird (vgl. Guski 1996, 29). Abbildung 2.4 zeigt im linken Beispiel, dass unsere Wahrnehmung die Quadrate zu horizontalen Gruppen anordnet. Ersetzt man jede zweite Spalte durch gleich große Kreise, nehmen wir nach wie vor horizontale Gestalten wahr, da der horizontale Abstand mehr als doppelt so groß ist wie der vertikale (Verhältnis 5:2). Ist der Abstand zwischen ähnlichen Elementen genau doppelt so groß wie der zwischen unterschiedlichen Elementen, tritt ein Konkurrenzverhältnis zwischen den Gesetzen der Ähnlichkeit und Nähe ein.
23
Gruppierung zu gestalterischen Einheiten
•• •• •• •• •• •• •• •• •• •• •• ••
•• •• •• ••
•• •• •• ••
•• •• •• ••
•• •• •• ••
•• •• •• ••
•• •• •• ••
Abb. 2.4: Gesetz der Nähe
Im dritten Beispiel ist folglich sehr schwer auszumachen, ob wir horizontale Gestalten (nach dem Gesetz der Ähnlichkeit) oder vertikale Gestalten (nach dem Gesetz der Nähe) wahrnehmen. Guski (1996, 30) weist daraufhin, dass in einem solchen Fall nach Einschätzung der Gestaltpsychologen „das Prinzip der Ähnlichkeit gegenüber dem der Nähe überwiegt. Allerdings ist es nicht möglich, diese Behauptung zu prüfen, weil diese Prüfung voraussetzt, daß wir einen gemeinsamen Maßstab für Nähe und Ähnlichkeit haben."
Abb. 2.5: Gesetz der fortgesetzt durchgehenden Linie
Das Gesetz der fortgesetzt durchgehenden Linie besagt, dass Linien tendenziell so gesehen werden, als folgten sie dem einfachsten Weg (Goldstein 1997, 173). Abbildung 2.5 zeigt links oben ein Gebilde (1), das wir als zwei sich kreuzende Linien wahrnehmen (3). Es ist nahezu ausgeschlossen, dass unser Wahrnehmungsapparat die Linien im Sinne von Beispiel 2 interpretiert. Rechts ist ein Ausschnitt aus der Benutzeroberfläche eines digitalen Informationssystems dargestellt. Auch hier lässt sich das Prinzip der Linienfortsetzung erkennen. Linien oder Muster, die einem gemeinsamen Verlauf folgen, werden als gestalterische Einheit wahrgenommen. „So ungenau die Formulierung hinsichtlich der Wörter g e m e i n s a m ' und .Schicksal' auch sein mag, das Prinzip besagt letztlich, daß unser Wahrnehmungssystem automatisch Regeln erkennt, nach denen ein statischer oder dynamischer Reiz konstruiert ist; und die Regeln schließen
24
Gestalttheoretische Grundlagen der visuellen Kommunikation
Abweichungen vom Grundprinzip bzw. Transformationen und Variationen ein" (Guski 1989, 57). Das Gesetz des gemeinsamen Schicksals ist verwandt mit den Gesetzen der Prägnanz und Ähnlichkeit, lässt sich aber im Besonderen auf dynamische, bewegte Objekte anwenden. In Abbildung 2.6 sind zwei Fußballspieler zu sehen. Sie werden als zusammengehörende Gruppe wahrgenommen, weil sie sich zum einen nahe sind und eine ähnliche Orientierung haben, zum anderen, weil sie sich beide in dieselbe Richtung bewegen.
Nach dem Gesetz der Geschlossenheit tendiert unsere Wahrnehmung dazu, von Linien begrenzte Flächen leichter als gestalterische Einheiten wahrnehmen als nicht umschlossene Flächen. Schließlich besagt das Gesetz der Vertrautheit, dass Objekte leichter als Gruppen wahrgenommen werden, wenn die Gruppen vertraut erscheinen. Die jeweiligen Wahrnehmungsprozesse richten sich dabei nach individuellen Erfahrungen und kulturellen Besonderheiten (vgl. etwa Goldstein 1997, 174f. und Guski 1996, 31 f.).
2.3. Ergänzung von visuellen Informationen Unsere Wahrnehmung kann auch auf die Abwesenheit von Objekten oder Objekteigenschaften reagieren. Das wohl bekannteste Beispiel ist das KaniszaDreieck (siehe Abbildung 2.7 links): Wir sehen vier Figuren, drei Kreise und ein darüber liegendes Dreieck. Eigentlich gibt es für die vierte Figur, das Dreieck, aber keinen optischen Reiz, und die Kreise sind nur unvollständig dargestellt. Bei der Wahrnehmung werden Konturen ergänzt, wo es keine gibt. Diese nicht vorhandenen Konturen werden auch Scheinkonturen genannt (vgl. Goldstein 1997, 169).
Ergänzung von visuellen Informationen
#1 f l f l f € J * * *
25
1 *
Abb. 2.7: Scheinkonturen
Nicht immer ist der Verlauf von Scheinkonturen eindeutig. Die Eindeutigkeit hängt von der Prägnanz der spontan ergänzten Figur ab. Darüber hinaus wird das Wahrnehmen von Scheinkonturen erschwert, wenn Eckpunkte der Scheinfigur außerhalb der Kontrastfiguren liegen (siehe Beispiel 3 bzw. 4 in Abbildung 2.7).
Generell ist unsere Wahrnehmung darauf ausgerichtet, fehlende Bildinformationen zu kompensieren. Das betrifft nicht nur die Scheinkonturen relativ einfacher Figuren, sondern auch komplexere Objekte. Wenn auf einem Bild etwa nur ein Teil eines Objektes oder einer Person dargestellt wird, kann der Betrachter die fehlenden Teile ergänzen. Personen können so als Ganzes wahrgenommen werden. Zettl (1999, 128f.) weist jedoch darauf hin, dass die Wahrnehmung einer Figur als Ganzes erschwert wird, wenn der Bildrand Personen an einer natürlichen Trennlinie abschneidet. Solche Linien sind: Augen, Mund, Nase, Schultern, Brust, Ellbogen, Hüfte, Jackensaum, Knie und Knöchel. Die Trennlinie sollte entweder im Bild oder außerhalb des Bildausschnittes liegen, jedoch nie mit den Bildrändern zusammenfallen. Abbildung 2.8 zeigt im linken Beispiel einen Anschnitt der Person, der es unserem Wahrnehmungsapparat erlaubt, die fehlenden Teile problemlos zu ergänzen. Im rechten Beispiel liegen die natürlichen Trennlinien von Ellbogen, Hüfte und Handgelenk auf den Bildrändern. Hier fällt es ungleich schwerer, die Person als Ganzes wahrzunehmen. Der Körper scheint vielmehr an den Bildrändern abgetrennt zu werden.
3. Bildgestaltung Die Schlagworte von der Bilderflut und der ikonografischen Wende machen schon seit langem die Runde. Wir haben in unserem Alltag ständig mit Bildern zu tun: beim Zeitung Lesen, beim Fernsehen, beim Spazieren Gehen, im Straßenverkehr oder - als Bilderproduzenten - beim Fotografieren. Das Bild ist das am häufigsten eingesetzte Kommunikationsmittel in der Werbung. Auch im Bereich der Informationsmedien ist das Bild allgegenwärtig. Film und Fernsehen sind die klassischen Bildmedien schlechthin. Bei den Printmedien Zeitung und Zeitschrift vollzieht sich der Trend zur visuellen Kommunikation in immer schnelleren Schritten. Zuletzt hat das Bild auch die digitalen Medien erobert: CD-ROM und Internet. Bilder bilden jedoch keineswegs die Wirklichkeit ab, wie sie ist. Sie geben lediglich den selektiven, subjektiven Blick des Fotografen oder Bildproduzenten wider. Deswegen ist der Begriff der Bildgestaltung von zentraler Bedeutung. Bildgestaltung bezeichnet die Anordnung formaler Bildelemente wie Form oder Farbe innerhalb eines Rahmens im Hinblick auf bestimmte kommunikative Absichten. Im Gegensatz zur zweckfreien Kunst ist die Bildgestaltung im Bereich der Medienkommunikation stets zweckgebunden. Kenntnisse der manipulativen Möglichkeiten von Beleuchtung und Komposition sind daher substantiell. Das Wissen um die Spezifika bestimmter ästhetischer Reize geht jedoch auch mit einer besonderen Sorgfaltspflicht einher. Manipulation positiv gewendet bedeutet, den Bildbetrachter bzw. Rezipienten zu lenken und nicht in die Irre zu führen. In Abschnitt 3.1. soll zunächst die kommunikative Funktion von Bildern erläutert werden. Im Mittelpunkt der Betrachtung stehen der Darstellungszweck bei der Bildproduktion und die subjektiven Anteile des Bildproduzenten. In Abschnitt 3.2. werden die Grundlagen der Bildgestaltung vorgestellt: Beleuchtung, Farbgestaltung und Bildkomposition. Diese Grundlagen sind sowohl für die Bildgestaltung in den traditionellen als auch in den neuen Medien von großer Bedeutung. Abschließend soll in Abschnitt 3.3. auf die Besonderheiten der Bildgestaltung in den Digitalmedien eingegangen werden. Bildfälschung und Bildmanipulation sind Begriffe, die es nicht erst seit Einfuhrung von Bildbearbeitungssoftware gibt. Doch die digitalen Bilder fuhren uns vor Augen, wie leicht ein Bild im Ganzen und seine Bestandteile im Besonderen zu verändern sind. Die Fragmentierung von Bildern wird in den Benutzeroberflächen elektronischer
Die kommunikative Funktion von Bildern
27
Informationssysteme zur Regel, und Bilder beziehen sich über die Grenzen ihres Rahmens hinaus auf andere Bilder.
3.1. Die kommunikative Funktion von Bildern Jean-Luc Godard hat einmal gesagt: „Fotografieren ist die Wahrheit, Film ist ebenfalls Wahrheit, vierundzwanzigmal in der Sekunde." Diesem viel zitierten Satz liegt eine Auffassung zu Grunde, nach der die Wirklichkeit mit Hilfe (fotografischer oder filmischer) Bilder im Verhältnis eins zu eins abgebildet werden kann. Das Verhältnis von Gegenstand und Abbild wird dabei auf das Kriterium der Ähnlichkeit reduziert. Nach Kroeber-Riel (1993, 35) ist ein Bild „die Aufzeichnung eines realen oder fiktiven Gegenstandes, die dem Gegenstand ähnlich ist und deswegen wie der Gegenstand wahrgenommen werden kann". Die Beeinflussungskraft von Bildern liegt demzufolge in der Möglichkeit, dass sie wie Wirklichkeit wahrgenommen werden können. Tatsächlich sind aber weder der Begriff der Wahrheit bzw. Wirklichkeit noch der der Ähnlichkeit geeignet, das Wesen des Bildes zu erfassen. Ein Bild kann „so wenig wahr oder falsch sein, wie eine Aussage rot oder grün sein kann" (Gombrich 1978, 88). Das Attribut wahr kann nur Aussagen oder Sätzen zukommen. Auch die Ähnlichkeitsauffassung wird der Vielschichtigkeit des Bildbegriffes kaum gerecht. Roland Barthes (1989, 113 f.) stellt in seinen Bemerkungen zur Fotografie lapidar fest: Die Ähnlichkeit läßt mich unbefriedigt, macht mich eher skeptisch (es ist die Enttäuschung und Traurigkeit, die ich bei den üblichen Photos meiner Mutter empfinde während das einzige Photo, von dessen Wahrheit ich wie geblendet war, ausgerechnet ein verschollenes, entlegenes Photo ist, das ihr nicht ähnelt, das Photo eines Kindes, das ich nicht gekannt habe).
Die Wahrheit, von der Barthes hier schreibt, bezieht sich jedoch keineswegs auf die objektive, verlustfreie Abbildbarkeit einer Person. Sie bezeichnet vielmehr die subjektive, auf persönlichen Erfahrungen beruhende Erkenntnis des Bildbetrachters. Muckenhaupt (1986, 118ff.) betont, dass Ähnlichkeitsvergleiche nur für bestimmte Kommunikationsbereiche geeignet sind, z . B . zur Identifikation. Ähnlichkeit ist ein konventionelles und kein natürliches Kriterium für Bildvergleiche. Voraussetzung für einen Ähnlichkeitsvergleich ist ein Formenschatz, der sich historisch herausbildet hat und von kulturellen Unterschieden geprägt ist. Dieser Formenschatz ist quasi eine Obersetzungshilfe zum Verstehen und auch zum Herstellen von Bildern (vgl. Gombrich 1978, 91 und 109). Bei der Beschreibung künstlicher Bilder, die am Computer entstanden sind, kann das Kriterium der
28
Bildgestaltung
Ähnlichkeit schließlich überhaupt nicht mehr herangezogen werden. Wenn die Referenz zum dargestellten Gegenstand das wichtigste Kriterium bei der Beurteilung von Bildern ist, dann fuhrt die viel zitierte Referenzlosigkeit virtueller Bilder die Ähnlichkeitsauffassung (mangels abgebildeten Gegenstandes) ad absurdum. Möchte man Bilder beurteilen, muss statt dessen der Zweck der Darstellung betrachtet werden. Das Verstehen von Bildern setzt voraus, dass man das Bild in seinen Herstellungs- oder Verwendungszusammenhang einordnen kann (vgl. Muckenhaupt 1986, 156 und Gombrich 1978, 113). Bilder sind Mittel der Kommunikation und als solche immer im Kontext der aktuellen (kommunikativen) Situation zu bewerten. In Anlehnung an Espe (1990, 22) kann man (zumindest fotografische, filmische oder auch fotorealistische) Bilder daher als künstliche, von Menschen mit bestimmten Absichten hergestellte Objekte bezeichnen, die von anderen künstlichen Objekten durch ihre kommunikative Funktion unterschieden werden können. Dass Bilder nicht wahr sein können und keine Realität abbilden, lässt sich alleine schon daran erkennen, dass sie von einem Bildrand begrenzt sind. Bilder stellen immer nur subjektiv geprägte Ausschnitte der Realität dar und spiegeln die Sichtweise dessen wieder, der die Computermaus bewegt oder hinter der Kamera steht. Eine Weitwinkelaufnahme etwa bietet dem Betrachter einen gewissen Überblick über das Geschehen. Der Vordergrund wird betont, und das Bild hat eine starke räumliche Wirkung. Teleaufnahmen heben dagegen Details hervor und verflachen die Perspektive. Das Bild wirkt komprimiert, und die Schärfentiefe ist sehr viel geringer als bei Weitwinkelaufnahmen. Schon ein kleiner Schwenk nach links oder rechts kann die Bildaussage drastisch verändern. Scheurer (1987, 125f.) betont neben den subjektiven Anteilen von Bildausschnitt und Blickwinkel auch den historischen bzw. sozialen Kontext, in dem fotografische Bilder zu bewerten sind: Indem der Fotograf aber Ausschnitte aus der Wirklichkeit nimmt, seinen und den Blick des Rezipienten einengt, kanalisiert er nicht nur den Blick des Betrachters in seinen eigenen, er isoliert seinen Blick und damit seine (Seh-)Erfahrung auch von ihrem Umfeld. Rodschenkos Blick von den Baikonen, seine steilen Aufsichten zu den Industrieschloten sagen uns nichts mehr, wenn wir nicht gleichzeitig etwas über den Fortschrittsglauben erfahren, den er und seine Zeitgenossen in die neuen Möglichkeiten der Technik und Industrie setzten. Sie sind nicht mehr als Metaphern einer neuen Welt mit neuen Seherfahrungen zu verstehen.
Auch Bildfolgen, Bildarrangements oder - im Bereich des Films - die Montage bieten Möglichkeiten, den Zuschauer zu beeinflussen. Der russische Filmemacher Lew Kuleschow machte in den 20er Jahren des letzten Jahrhunderts ein Experiment, das als Kuleschow-Effekt bekannt geworden ist. Er kombinierte drei identische Bilder, die jeweils einen Mann zeigen, der starr und ausdruckslos in
Die kommunikative Funktion von Bildern
29
die Kamera blickt, mit ganz unterschiedlichen Motiven: einem Teller dampfende Suppe, einem spielenden Kind und einer in einen Sarg gebetteten Frau. Der Zuschauer meint im Blick des Mannes nun Hunger, Freude oder Trauer auszumachen - je nachdem, welches Bild auf das des Mannes folgt. Unsere Wahrnehmung kann demzufolge nicht nur durch Bildausschnitt, Bildkomposition oder Blickwinkel gelenkt werden, sondern auch durch den Bildkontext. Darüber hinaus können wir mit Licht, Schatten und Farbe die Bildaussage verändern und ganz unterschiedliche Stimmungen beim Bildrezipienten hervorrufen. Eine Person, die von unten beleuchtet wird, dürfte kaum dieselben Sympathien des Betrachters genießen wie eine von oben beleuchtete Person. Zettl (1999, 8) weist darauf hin, dass einige unserer Wahrnehmungsprozesse so wirkungsvoll sind, dass wir auf bestimmte ästhetische Reize in vorhersehbarer Weise reagieren selbst wenn wir wissen, dass unsere Wahrnehmung manipuliert wird. Ausgehend von Wittgensteins Begriff des Sprachspiels, das die regelhafte Einbettung sprachlicher Ausdrücke in kommunikative Handlungen und soziale Interaktionen betont, will Scholz (1998) mit dem Begriff des Bildspiels den Zweck-Mittel-Zusammenhang von Bildern hervorheben: Jemandem mitteilen oder zeigen, wie etwas aussieht oder beschaffen ist; j e m a n d e m zeigen, wie etwas sein soll; jemandem zeigen, wie etwas nicht sein soll; wie man etwas machen (bzw. nicht machen) soll; j e m a n d e m das Aussehen oder die Beschaffenheiten eines Gegenstandes, einer Person, eines Gesichts etc. in Erinnerung rufen; nach einem Bild, einer Zeichnung, etwas herstellen (bauen, zimmern, schneidern u.a.); die Gegenstände holen, die auf einem Bild zu sehen sind; zu dem Ort gehen, den das Bild zeigt; dem Betrachter zeigen, was sich hinter einer Tür, in einem undurchsichtigen Behälter (o.a.) befindet; etc.
Deskriptive Funktion: „Auf dem Bild sind ein Mann und ein Ball zu sehen" Explikative Funktion: „Der Mann spielt Basketball" Abb. 3.1: Bildfunktionen
Enzyklopädische Funktion: „Das ist ein Mann, das ist ein Ball"
Damit sind einige wichtige Funktionen von Bildern angesprochen. Bilder können zeigen, beschreiben und erklären. Bilder können Emotionen oder Handlungen
30
Bildgestaltung
auslösen. Bilder können eine spielerisch-dekorative Funktion haben (vgl. Doelker 1997, 76f.). Mit Bildfolgen können Geschichten erzählt werden. Die nachfolgende Abbildung soll einige dieser Bildfunktionen veranschaulichen und zeigen, dass diese vom Verwendungszweck abhängen. Neben den oben genannten inhaltlichen Funktionen erfüllen Bilder bei der Bild-Text-Kommunikation auch ganz spezielle formale Funktionen. Die wichtigste Aufgabe des Bildes ist dabei, generell Aufmerksamkeit zu erregen, speziell aber Aufmerksamkeit auf einen Text zu lenken, lange Textstrecken aufzulockern oder auch zu gliedern.
3.2. Grundlagen der Bildgestaltung 3.2.1. Beleuchtung Beleuchtung ist das Zusammenspiel von Licht und Schatten. Von der Beleuchtung hängt ab, wie wir unsere Umwelt erfahren und welche Emotionen hervorgerufen werden. Mit der Beleuchtung können ganz bestimmte Eindrücke oder Gefühle hervorgerufen werden. Zunächst einmal hilft die Beleuchtung, uns im Raum zu orientieren. Licht und Schatten geben an, wie ein Objekt beschaffen ist und in welcher Relation es zu anderen Objekten oder seiner Umwelt steht. Die Beleuchtung hilft uns auch bei der Entschlüsselung der Tageszeit. Lange Schatten verweisen auf die frühen Morgen- oder Abendstunden, während die Mittagszeit durch kurze Schatten und einen sehr viel härteren Licht-Schatten-Kontrast gekennzeichnet ist. Neben diesen räumlichen und zeitlichen Funktionen ermöglicht das Zusammenspiel von Licht und Schatten die Entschlüsselung der spezifischen Oberflächentextur eines Objektes. Mit Beleuchtung können wir aber auch Atmosphäre schaffen, Langeweile zum Ausdruck bringen, Spannung erzeugen oder Personen charakterisieren (vgl. etwa Dunker 1993, 10ff.). Die Kohärenz gibt an, ob das Licht hart oder weich ist. Weiches, kontrastarmes Licht unterdrückt Bilddetails und Unebenheiten der Objektoberfläche. Die Schlagschatten sind diffus und weichkantig. In der Natur wird weiches Licht erzeugt von Sonnenlicht, das durch Wolken gefiltert wird, oder von Licht, das von Wänden bzw. Decken reflektiert wird. Weiches Licht kommt vor allem in der Modefotografie zur Verwendung oder wenn eine Szenerie generell freundlicher und organischer wirken soll (vgl. Birn 2001, 97). Hartes, kontrastreiches Licht betont dagegen alle Details des Objektes. „Hartes Licht ist scharf eingestelltes Licht, das aus einer weit entfernten oder sehr kleinen Lichtquelle kommt. Typisch für hartes Licht sind die kleinen Glanzlichter und die scharfen Ränder des geworfenen Schattens" (Birn 2001, 96). Oberflächenstrukturen und Texturen werden deutlicher sichtbar. In der Natur wird hartes
Grundlagen der Bildgestaltung
31
Licht erzeugt von direkter, ungefilterter Sonneneinstrahlung. Hartes Licht kann gezielt eingesetzt werden, um die Aufmerksamkeit auf bestimmte Bildinhalte zu lenken, Unbehaglichkeit zu erzeugen oder mit einem klar definierten Schatten Bildaussagen anzudeuten und vorwegzunehmen (In Friedrich Murnaus Nosferatu, einem Meisterwerk des Stummfilmexpressionismus, wird in vielen Einstellungen nicht der Vampir selbst gezeigt, sondern nur sein Schatten). Hartes und weiches Licht können auch zur Charakterisierung von Personen beitragen. Dunker (1993, 15) verweist in diesem Zusammenhang auf den Film Noir der 40er und 50er Jahre: „Dabei setzte man für die weiblichen Akteure eine andere Lichtgestaltung ein als für die männlichen. Bei den Frauen wählte man ein weiches, diffuses Licht und zusätzlich eine besondere Ausleuchtung der Haare (Gloriole), die den Darstellerinnen einen makellosen Teint und ein engelhaftes Aussehen gaben. [...] Männliche Akteure ließ man dagegen durch Einsatz eines harten, gerichteten Lichts noch maskuliner und markanter wirken."
Die zwei wichtigsten Beleuchtungstechniken für die Erzeugung von Atmosphäre sind das Low-Key Lighting und das High-Key Lighting. Kontrastreiche Low-KeyBilder haben in der Regel große Schwarzanteile und einen dunklen Hintergrund. Die Schatten weisen wenig Zeichnung auf, und der Licht-Schatten-Übergang (auch Falloff oder Schattenabfall) ist hart. Nach Mehnert (1986, 151) dient die Low-Key-Beleuchtung vor allem dazu, dramatische oder geheimnisvolle Vorgänge oder starke Gefühle sowie Liebesszenen darzustellen. High-Key-Bilder sind dagegen durch weiches Licht gekennzeichnet und weisen einen großen Anteil an Helligkeitswerten auf. Der Hintergrund ist ebenfalls hell, und die Übergänge vom Licht zum Schatten sind weich. Ein High-KeyEffekt kann beispielsweise erzielt werden, indem eine sehr diffuse Lichtquelle nahe der Kamera platziert wird. Der High-Key-Stil „betont im allgemeinen Glück, Gelingen, Hoffnung und frohe Zuversicht" (Mehnert 1986, 153).
32
Bildgestaltung
Das Fiat Lighting ist eine High-Key-Beleuchtung für optimale Sichtbarkeit aller Details. Das Licht scheint von allen Richtungen zu kommen. Diese Beleuchtungstechnik ist gekennzeichnet durch einen weichen Licht-Schatten-Übergang und durch fast transparente Objekt- und Schlagschatten, die wir für gewöhnlich gar nicht wahrnehmen (Zettl 1999, 39). Dadurch kann etwa Leistungsfähigkeit unter Beweis gestellt werden, Transparenz, technisches Know-how, Offenheit etc.
A b b . 3.3: Flat Lighting
I
Kamera
Mit Hilfe von gerichteten Lichtem kann eine Szenerie dagegen sehr viel natürlicher ausgeleuchtet werden. Die Blickrichtung des Betrachters kann gelenkt und das Bildthema betont werden. Anders als beim Fiat Lighting können auch sehr viel einfacher Stimmungen und Emotionen hervorgerufen werden. Die folgenden Abbildungen veranschaulichen den Aufbau einer komplexen Lichtsetzung. Im ersten Beispiel dient eine gerichtete Lichtquelle als Hauptbeleuchtungsquelle - das so genannte Führungslicht. Das Führungslicht ist in der Regel in einem horizontalen Winkel von 30 bis 45 Grad (rechts oder links) von
A b b . 3.4: Führungslicht
Führungsliöit
Grundlagen der Bildgestaltung
33
der Kamera und in einem vertikalen Winkel von 45 Grad platziert. Mit d e m Führungslicht werden nur bestimmte Ausschnitte der dargestellten Personen beleuchtet. Eine wichtige Funktion dieser Lichtquelle ist die Erzeugung des Augenlichts. Dabei wird Licht auf dem Auge reflektiert, und die dargestellte Person erscheint lebendiger (Salt 1983, 327). Das Führungslicht erzeugt dunkle Schatten, der Hintergrund ist schwarz, und der Übergang von Licht zum Schatten ist sehr hart. Im zweiten Beispiel kontrolliert das Fülllicht, oftmals eine diffuse Lichtquelle, den Licht-Schatten-Übergang, der jetzt sehr viel weicher ist. Dunkle Schattenpartien und der Hintergrund werden aufgehellt. Das Fülllicht wird normalerweise in einem horizontalen Winkel von 90 Grad relativ zum Führungslicht platziert. Der vertikale Winkel kann dabei variabel gehandhabt werden (Whittaker 2001, Module 32).
•
Abb. 3.5: Fülllicht
Kamera
JL
Führungslicht
In der dritten Abbildung hebt ein Gegenlicht die Personen vom Hintergrund ab. Dabei werden die Objektkanten (hier etwa die Schulterpartien des Mannes) aufgehellt. Das Gegenlicht ist eine gerichtete Lichtquelle, die direkt hinter der Per-
Gegenlicht
Abb. 3.6: Gegenlicht
Fülllicht
i
Kamera
Führungsllctit
34
Bildgestaltung
son oder den Personen in einem vertikalen Winkel von etwa 45 Grad angebracht ist. Da das Gegenlicht zumeist näher am O b j e k t platziert ist als das Führungslicht, ist es von geringerer Intensität. Die Kombination der hier skizzierten Lichtquellen bildet die klassische Dreipunktbeleuchtung, auch bekannt als das fotografische
Prinzip.
Zusätzlich kann
eine indirekte Lichtquelle den Hintergrund stärker betonen. Das Kulissenlicht vermittelt T i e f e zwischen den dargestellten Personen und d e m Hintergrund. Es ist in der Regel auf derselben Seite wie das Führungslicht platziert.
[ Gegenlicht
Füffiicht
Abb. 3.7: Kulissenlicht
Kamera
V
Führungslicht
Beleuchtung ist ohne Licht nicht möglich, genauso wichtig ist aber auch der Schatten. In der Natur sind Licht und Schatten untrennbar miteinander verknüpft. Bei der Beleuchtung in virtuellen U m g e b u n g e n (siehe Kapitel 7) können Schatten d a g e g e n einfach „weggeklickt" werden. In den allermeisten Fällen merkt der Betrachter aber sofort, dass etwas nicht stimmt. Er hat Schwierigkeiten, die einzelnen Objekte räumlich zuzuordnen. T r o t z d e m können manche schattenlose U m g e b u n g e n recht realistisch wirken. Birn (2001, 76) führt das darauf zurück, „dass der Betrachter oft nicht unterscheiden kann, ob es sich um einen Schatten oder um einen schlecht beleuchteten Bereich handelt." Es gibt zwei Arten von Schatten: Objektschatten (Attached Schlagschatten (Cast Shadow).
Skadow)
und
Der Objektschatten hilft, die Form eines Objektes
a u f z u d e c k e n , während der Schlagschatten dazu dient, das Objekt relativ zu seiner U m g e b u n g zu bestimmen (Zettl 1999, 20f). Schlagschatten können darüber hinaus neue Winkel eines Motivs aufzeigen, m o n o t o n e Bildbereiche auflockern oder Kontraste bilden (Birn 2001, 69ff.). G u t e Bildgestaltung setzt neben einem gezielten Einsatz der Beleuchtung natürlich auch Kenntnisse anderer visueller M e r k m a l e eines Bildes voraus, etwa Form, Größe oder Anordnung der Bildelemente. Doch mit keinem anderen formalen Mittel wie der Beleuchtung können so einfach Stimmungen und Emotio-
Grundlagen der Bildgestaltung
35
nen erzeugt werden, kann der Blick des Betrachters so einfach gelenkt werden wie mit dem gezielten Einsatz von Licht. 3.2.2. Farbe Für die Bildgestaltung sind vor allem zwei Farbmodelle oder Mischgesetze von Bedeutung: das subtraktive und das additive Modell. Die subtraktive Farbmischung bezieht sich auf Farbsubstanzen, die bestimmte Wellenlängen des weißen Lichts absorbieren oder reflektieren. Wenn ein Objekt beispielsweise langwelliges Licht (Rot) absorbiert und mittel-, bzw. kurzwelliges Licht (Grün bzw. Blau) reflektiert, nehmen wir dessen Farbe als Cyan war (vgl. Crüger 2000, Farbmischgesetze). Dem subtraktiven Modell liegen die drei Grundfarben Cyan, Magenta und Schwarz zu Grunde. Mischt man Gelb mit Cyan, erhält man Grün. Mischt man Cyan mit Magenta, erhält man Blau. Mischt man Magenta mit Gelb, erhält man Rot. Mischt man alle drei Grundfarben in gleichem Verhältnis, erhält man theoretisch Schwarz. Dabei werden alle Wellenlängen des weißen Lichtes absorbiert. In der Praxis - etwa beim Druck - erhält man jedoch ein schmutziges Graubraun, da die verwendeten Druckfarben nie in reiner Form vorliegen und bis zu einem gewissen Grad immer leicht verunreinigt sind. Deshalb wird beim Vierfarbdruck zusätzlich Schwarz verwendet, um optimale Ergebnisse zu erzielen. Das additive Modell beruht auf den drei Grundfarben Rot, Grün und Blau. Beim Mischen dieser Farben werden im Gegensatz zum subtraktiven Modell hellere Farbtöne erzeugt. Rot und Grün ergeben Gelb. Grün und Blau ergeben Cyan. Blau und Rot ergeben Magenta. Alle drei Grundfarben in gleichen Teilen gemischt ergeben reines Weiß. Beim additiven Farbmodell wird farbiges Licht gemischt, d.h. Licht muss aktiv erzeugt werden. Diese Technik kommt beispielsweise beim Fernsehen, bei Computermonitoren oder Videobeamern zum Einsatz. Beim Gestalten von Produkten für die traditionellen Printmedien ist man auf das subtraktive Modell angewiesen, während Produkte für die digitalen Medien auf dem additiven Modell beruhen, das eine viel größere Zahl von Farbnuancen mit größerer Leuchtkraft zur Verfügung stellt. Das Farbempfinden ist bei jedem Menschen anders ausgeprägt, trotzdem gibt es bestimmte Farben und Farbkombinationen, die ganz bestimmte Wirkungen hervorrufen können. Heller nennt sechs differenzierte Wirkungen von Farben (Heller 1999, 13-16): • • •
Psychologische Wirkungen, die aus verinnerlichten Erfahrungen bestehen Symbolische Wirkungen, die aus der Verallgemeinerung der psychologische Wirkungen entstehen Kulturelle Wirkungen, die durch unterschiedliche Lebensweisen, geografische Gegebenheiten, nationale Eigenheiten etc. bedingt sind
Bildgestaltung
36 •
Politische Wirkungen, die religiöse oder politische Machtverhältnisse widerspiegeln
•
Traditionelle Wirkungen, die historisch bedingt sind
•
Kreative Wirkungen, die die Konventionen einer klischeehaften Farbgestaltung durchbrechen
Im folgenden sind die gängigen Farbwirkungen bzw. -assoziationen aufgelistet. Diese Assoziationen haben zumindest für den westlichen Kulturkreis eine gewisse Gültigkeit und erfahren in der Literatur durchaus Übereinstimmung (Heller 1999; vgl. auch Crüger 2000; Fröbisch et al. 1997, 169; Burger 1993, 523). Politische oder traditionelle Wirkungen sind hier nicht berücksichtigt (etwa Rot als Farbe der Revolution, Grün als Farbe des Islam oder Braun als Farbe des Nationalsozialismus). Farbe
Positive Assoziationen
Negative Assoziationen
Rot
Aufmerksamkeit, Leidenschaft,
Alarm, Gefahr, Aggressivität, Wut, j
Liebe
Zorn, Brutalität
Orange
Aufmerksamkeit, Optimismus,
Leichtlebigkeit, Aufdringlichkeit,
Vergnügen, Geselligkeit, Lebens-
Ausschweifung
'V / \. ' . freude, Gesundheit, Selbstver:. ' :. v: ' trauen Gelb
|
Grün Cyan : .... . . . .
.
Licht, Heiterkeit, Freude, Wissen,
Täuschung, Rachsucht,
Weisheit, Vernunft, Logik
Pessimismus, Egoismus, Geiz, Neid j
Großzügigkeit, Sicherheit,
Neid, Gleichgültigkeit, Stagnation,
Harmonie, Hoffnung
Müdigkeit
Wachheit, Bewusstheit, Klarheit,
Kühlheit, Distanz, Leere
Offenheit, Freiheit Blau
Treue, Ruhe, Vertrauen, Pflicht,
Nachlässigkeit, Melancholie
Schönheit, Sehnsucht Violett Magenta
Inspiration, Kunst, Mystik,
Macht, Eitelkeit, Stolz, Arroganz,
Frömmigkeit, Buße, Sexualität
Unmoral
Idealismus, Dankbarkeit,
Snobismus, Arroganz, Dominanz
Engagement, Ordnung, Mitgefühl Braun
Gemütlichkeit, Geborgenheit
Faulheit, Vergänglichkeit,
Weiß
Reinheit, Klarheit, Vollkommenheit,
Unnahbarkeit, Empfindsamkeit,
Erhabenheit, Unschuld
Reserviertheit
Neutralitat, Vorsicht, Zurück-
Langeweile, Eintönigkeit,
haltung, Kompromissbereitschaft Würde, Ansehen, Feierlichkeit,
Unsicherheit Beunruhigung, Furcht, Trauer,
Eleganz
Unergründlichkeit
Dummheit
Grau Schwarz
i
J
Grundlagen der Bildgestaltung
37
Farbwirkungen hängen j e d o c h nicht nur v o m Farbton, sondern auch von der Farbhelligkeit, der Farbsättigung und der Farbtemperatur ab. So wirken stark gesättigte Farben stark, voll, dominant oder schwer, während wenig gesättigte Farben alt oder verblichen wirken. Helle Farben werden deutlich freundlicher und leichter w a h r g e n o m m e n als dunkle Farben. W a r m e Farben wirken generell freundlicher als kalte und vermitteln eher ein G e f ü h l von Nähe. Je dunkler eine Szenerie ausgeleuchtet ist, desto geringer ist die Sättigung der Farben. O h n e Licht können wir gar keine Farben wahrnehmen. Identität und W i r k u n g von Farben müssen daher auch im Kontext des Beleuchtungslichtes betrachtet werden. Das weiße Blatt Papier im Schatten kann dunklere Tonwerte a u f w e i s e n als die von der Sonne angestrahlte schwarze Kohle. Trotzdem nehmen wir die Farbe des Papiers als Weiß w a h r und die der Kohle als Schwarz. Der Kunsthistoriker Gombrich (1978, 71f.) beschreibt diese Invarianz in der Farbw a h r n e h m u n g folgendermaßen: Uns scheint die Farbe, Form und Helligkeit von Dingen im großen und ganzen konstant zu sein, o b w o h l wir natürlich Veränderungen i m Zusammenhang mit Entfernung, Beleuchtung, Gesichtswinkel und dergleichen wahrnehmen. Unser Zimmer bleibt sich gleich v o n morgens bis abends, und die Gegenstände darin behalten ihre vertraute Form und Farbe. [...] Eine s c h w a c h e Beleuchtung stört zunächst, aber sobald sich unser A u g e p h y s i o l o g i s c h adaptiert hat, erleben wir wieder dieselben gegenseitigen Verhältnisse der Farben und Helligkeiten w i e bei normalem Licht, und die Welt nimmt wieder ihr normales Gesicht an.
Die verhältnismäßige Unempfindlichkeit gegenüber dem Wechsel des Beleuchtungslichtes geht auf eine Art Stabilisierungsfunktion unseres Wahrnehmungsapparates zurück. N a c h Küppers (2002, U m s t i m m u n g ) kann diese Umstimmimg
als
„ A n p a s s u n g des Sehorgans an die spektrale Zusammensetzung des Lichtes" definiert werden. Eine weitere Stabilisierungsfunktion des Sehorgans ist die Adaption.
Während die U m s t i m m u n g dazu dient, Farbunterschiede auch bei
unterschiedlichen Lichtarten (etwa langwelliges Sonnenlicht oder kurzwelliges Licht im Schatten) optimal wahrzunehmen, funktioniert die Adaption ähnlich wie die Blendenautomatik beim Fotoapparat. Küppers definiert sie als „Anpassung des Sehorgans an die Intensität des Beleuchtungslichtes" (Küppers 2002, Adaption). W e n n wir an einem Sonnentag mit dem Auto in einen Tunnel fahren, sehen wir für kurze Zeit kaum etwas. Erst n a c h d e m sich die Iris des Auges geweitet hat, k ö n n e n wir uns wieder orientieren. Ein weiteres Phänomen bei der Farbwahrnehmung ist der so genannte Simultankontrast.
Farbige Objekte auf dunklem Hintergrund wirken heller als auf
hellem Hintergrund, und sie scheinen mehr im Vordergrund zu stehen. Hintergründe in w a r m e n Farben lassen den Farbton eines Objektes deutlich kühler erscheinen als bei kühlen Hintergrundfarben. Unser Sehapparat regelt dabei automatisch den Kontrast zwischen Objekt- und Umfeldfarbe, um Farbunter-
Bildgestaltung
38
schiede deutlicher zu erkennen. Farbige Objekte können außerdem - j e nach Beleuchtung und Farbkontext - nicht nur im Helligkeitswert variieren, sondern auch in ihrer Größe. Ein helles Objekt auf einem dunklem Hintergrund wirkt größer als ein dunkles Objekt auf einem hellen Hintergrund. Die hier skizzierten Wahrnehmungsprinzipien können gezielt genutzt werden, um beim Betrachter ganz bestimmte Wirkungen hervorzurufen. So können beispielsweise Farbkontraste, etwa Komplementär-, Hell-Dunkel- oder Warm-KaltKontraste, dazu dienen, Aufmerksamkeit zu erzielen oder Spannung zu erzeugen. A u f d e r anderen Seite können zu starke Kontraste den Wahrnehmungsapparat des Rezipienten beeinträchtigen und zu Ermüdungserscheinungen fuhren. Sehr viel angenehmer wirken dagegen sogenannte Farbharmonien und Farbklänge. Farbharmonien können beispielsweise durch Kombination von benachbarten Farbtönen, durch Kombination von Farben der warmen Farbpalette oder durch K o m b i nation von Farben der kalten Farbpalette hervorgerufen werden (Crüger 2000, Farbharmonien). Gute Farbgestaltung ist also kein Zufall - insbesondere dann nicht, w e n n die Phänomene der Farbwahrnehmung mit den Funktionen der Farbgestaltung kombiniert werden. Je nach Kommunikationszweck kann Farbe ganz unterschiedlich eingesetzt werden: •
Farbe kann Informationen gliedern, einordnen und zuordnen
•
Farbe kann Aufmerksamkeit auf bestimmte Informationen lenken
•
Farbe kann abgrenzen und warnen
•
Farbe kann die Lesbarkeit von Texten steigern
•
Farbe kann beim Betrachter Stimmungen auslösen und Assoziationen hervorrufen
•
Farbe kann Spaß machen
Allerdings gibt es nur wenige Farben, die der Mensch sicher erinnern kann: die Grundfarben und die Grauskala. Farben weisen - im Gegensatz zu Formen - nur graduelle Unterschiede auf und sind daher aus dem Gedächtnis schwieriger voneinander zu unterscheiden. Deshalb sollte bei der Gestaltung von kommunikativen Inhalten die Zahl der Farben eher gering gehalten werden. Die Farben müssen gut aufeinander abgestimmt sein und konsistent verwendet werden. 3.2.3. B i l d k o m p o s i t i o n Bildkomposition kann definiert werden als die systematische Anordnung von Bildelementen innerhalb eines Rahmens. Der erste Arbeitsschritt bei der Bildproduktion ist also die Wahl des Bildformates. Das Querformat entspricht unserem natürlichen Blickfeld (einer querliegenden Ellipse) sehr viel mehr als das g e w ö h n u n g s b e d ü r f t i g e Hochformat. Während das Querformat ruhig wirkt und
Grundlagen der Bildgestaltung
39
besonders geeignet ist, Räumlichkeit darzustellen, vermittelt das Hochformat eher Nähe und kann dazu verwendet werden, Details oder komprimierte Bildinhalte darzustellen. Das Bildformat wird generell durch die Breite und Höhe des Bildes definiert. Fotos haben normalerweise ein Seitenverhältnis von 3:2. Klassische Formate sind 9 x 1 3 cm, 10 x 15 cm, 13 x 18 cm usw. Herkömmliche Fernseh- und Computerbilder haben ein Seitenverhältnis von 4:3 (PAL-Norm beim Fernsehen: 720 x 576 [nicht-quadratische] Pixel, Bildmodi bei Computern: 640 x 4 8 0 Pixel, 800 x 600 Pixel, 1024 x 768 Pixel etc.). Das beim Film eingesetzte Panavisionformat hat ein Seitenverhältnis von 1:2,35. Die wichtigsten Fragen bei der Bildkomposition beziehen sich auf die formale Aufteilung der Bildfläche und die Anordnung des zentralen Bildobjektes. Die stabilste Position, die ein Objekt innerhalb des Bildrahmens einnehmen kann, ist die Platzierung in der Bildmitte. Doch schon eine leichte Verschiebung nach rechts oder links kann dieses Gleichgewicht stören: Die Kanten und Ecken des Bildrahmens verhalten sich wie Magneten. Sie haben die Tendenz, Objekte in ihrer Nähe anzuziehen. Auch die Achsen und Diagonalen beeinflussen das Gleichgewicht des Objektes. Nach Arnheim (2000, 15f.) können mit Hilfe eines so genannten Strukturgerüstes die jeweils wirkenden Kräfte auf das Objekt skizziert werden. Er spricht von der „induziert verborgenen Struktur" des Bildes. Die dabei wirkenden Schub- und Zugkräfte können auch als Wahrnehmungskräfte bezeichnet werden, da sie in der Erfahrung jedes Betrachters existieren.
Abb. 3.8: Strukturgerüst, stabilste Position in der Bildmitte (eine relativ ruhige Lage ergibt sich auch, wenn das Objekt auf einer der Diagonalen positioniert wird), Kantenanziehung
Wenn die Objektbegrenzungen an die Bildkanten angrenzen, scheint sich das Objekt auszudehnen. Relativ kleine Objekte, die sich weit entfernt von den Kanten befinden, scheinen dagegen zu schrumpfen, weil sie von dem umgebenden Freiraum erdrückt werden (vgl. Zettl 1999, 93). Die Anziehungskraft der oberen Bildkante kann so stark sein, dass ein dort positioniertes Objekt nach oben gezogen zu werden scheint, obwohl gerade bei dargestellten Personen eine weitere Kraft ins Spiel kommt: das Empfinden der natürlichen Erdanziehung.
40
Bildgestaltung
Abb. 3.9: Fehlender Kopfraum (die Person wird vom Bildrand nach oben gezogen), ausgewogener Kopfraum, zu großer Kopfraum (die Gravitationskraft überwiegt die Randanziehung - die Person rutscht aus dem Bild)
Um die Zugkräfte auszugleichen, sollte deswegen Raum zwischen Kopf und Bildrand gelassen werden. Dieser Raum wird in der Film- und Fototerminologie als Kopfraum (Headroom) bezeichnet. Ist der Kopfraum zu groß, dann ist die Gravitationskraft größer als die Randanziehung, und die dargestellte Person scheint nach unten zu rutschen. Neben dem Kopfraum gibt es noch weitere Bildflächen, die im Spannungsverhältnis der magnetischen Zugkräfte und anderer Bildkräfte definiert werden müssen. Wenn im Bild etwa Bewegung simuliert wird - eine laufende Person oder ein fahrendes Auto - , muss in Richtung der Bewegung Platz gelassen werden. Denn die Simulation der Bewegung stellt selbst eine starke Kraft dar, die auf den Bildrand trifft. Ist der Raum zwischen Objekt und Bildrand zu gering, kann sich die Kraft nicht entfalten. Der Bildrand wird überbetont, und die Bildkomposition ist unausgewogen (vgl. hierzu etwa Whittaker 2001, Module 23 und Zettl 1999, 120f.). Der Raum zwischen der Bewegungsrichtung eines Objektes und dem Bildrand wird Führungsraum genannt (Leadroom). Der Raum zwischen der Blickrichtung einer dargestellten Person und dem Bildrand kann als Blickraum bezeichnet werden (Noseroom).
Abb. 3.10: Führungsraum, falscher Blickraum, richtiger Blickraum
Arnheim (2000, 24) betont, dass in einer ausgewogenen Komposition Faktoren wie Form, Richtung und Anordnung alle gegenseitig so festgelegt sind, „daß keine Veränderung möglich scheint und das Ganze in all seinen Teilen den Charakter der .Notwendigkeit' annimmt". Gleichgewicht ist jedoch nicht mit Symmetrie gleichzusetzen. Das in der Bildmitte platzierte Objekt hat zwar die denk-
Grundlagen der Bildgestaltung
41
bar stabilste Lage, doch die Anordnung wirkt schlichtweg langweilig. Abhilfe kann hier eine asymmetrische Anordnung der Bildelemente und -kräfte schaffen. „This means that the graphic weight and the various vectors are no longer equal on both sides of the screen. Instead they are engaged in a sort of tug-of-war with one another that increases dynamic energy" (Zettl 1999, 122). Zettl nennt diese asymmetrische Komposition neutrales Gleichgewicht. Es gibt zwei Prinzipien der Bildaufteilung, die ein asymmetrisches Gleichgewicht ermöglichen: der goldene Schnitt und die Drittelregel. Laut Bertelsmann-Universallexikon bezeichnet der goldene Schnitt (Golden Section) „die Teilung einer Strecke in zwei Abschnitte in der Weise, dass sich die ganze Strecke zu ihrem größeren Abschnitt wie dieser zu ihrem kleineren Abschnitt verhält: AB : AE = AE : EB." Der Mensch empfindet die Aufteilung einer Fläche oder Strecke in diesem Verhältnis (etwa 3:5) als besonders harmonisch. Das Prinzip des goldenen Schnitts kann bis zur klassischen Antike zurückgeführt werden. Die Griechen sahen in diesem Verhältnis viele Proportionen in der Natur und auch des menschlichen Körpers widergespiegelt. Die Drittelregel (Rule of Thirds) ist letztlich nichts anderes als eine vereinfachte Ableitung aus der 3:5-Relation. Das Bild wird dabei in neun gleich große Sektoren eingeteilt. Horizontverläufe oder vertikale Bildelemente werden demzufolge auf einer der vier Linien und zentrale Bildobjekte auf einem der vier Linienschnittpunkte positioniert. Es gibt sogar spezielle Kameras, bei denen die Linien im Sucher eingeblendet werden können. Bei einer streng formalen Bildaufteilung nach der Regel des goldenen Schnitts muss jedoch darauf geachtet werden, dass das Bild nicht in zwei Teile zerfallt. Horizontlinien können beispielsweise mit vertikalen Objekten im Vordergrund gebrochen werden, um eine solche Bildteilung zu verhindern (vgl. Whittaker 2001, Module 23). Zwei weitere Faktoren haben einen besonderen Einfluss auf das Gleichgewicht: Gewicht und Richtung. Das Gewicht (Zettl spricht hier von grafischer Masse) bezeichnet die Kraft, die ein Bildelement nach unten zu ziehen scheint. Wir nehmen die Gravitationskraft nicht nur in unserer physikalischen Welt wahr, sondern auch in unserer visuellen Wahrnehmung. Braun (1993, 39) führt die Schwerkraftwirkung auf eine generelle Oben-Unten-Erfahrung zurück: Diese „elementare Orientierungshilfe [...] übertragen wir in vielerlei Hinsicht auf das Sehen von Bildern". Nach Arnheim (2000, 26) wird das Gewicht von der Raumlage beeinflusst: „Eine .starke' Stelle im Strukturgerüst [...] hält mehr Gewicht aus als eine, die nicht in der Mitte und auch nicht auf der senkrechten oder waagrechten Mittelachse liegt. [...] Außerdem besagt das auch auf Wahrnehmungsmuster anwendbare Hebelgesetz, daß das Gewicht eines Elementes mit zunehmender Entfernung vom Mittelpunkt größer wird." Das Empfinden von Gewicht hängt auch von der Räumlichkeit, der Objektgröße, der Objektfarbe, der Objektform und des Objektkontextes ab (Arnheim 2000, 26ff.). Objekte im Bildhintergrund wirken schwerer als solche im Vordergrund, große Objekte wirken schwe-
Bildgestaltung
42
rer als kleine, Objekte in warmen Farben wirken schwerer als solche in kalten. W i r weisen einfachen geometrischen Formen ein größeres Gewicht zu als komplexen Formen.
Schließlich scheinen von ihrer Umgebung isolierte
Objekte
schwerer zu sein als solche, die in enger Nachbarschaft zu anderen Bildelementen stehen. Objekte mit großem Gewicht tendieren nicht nur nach unten. Sie haben darüber hinaus auch die Eigenschaft, Objekte mit kleinerem
Gewicht
anzuziehen ( v g l . Zettl 1999, 96). Arnheim (2000, 29f.) macht drei formale Elemente aus, durch die Richtung im Bild erzeugt werden kann: die Anziehungskraft anderer Objekte, die Form von Objekten und der Bildinhalt. M i t Inhalt ist hier etwa die Blickrichtung einer im Bild dargestellten Person gemeint. Ausgehend von diesen Erkenntnissen und den Arbeiten Ushenkos (Ushenko 1953, 6 0 - 1 1 9 ) hat vor allem Zettl den B e g r i f f des Vektors als Bildkraft in einem gestalterischen Sinn geprägt: „Probably the strongest forces operating within the screen are directional forces that lead our eyes from one point to another within, or even outside of, the picture field. These forces, called vectors, 106). Zettl
can be as coercive as real physical f o r c e s " (Zettl 1999,
unterscheidet
zwischen
grafischen Vektoren, Indexvektoren
und
Bewegungsvektoren. Grafische Vektoren können durch Linien oder durch grafische Elemente erzeugt werden, die unseren Blick in eine bestimmte Richtung lenken. Whittaker (2001, Module 24) bezeichnet diese Bildkräfte als Führungslinien: ...because they are selected or arranged to lead the v i e w e r ' s eye into the frame, generally to the scene's center o f interest. In addition to moving our eyes around the frame, lines can suggest meaning in themselves. Straight, vertical lines suggest
dignity,
strength, power, formality, height and restriction. Horizontal lines suggest stability and openness. Diagonal lines can impact a dynamic and exciting look. Curved lines suggest grace, beauty, elegance, movement, and sensuality.
Indexvektoren werden im Gegensatz zu grafischen Vektoren durch Objekte erzeugt, die eindeutig in eine Richtung zeigen. So bildet etwa der Blick oder der zeigende Finger einer Person einen Indexvektor. Bewegungsvektoren werden erzeugt, wenn sich ein Objekt im Bild in eine bestimmte Richtung bewegt. Unbew e g t e Bilder selbst können keine Bewegungsvektoren haben. Bilder werden generell von links nach rechts „ g e l e s e n " - über alle Kulturen hinweg. Der Kunsthistoriker Heinrich W ö l f f l i n (1941, 8 2 f f . ) hat herausgefunden, dass sich die Wirkung von Bildern verändert, wenn man sie spiegelverkehrt betrachtet. Eine Diagonale, die von links unten nach rechts oben verläuft, nehmen wir als aufsteigend war, während w i r eine von links oben nach rechts unten verlaufende Diagonale als absteigend interpretieren. Die Psychologin Mercedes Gaffron (1950, 329) fuhrt diese asymmetrische Wahrnehmung von Bildern auf die
Dominanz
der linken, analytischen
Gehirnhälfte zurück, dem
Sitz
des
Sprachzentrums: „Preliminary studies o f the physiological foundations suggest a
Grundlagen der Bildgestaltung
43
connection with the wellknown dominance of the left brain cortex, which contains the higher brain centers for speech, writing and reading in a normal righthanded person." Die linke Gehirnhälfte verarbeitet Informationen über die rechte Hälfte unseres Blickfeldes, während die rechte Gehirnhälfte für die linke Hälfte des Blickfeldes zuständig ist (vgl. McLaughlin 1999). Die Erkenntnis, dass Bilder von links (unten) nach rechts (oben) gelesen werden und das Auge länger auf der rechten Bildhälfte verweilt als auf der linken, kann der Bildproduzent gezielt zur Verstärkung der Bildaussage einsetzen. Arnheim (2000, 37) schreibt: „Man könnte spekulieren, daß die Bewegung nach links als diejenige empfunden wird, die den stärkeren Widerstand zu überwinden hat; sie kämpft gegen die Strömung, anstatt sich von ihr treiben zu lassen." Die bisher behandelten formalen Elemente und Kräfte eines Bildes beziehen sich ausnahmslos auf den zweidimensionalen Raum. Bilder können aber nicht nur die Beziehung von Objekten auf der X- und Y-Achse, sondern auch Räumlichkeit darstellen. Doch die Räumlichkeit im Bild entspricht nicht unseren tatsächlichen dreidimensionalen Sehgewohnheiten. Vielmehr kann ein zweidimensionales Bild nur den Eindruck einer dritten Dimension vermitteln, indem diese auf eine zweidimensionale Oberfläche projiziert wird. Unser Wahrnehmungsapparat interpretiert bestimmte gestalterische Muster, die teils erlernt sind und auf unserer Erfahrung aufbauen, als räumliche Anordnung von Objekten. Arnheim (2000, 242) fuhrt das Grundprinzip der Tiefenwahrnehmung auf das gestalttheoretische Gesetz der Einfachheit (siehe Kapitel 2.2.) zurück: „Ein Muster erscheint dreidimensional, wenn es als Projektion einer dreidimensionalen Situation gesehen werden kann, die strukturell einfacher ist als die zweidimensionale." Folgende Faktoren bestimmen die Raum Wahrnehmung: Wir können die Größe eines dargestellten Objektes mit seiner tatsächlichen Größe vergleichen und daraus Rückschlüsse auf die relative Lage des Objektes im simulierten Raum ableiten. Wenn ein Objekt ein anderes verdeckt, schließen wir daraus, dass das verdeckte Objekt im Raum weiter hinten liegt. Wir nehmen eine Objektüberlagerung wahr, wenn die Umrisslinien eines Objektes von einem anderen unterbrochen werden. Ein weiterer Faktor räumlicher Tiefe ist der Parallelenschnittpunkt auf der Horizontlinie. Dieser Effekt wird lineare Perspektive genannt. Auch mit Hilfe von Licht, Schatten und Farbe lässt sich Räumlichkeit darstellen. Wenn der Betrachter eines Bildes weiß, woher das Licht kommt, kann er am Schattenwurf erkennen, in welcher Relation die Objekte zueinander stehen. Bildelemente im Vordergrund haben zumeist dunkle, gesättigte Farbtöne, während solche im Hintergrund hell und ausgeblichen sind. Die Farbsättigung kann bis zum Horizont so stark abnehmen, dass wir Farben kaum noch wahrnehmen können. Darüber hinaus werden die im Bild dargestellten Objekte unschärfer und ihre Textur (Oberflächenbeschaffenheit) verliert an Details. Objekte, die nah am Horizont liegen, wirken verschwommen, ihre Konturen beginnen sich aufzulösen. Viele der hier skizzierten Effekte sind auf die natürliche (und unnatürliche) Lufttrübung durch Wasser- und Staubpartikel
44
Bildgestaltung
zurückzuführen. Abbildung 3.11 soll abschließend einige der Faktoren verdeutlichen, die beim Betrachter den Eindruck von Räumlichkeit vermitteln.
A b b . 3.11: Faktoren räumlicher Tiefe: links Objektgröße, Objektüberlagerung, Schattenwurf - rechts lineare Perspektive, Detailverlust, Schärfeverlust, Sättigungsverlust
3.3. Das Bild in den digitalen M e d i e n 3.3.1. Bildfälschung u n d Bildmanipulation Lange Zeit war die Meinung weit verbreitet, dass das Pressefoto die Wahrheit wiedergibt und - im Gegensatz zu kommentierenden Beitragsformen in der Zeitung - keine Meinungsäußerung darstellt. Auch der dokumentarischen Fotografie haftet immer noch das Attribut der Wahrheit oder Authentizität an. Solche Bilder genießen einen hohen Stellenwert etwa als Beweismittel vor Gericht. Gleichzeitig macht sich im Zeitalter der elektronischen Bildbearbeitung und Bildproduktion eine allgemeine Skepsis gegenüber synthetischen Bildern breit. Dass die nahezu unbegrenzten Möglichkeiten der Computertechnik eingesetzt
werden
können, um Bilder beliebig zu manipulieren, liegt auf der Hand. Im D e z e m b e r 1992 stellt der Schweizer Presserat in einer Stellungnahme klar, dass Bildmanipulationen grundsätzlich eine Verletzung der journalistischen Sorgfaltspflicht darstellen. „Unter Bildmanipulation im Sinne des hier untersuchten Problems wird die Veränderung einer Fotografie [...] verstanden, wobei diese Veränderung der bewussten Täuschung des Bildbetrachters dient, also eine Fälschung oder Verfälschung der durch das Foto vermittelten Information darstellt." Bildmanipulation in diesem Sinn - das wird auch in der Stellungnahme betont - gibt es aber nicht erst in der Ära des digitalen Bildes. Vielmehr kann man davon ausgehen, dass fotografische Bilder manipuliert oder gefälscht werden, seit es die Fotografie gibt. Retuschen und Montagen gehören seit jeher zur fotografischen Grundausbildung - sei es, um Wolken in Postkartenmotive einzubelichten oder
Das Bild in den digitalen Medien
45
Pickel v o m Porträtfoto zu entfernen. Fotografische Bilder können den Blick auf die Realität genauso verzerren wie Texte unwahr sein können. Dabei kann man drei Formen der Bildfalschung unterscheiden: Die bewusst falsche Zuordnung von Bild und Ereigniskontext, die Inszenierung eines falschen Sachverhaltes und die Retusche bzw. Montage vorhandenen Bildmaterials zum Zweck der Umdeutung. Einen traurigen Höhepunkt erreichte die Bildfälschung aber erst mit den systematischen Inszenierungen und Retuschen während des Nationalsozialismus und in der Sowjetunion zu Zeiten Stalins. Während die nationalsozialistische Propaganda Bilder inszenierte oder in falsche Bild-Text-Zusammenhänge stellte - etwa „glückliche KZ-Insassen" - , arbeiteten Stalins Retuscheure hauptsächlich mit Pinsel und Farbe. Gesichter von unliebsamen Personen wie Trotzki, Radek oder Sinowjew wurden einfach ausgeschnitten oder mit Tusche übermalt, oftmals auch einfach abgeschnitten. Auf diese Weise entstanden mitunter Bilder in ganz eigentümlichen Formaten. Die Diskussion um den Umgang mit Fotos als Beweismittel wurde in den letzten Jahren wieder angefacht, als die Historiker Bogdan Musial und Krisztian Ungväry den Machern der Ausstellung „Vernichtungskrieg. Verbrechen der Wehrmacht 1941-1944" nachgewiesen hatten, Bildmaterial falsch zugeordnet zu haben. Norbert Haase von der Stiftung Sächsische Gedenkstätten befurchtet, dass aufgrund der berechtigten Grundskepsis gegen die Authentizität des Bildes das Vertrauen in die Beweiskraft der Fotografie gebrochen ist. Mit Blick auf die Diskussion um die Wehrmachtsausstellung sieht er die Glaubwürdigkeit von historischen Ausstellungen und Gedenkstätten generell in Gefahr (Haase 2000). Man könnte meinen, dass das Bild seine Glaubwürdigkeit - stark angeschlagen durch die Diskussion um die Zuordnung dokumentarischer Fotos - im Zeitalter der elektronischen Bildbearbeitung nun endgültig eingebüßt hat. Prümm (1996, 264f.) stellt fest: Eine v o m Computer generierte Abbildung ist kein Lichtabdruck mehr, und ihr Betrachter kann auch nicht mehr die unmittelbare Lichtspur der Erscheinungen aufnehmen. D i e Blicke gehen ins Leere, denn die Fotografie wird ihrer ursprünglichen Materialität entäußert. [...] Ansichten ohne Referenz zur Realität werden leichthin produziert, die Fotografie ist damit in ihrem Kern getroffen, die Krise des dokumentarischen Bildes manifest. Niemand kann sich fortan darauf verlassen, daß eine Fotografie wirklich e i n e Fotografie ist, und erst recht ist ihre nach Barthes wichtigste Botschaft: ,Es ist so g e w e s e n ! ' zweifelhaft geworden.
Die Digitalisierung des Bildes kann in diesem Kontext sogar als Chance begriffen werden, mit der These der Wirklichkeitsabbildung von fotografischen Bildern aufzuräumen. Wir haben gesehen, dass Bilder seit jeher die subjektiven Anteile und kommunikativen Absichten des Bildproduzenten widergespiegelt haben und nie in der Lage waren, einen unverstellten Blick auf die Realität zu-
Bildgestaltung
46
zulassen. Digitale Bilder, die wir v o n der Wirklichkeit nicht mehr unterscheiden k ö n n e n , ö f f n e n uns nun die Augen und machen die Konstruktion der Bilderwelten in letzter Konsequenz transparent. P r ü m m (1996, 267) betont völlig zu Recht, dass die Krise des dokumentarischen Bildes etwas Produktiv-Enthüllendes hat: „Sie führt uns vor Augen, daß die Kategorie des Dokumentarischen überhaupt ganz neu begründet werden muß als ein System von Vereinbarungen zwischen den Produzenten der Bilder und ihren Verbrauchern." A u c h w e n n digitale Bilder - anders als fotografische Bilder - scheinbar keine Referenz zu dargestellten Objekten aufweisen, sind sie doch nicht referenzlos. Auch künstliche, am Computer erschaffene Bilder sind Mittel der Kommunikation. So werden in diesem Buch fast ausschließlich Bilder verwendet, die rein digitaler Natur sind. Trotzdem können sie bestimmte Sachverhalte veranschaulichen u n d haben Modellcharakter. W e n n etwa das fotografische Grundprinzip mit Hilfe eines künstlichen Bildes erklärt wird, gibt es sehr wohl Bezüge zur Realität. Personen sind immer noch als Personen erkennbar, und die Beleuchtung der digitalen Charaktere orientiert sich an klassischen Techniken. Der im August 2001 angelaufene K i n o f i l m Final Fantasy
hat gezeigt, dass
komplett im Computer entstandene virtuelle Welten und Charaktere von vielen Zuschauern schon nach wenigen Minuten nicht mehr als künstlich w a h r g e n o m m e n werden. Die Illusion des Realen ist mittlerweile so perfekt, dass wir ihr auch im Wissen um ihren Herstellungszusammenhang - hoffnungslos erliegen. Dass uns synthetische Bilder den Schein des Realen vorspielen, heißt aber nicht, dass sie gefälscht sind. Es gilt daher grundsätzlich zu unterscheiden zwischen Bildfälschung auf der einen Seite und Manipulation bzw. Wahrnehmungslenkung auf der anderen Seite. Fälschung ist eine bewusste Irreführung des Betrachters, während der Begriff der Manipulation - wie in Kapitel 3.1. angedeutet - dazu dienen soll, den gezielten Einsatz ästhetischer Reize zu kommunikativen Z w e k ken zu verdeutlichen. Dabei können die Möglichkeiten der Bildgestaltung d e m Rezipienten als Interpretationshilfe ganz bestimmter Sachverhalte dienen.
3.3.2. Die Fragmentierung des Bildes Während Bilder in den traditionellen Medien dazu dienen, A u f m e r k s a m k e i t zu erregen, Texte zu veranschaulichen oder Sachverhalte zu visualisieren, k o m m t ihnen in den digitalen Medien zusätzlich eine interaktive Funktion zu. Mit Bildern lassen sich Systemfunktionen auslösen. Bildzeichen können wie textbasierte Hyperlinks auf Informationen verweisen, die wiederum aus Bildern bestehen können. Das Bild selbst kann aber auch in seine formalen Bestandteile zerlegt werden. So können Bilder auf Befehle reagieren, indem sie ihre visuellen Merkmale ändern (z. B. Form, Farbe, Größe, Anordnung etc.). Insbesondere bei interaktiven Grafiken oder Animationen bildet eine solche strukturelle Änderung d e m
Das Bild in den digitalen Medien
47
Rezipienten die Möglichkeit, schnell auf das Wesentliche fokussieren zu können und weniger Wichtiges auszublenden. Die Fragmentierung des Bildes wird auch auf der Ebene des Informationszugriffs deutlich. Sogenannte Imagemaps vermitteln zwar den Eindruck eines einzigen, zusammengehörigen Bildes, doch bestimmte, formal definierte Bildteile können auf ganz unterschiedliche Informationseinheiten verweisen. Für Web- und Multimedia-Designer gehört es zur alltäglichen Arbeit, aus großen Datenbeständen (etwa Bilddatenbanken) geeignetes Material herauszufiltern und zu neuen Kompositionen anzuordnen: etwa Werbeanzeigen, digitalen Imagebroschüren, visuellen Navigationsinstrumenten oder Fotomontagen. Bei dieser Arbeit werden Bilder ihres ursprünglichen Kontextes beraubt und in neue Sinnzusammenhänge eingeordnet. Das kann allein schon dadurch geschehen, dass Bilder elektronisch beschnitten werden oder ihr Format geändert wird. Modifikationen von Helligkeit, Kontrast, Tonwertumfang, Farbton, Sättigung oder Gradationskurven können aber auch auf ganz bestimmte Bildteile angewandt werden. Die dadurch entstehenden Neukompositionen sind aber insofern legitim, als sie ihren digitalen und manipulativen Charakter nicht zu verbergen suchen. Das macht deutlich, dass Bilder gerade in den digitalen Medien bereitwilliger im Kontext ihres Entstehungszusammenhangs bewertet werden als in den traditionellen Medien. 3.3.3. Fensterwelten - der mehrgliedrige Bilderraum Die Kombination von Text, Bild und Grafik kann zur Verflachung der eigentlichen, räumlichen Struktur eines fotografischen Bildes führen. Zettl (1999, 157) nennt den Prozess, in dem das dreidimensional wirkende Bild als zweidimensionales, grafisches Bild wiedergegeben wird, Graphication.
Die einfachste Mög-
lichkeit, ein Bild zur Grafik zu verfremden, ist die Beschriftung oder das Hinzufügen von grafischen Linien. Dabei k o m m t wieder das Prinzip von Figur und Grund ins Spiel (vgl. Kapitel 2.1.). Wir nehmen solche Bildarrangements als auf der Z-Achse übereinander liegende, einzelne Bildebenen wahr (siehe Abbildung 3.12 links und Mitte). Die Anordnung einzelner Bildteile auf der Z-Achse kann auch dazu genutzt werden, Bilder in andere Bilder einzublocken. Beim so genannten Bild im Bild gibt es weder Überblendung noch Beschriftung. Vielmehr wird das Arrangement in Hauptraum und N e b e n r ä u m e aufgeteilt. W i e im vorhergehenden Beispiel führt auch diese Anordnung zur grafischen Verflachung. Gleichzeitig gibt es aber eine zusätzliche Beziehung der einzelnen Bildteile auf der X- und Y-Achse. Das rechte Beispiel in Abbildung 3.12 zeigt, dass sich die Blicke der Frau im Hauptrahmen und des Mannes im N e b e n r a h m e n treffen. Diese Verbindung auf der XAchse ist weitaus stärker als die räumliche Trennung auf der Z-Achse. Das zweite eingeblockte Bild hat dagegen keine Bindung zum Hauptraum, weil der
48
Bildgestaltung
Blick der Frau unten links aus dem Bild hinausfuhrt. Hier nehmen wir die räumliche Anordnung von Neben- und Hauptrahmen auf der Z-Achse sehr viel stärker wahr als beim ersten eingeblockten Bild.
A b b . 3.12: K o m b i n a t i o n von Grafik u n d Bild (links), E b e n e n w a h r n e h m u n g (Mitte) u n d Bild im Bild (rechts). Bei beiden A r r a n g e m e n t s sind die unterschiedlichen Bildebenen auf der Z-Achse a n g e o r d n e t
Neben der Anordnung von Bildinhalten auf der Z-Achse und der Komposition von Bildern im Bild können in den Digitalmedien auch mehrere Bilder ein zusammengehörendes, komplexes Arrangement bilden. Die gleichzeitige Darstellung von Bildern kann über die jeweiligen Bildaussagen und Bildgrenzen hinweg neue Kompositionen schaffen. Wie bei einem klassischen, dreiteiligen Altarbild kann ein digitales Triptychon als gestalterische Einheit wahrgenommen werden. Solche Arrangements finden sich zwar auch in den traditionellen Printmedien, doch besonders auf Web-Sites hat sich hier ein bestimmtes, konventionelles Muster entwickelt (siehe Abbildung 3.13).
A b b . 3.13: Digitales Triptychon, die einzelnen Fenster sind auf der X - u n d Y - A c h s e angeordnet
Die wichtigsten gestalterischen Merkmale bezüglich der Strukturierung des dreigliedrigen Raums sind nach Zettl (1999, 131) gleichgerichtete grafische Vektoren, außerhalb des Bildes liegende Objektbegrenzungen, Index-VektorKombinationen und Z-Achsen-Vektoren. Erst die konsistente Anordnung der Führungslinien (auch grafische Vektoren, im Bildbeispiel die Wasserlinie) ermöglicht es, die drei Einzelbilder als ein zusammengehörendes Bild wahrzunehmen. Würde man die Einzelbilder auf der Y-Achse verschieben, könnten wir zwar noch erkennen, dass die Bilder thematisch zusammengehören. Doch der
Das Bild in den digitalen M e d i e n
49
Eindruck eines einheitlichen Bildes wäre zerstört. Digitale Triptychen können auch unterschiedliche Bildteile zu einer Einheit verschmelzen. Das ist dann möglich, wenn gerichtete Bildkräfte (siehe Kapitel 3.2.3. Indexvektoren) aufeinander Bezug nehmen. Beispielsweise können sich die Blicke von dargestellten Personen auf gleicher Augenhöhe treffen, oder drei unterschiedliche Personen können in dieselbe Richtung weisen. Darüber hinaus ist es in den digitalen Medien möglich, den Rahmen eines Bilder vollständig aufzulösen. Einzelne Bildteile oder dargestellte Objekte können über den Bildrand hinausgehen und Bezug zu anderen Objekten (etwa der Benutzerschnittstelle) herstellen. Bilder können so montiert werden, dass es unmöglich erscheint zu definieren, wo das eine Bild endet und das andere beginnt. Schließlich können digitale Effekte Bilder in ihre strukturellen Bestandteile auflösen und zu grafischen, abstrakten Gebilden verformen.
4. Bildzeichen Bildzeichen oder Piktogramme sind wie Text oder fotografische Bilder Mittel der Kommunikation. Die Reduktion des visuellen Informationsgehalts auf ein Minimum soll das Verstehen des Bildzeichens erleichtern. Bildzeichen kommen zum Einsatz, wenn sprachliche oder textliche Mittel der Kommunikation zu umständlich erscheinen. Bildzeichen können standardisiert werden und helfen, Sprachbarrieren zu überwinden. Es gibt Piktogramme, die über verschiedene Kulturkreise hinweg Gültigkeit besitzen, etwa Verkehrsschilder, visuelle Leitsysteme oder Hinweise für Behinderte. Die Verwendung von Bildzeichen reicht bis ins Mittelalter zurück (Wappen, Embleme etc.). Ihre Hauptfunktion lag zum einen in der Informationsvermittlung, zum anderem in der Repräsentation und Abgrenzung von Territorien. Um die Jahrhundertwende gewann das Bildzeichen mit dem Ausbau internationaler Verkehrsverbindungen stark an Bedeutung (vgl. Staufer 1987, 9). Heute sind piktografische Leitsysteme aus Bahnhöfen oder Flughäfen kaum mehr wegzudenken. Darüber hinaus finden Piktogramme Verwendung in der Kennzeichnung von Instrumenten und Bedieneinheiten von Maschinen oder auch in der Unterhaltungselektronik. Die Kennzeichnung der Bedienelemente eines CD-Spielers oder eines Videorekorders ist heute weitestgehend standardisiert. Staufer (1987, 12) sieht weitere Einsatzmöglichkeiten von Piktogrammen für Marketing bzw. Vertrieb (die Zeichen sind an keine Landessprache gebunden) und für Sicherheitshinweise (die Zeichen können auch von Kindern oder Analphabeten entschlüsselt werden). In Kapitel 4.1. sollen zunächst die Möglichkeiten und Funktionen traditioneller Bildzeichen geklärt werden. Darüber hinaus werden Kriterien zur Gestaltung von Piktogrammen vorgestellt. In Kapitel 4.2. wird dann auf die Einsatzmöglichkeiten von Bildzeichen in den Digitalmedien fokussiert. Icons in Benutzeroberflächen digitaler Informationssysteme haben neben den traditionellen Funktionen auch einen interaktiven Charakter. Mit Icons kann ein System von Metaphern eingeführt werden, das vor allem die Vorhersehbarkeit von auszulösenden Aktionen erleichtert. Auch in den digitalen Medien beziehen sich die Schnittstellenmetaphern oftmals auf vertraute Gegenstände oder Objekte, denen wir in unserem Alltag begegnen. Allerdings kann eine missverständliche oder falsche Repräsentation nicht nur zur Desorientierung führen, sondern darüber hinaus die Funktionalität des Systems stark beeinträchtigen. Dem Design von Icons für Benutzeroberflächen kommt deswegen eine überaus große Bedeutung zu.
Traditionelle Bildzeichen
51
4.1. Traditionelle Bildzeichen Die Bedeutung von Bildzeichen oder Piktogrammen geht weit über das hinaus, was visuell dargestellt wird. Bildzeichen repräsentieren nicht einzelne Objekte, sondern Klassen von Objekten oder auch komplexe Sachverhalte. Die stilisierte Darstellung eines Schifahrers in einem Piktogramm der olympischen Spiele bezeichnet keinen bestimmten Rennläufer, sondern verweist auf eine sportliche Disziplin. Piktogramme können auch zum Teil sehr komplizierte sprachliche Ausdrücke ersetzen. Im Intercity bedeutet die schematische Darstellung einer an den Mund gelegten Hand etwa: „ICE-Ruhezone; hier ist der Gebrauch von Handys nicht erwünscht. Bitte ausschalten!" Bildzeichen müssen wie sprachliche Ausdrücke erlernt werden. Verkehrszeichen etwa sind nicht selbsterklärend, sondern müssen in der Fahrschule oder im Verkehrsunterricht eingeübt werden. Braun (1987, 16) definiert ein Piktogramm folgendermaßen: „Ein Bildzeichen erfüllt seine Aufgabe als Ikon, wenn das, was es darstellen soll, vom Empfanger des Zeichens (wieder)erkannt wird. Das setzt voraus, daß Darstellung und dargestellter Gegenstand oder Sachverhalt eine sichtbare Gemeinsamkeit besitzen - mindestens ein gemeinsames visuelles Merkmal." Visuelle Merkmale nach Braun sind: Form, Farbe, Helligkeit, Größe, Anordnung, Textur, Richtung, Räumlichkeit, Bewegung. Die Übereinstimmung in einem gemeinsamen visuellen Merkmal ist jedoch nur eine notwendige Bedingung für das Verstehen von Piktogrammen. Braun (1987, 32) schreibt: Die analoge B e z i e h u n g z w i s c h e n dem, w a s das s y m b o l i s c h e Bildzeichen an Konkretem darstellt, und dem, w a s es an Abstraktem meint (symbolisiert), bedarf der Vereinbarung (Konvention) unter den Benutzern des Zeichens. [...] Hier reicht es nicht aus, daß man die G e m e i n s a m k e i t der visuellen Merkmale v o n Darstellung und Dargestelltem erkennt. D o c h erleichtert das Erfassen der sichtbaren Ähnlichkeit des B i l d z e i c h e n s mit dem dargestellten Ding das Erlernen des eigentlichen Sinngehaltes des Zeichens.
Für Strothotte/Strothotte (1997, 175) ist Konventionalität die Basis für das Design von Piktogrammen: „For pictograms that should be immediately identifiable and comprehensible without complex reasoning, the normalization demands should be very low. The normalization demands depend on the experience and knowledge of the potential observer pertaining to the Conventions for decoding them." Die Bedeutung von Bildzeichen muss demzufolge auch im Kontext des Herstellungs- und Verwendungszusammenhangs bewertet werden. Das Verständnis von Bildzeichen ist abhängig von seinem spezifischen kommunikativen Zweck. Ein Piktogramm, das auf die olympische Disziplin Schilaufen verweist, kann ebenso als Warnzeichen für Fußgänger Verwendung finden: „Vorsicht, Schipiste kreuzt Weg". Ein anderes Beispiel aus der Welt der digitalen Benutzerschnittstellen zeigt ebenfalls, dass es oft nicht ausreicht, Übereinstimmungen von Darstellung und Dargestelltem zu erkennen. Das Bildzeichen „Drucker" kann
52
Bildzeichen
„Drucken" bedeuten oder auch „Drucker konfigurieren". Trotzdem bleibt festzuhalten: Das Erfassen der sichtbaren Ähnlichkeit des Bildzeichens mit dem dargestellten Objekt erleichtert das Erlernen des eigentlichen Sinngehaltes des Zeichens. Nach Strothotte/Strothotte (1997, 60f.) können Piktogramme in ikonische und symbolische Zeichen unterteilt werden: „The preference for symbols or icons in pictograms decides the nature as abstract-graphical or presentational." Im Gegensatz zu ikonischen Piktogrammen, die sich visuell auf dargestellte Gegenstände oder Sachverhalte beziehen, haben abstrakt-grafische Zeichen keine unmittelbare visuelle Beziehung zu den bezeichneten Objekten oder Sachverhalten. Grafische Zeichen können etwa einfache geometrische Formen sein, Linien oder auch Beschriftungen (vgl. Strothotte/Strothotte 1997, 46). Piktogramme vermitteln allgemeine und keine spezifischen Informationen. Deswegen muss die Darstellung typisierend sein. Je abstrakter die Repräsentation ist, desto eher kann die Typisierung gewährleistet werden. Allerdings kann ein zu abstraktes Piktogramm das Verarbeiten des Zeichens erschweren. „Wird dagegen ein neueingefuhrtes Piktogramm sehr anschaulich gestaltet, erleichtert dies zwar das Erkennen des Zeichens für einen bestimmten Benutzerkreis. Für Benutzer mit anderem Erfahrungshintergrund kann jedoch eine solche detailgetreue, realistische Darstellung zu Erkenntnisschwierigkeiten fuhren, da sie einige der dargestellten Details nicht mit dem dazugehörigen Objekt assoziieren" (Staufer 1987, 9).
I> Ai
*
1
b.
k f f 1
RCSTROOMS 1
f MEN
1
k mmmmm m
A b b . 4.1: V o n Otl A i c h e r e n t w o r f e n e P i k t o g r a m m e für die olympischen Spiele 1972 (links oben), piktografisches Leitsystem für Behinderte (rechts oben), Verkehrsschilder (links unten), W a r n h i n w e i s e (rechts unten)
Bei der Produktion von Bildzeichen müssen einige grundlegende Gestaltungsprinzipien beachtet werden (vgl. etwa Strothotte/Strothotte 1997, 174): • • •
Der Kommunikationszweck bestimmt die Gestaltung Piktogramme müssen einfach sein (einfache, geometrische Formen; einfache, fette Linien etc.) Die Farbwirkungen (siehe Kapitel 3.2.2.) müssen berücksichtigt werden
Icons in Benutzeroberflächen
• • •
53
Reine, gesättigte Farben und hohe Kontraste erleichtern das Erlernen der Bildzeichen Können keine geeigneten Bildzeichen gefunden werden, ist die Beschriftung nicht nur zulässig, sondern dringend erforderlich Werden mehrere Piktogramme verwendet, muss auf eine einheitliche gestalterische Linie geachtet werden
Viele dieser Richtlinien gehen auf gestaltpsychologische Gesetze zurück (siehe Kapitel 2, vgl. dazu auch Staufer 1987, 101-108). Zu nennen ist in erster Linie das Gesetz der Einfachheit oder guten Gestalt: Je einfacher und prägnanter eine Figur ist, desto leichter kann sie wahrgenommen und identifiziert werden. Auch die Figur-Grund-Beziehung spielt eine Rolle. Sie muss in jedem Fall eindeutig sein, d. h. die Figur muss schnell identifiziert werden können und sich klar vom Grund abheben. Sogenannte Kippbilder, bei denen Figur und Grund wechseln können, sind als Piktogramme ungeeignet. Die Abgrenzung zum Hintergrund kann mit Hilfe der Gestaltungsmittel Kontrast und Linie erzeugt werden. Die dabei entstehende Kontur gehört zur Figur, nicht zum Hintergrund. Durch Kontrast erzeugte Konturen sind generell wirksamer als durch Linien erzeugte Konturen (vgl. Staufer 1987, 103). Auch die Orientierung spielt bei der Gestaltung ein wichtige Rolle. In Kapitel 3.2.3. wurde gezeigt, dass unsere Wahrnehmung besonders auf horizontale und vertikale Muster ausgerichtet ist. Die Entschlüsselung von Piktogrammen kann durch eine Ausrichtung an diesen Hauptachsen erleichtert werden.
4.2. Icons in Benutzeroberflächen Der Begriff Icon (Ikon) geht auf das griechische eikon zurück und bedeutet Bild. Er ist verwandt mit dem Begriff der Ikone. Ikonen sind Kultbilder der griechischorthodoxen Kirche, auf denen heilige Personen oder ihre Geschichte dargestellt sind. Sie haben zumeist symbolischen Charakter. Mit Icons werden dagegen Bildzeichen oder Piktogramme bezeichnet, die in die Benutzeroberfläche digitaler Informationssysteme integriert sind. Icons können wie herkömmliche Piktogramme bild- oder zeichenbasiert sein. Ihre Funktion liegt darin, Systemoperationen visuell zu veranschaulichen (Beispiel: Verzeichnis löschen) oder Objekte zu bezeichnen (Beispiel: Papierkorb). Genau wie bei traditionellen Bildzeichen kann die grafische Repräsentation von Objekten oder Aktionen aber auch missverständlich, irreführend oder falsch sein. Das liegt daran, dass symbolhafte Darstellungen nicht eindeutig und differenziert Sachverhalte darstellen können, wie sie etwa mit Text beschrieben werden können. Bildzeichen haben keine Syntax (vgl. Kapitel 3.1.), und sie müssen bei sehr komplexen Aktionen vollständig neu erlernt werden. Wenn dieser Lern-
54
Bildzeichen
prozess nicht durch Text unterstützt wird, kann es zu Missverständnissen und Fehlfunktionen kommen. Gerade im Bereich der grafischen Anwendersoftware ist der Funktionsumfang einiger Programme so umfassend, dass die meisten Systemoperationen gar nicht grafisch repräsentiert werden können. Werden trotzdem Icons verwendet, dann ist der Lernaufwand für den Anwender außerordentlich hoch, und der Einsatz von Icons muss generell in Frage gestellt werden. Der entscheidende funktionale Unterschied zwischen herkömmlichen Bildzeichen und Icons liegt darin, dass Icons in aller Regel interaktiv sind und das Prinzip der direkten Manipulation unterstützen. Der Klick oder das Ziehen des Mauszeigers auf ein Icon löst eine bestimmte Aktion des Systems aus. Icons sind zweidimensionale Objekte. Dennoch ist es möglich, über die grafische Gestaltung Bezug zu den dreidimensionalen Objekten aus unserem täglichen Leben herzustellen. Räumliche Tiefe und Dreidimensionalität können auf dem Computerbildschirm zwar nur simuliert werden, trotzdem kann eine entsprechende Gestaltung helfen, den interaktiven Charakter des Bildzeichens herauszustellen. Wenn ein Icon dreidimensional gestaltet oder mit einem Schatten versehen wird, erhöht sich für den Anwender der Aufforderungscharakter, mit eben diesem Objekt zu interagieren. Räumliche Tiefe kann auch über die Farbgebung, speziell die Sättigung von Farben, erzeugt werden. Je niedriger die Sättigung, desto weiter entfernt scheint ein Objekt auf dem Bildschirm zu sein und desto weniger Bedeutung kommt ihm zu. Icons können auch ihre visuelle Struktur verändern. Form, Farbe oder Tonwert können dynamisch ausgestaltet sein und dem Anwender spezifische Informationen über die Funktionalität des Systems liefern. Beispielsweise kann ein farbiges Icon auf eine aktive Systemfunktion verweisen, während ein graues oder wenig gesättigtes Icon anzeigt, dass diese Funktion gerade nicht zur Verfügung steht. Auch die Platzierung der digitalen Bildzeichen kann variabel sein. Bestimmte Icons können per Drag'n'drop über die Benutzeroberfläche gezogen werden. Damit lassen sich etwa sehr einfach Übungsaufgaben für CBT- oder WBT-Systeme (Computer Based Training/Web Based Training) realisieren. Ein weiteres Beispiel ist der Mülleimer der Mac- und W'/Wowi-Betricbssysteme. Zieht der Anwender ein Icon, das beispielsweise ein Dateiverzeichnis repräsentiert, auf diesen Mülleimer, werden die entsprechenden Daten gelöscht. Schließlich können Icons auch Bewegung darstellen. Animierte Icons können verwendet werden, um bestimmte dynamische Prozesse zu veranschaulichen, etwa einen Datentransfer oder die Verbindung zu einem anderen Computer bzw. Netzwerk. Eine Untersuchung aus dem Jahr 1997 belegt, dass die Funktionen animierter Icons besser und öfter verstanden werden als die statischer Icons (Bodner/MacKenzie 1997). Die Autoren gehen davon aus, dass animierte Icons besonders für die Repräsentation hochkomplexer Aktionen geeignet sind, während statische Icons eher für die Darstellung einfacher Funktionen genutzt werden sollten.
Icons in Benutzeroberflächen
55
Eine weitere Besonderheit von Icons liegt darin, dass sie mit anderen Kommunikationsmitteln kombiniert werden können. Die Kombination von Icons mit Text ist eine der effektivsten Möglichkeiten, unterschiedliche Benutzerprofile zu bedienen. Mit Hilfe textbasierter Verweise können Erstanwender mit den grundlegenden Möglichkeiten eines Systems vertraut gemacht werden, während erfahrene Nutzer sich vor allem an den Bildzeichen orientieren. Bei der Icon-TextKombination hat sich mit den Tooltipps inzwischen ein quasi-konventionelles Muster herausgebildet (vgl. dazu auch Thissen 2001, 110): Bewegt der Anwender die Maus über das Icon, erscheint ein kleiner, gelber Kasten mit einem entsprechenden Textverweis. Icons können aber auch mit Tönen verknüpft werden. Fast alle E-Mail-Programme haben in ihre Benutzeroberfläche oder in den Desktop des Betriebssystem Icons integriert, die ihre formale Struktur verändern und einen Jingle abspielen, wenn eine neue Nachricht eingegangen ist. In Anlehnung an Shneiderman (1998, 208f.) können für Icons folgende Gestaltungsrichtlinien gelten: • • • • • • • •
Icons müssen ein Objekt oder eine Aktion in vertrauter und erkennbarer Weise darstellen Das Icon muss sich vom Hintergrund abheben Dreidimensionale Icons können einerseits Aufmerksamkeit auf sich ziehen, andererseits den Anwender ablenken Icons einer Icon-Familie müssen miteinander harmonieren Jedes Icon muss von jedem anderen Icon deutlich zu unterscheiden sein Aktive Icons müssen sich deutlich von inaktiven unterscheiden Ziehbare Icons sollten besonders gestaltet werden, so kann der Ausgangspunkt der Operation beispielsweise als Umriss dargestellt werden Die visuellen Merkmale eines Icons können auf Detailinformationen hinweisen: Die Farbsättigung kann beispielsweise auf das Alter eines Dokumentes hinweisen, oder eine Animation kann anzeigen, wie viel Prozent eines Dokumentes bereits ausgedruckt ist
Zur vertrauten Darstellung von Objekten bzw. Aktionen gehört zum einen die angestrebte Übereinstimmung in mindestens einem visuellen Merkmal. Zum anderen muss das Icon einfach, klar und eindeutig sein. Visuelle Zusatzinformationen oder gar Ausschmückungen sind dann zu vermeiden, wenn sie nichts zur kommunikativen Funktion des Bildzeichens beitragen. Das konventionelle Muster für das Home-Icon auf einer Web-Site ist ein einfaches, stilisiertes Haus mit Satteldach. Die detaillierte Darstellung eines Reihenhauses mit Garten oder eines Mehrfamilienhauses würden den Anwender hier nur verunsichern. Dass sich das Icon vom Hintergrund abheben muss, ist evident. Auf diese Weise zieht es Aufmerksamkeit auf sich und kann seine interaktive Struktur anzeigen. Eine sehr effektive Möglichkeit, den Figur-Grund-Charakter zu beto-
56
Bildzeichen
nen, ist die Abgrenzung mit Hilfe breiter Umrisslinien (vgl. Kapitel 2.1.). Daneben bietet sich eine dreidimensionale Gestaltung an. Doch der Blick des Anwenders kann dabei genauso von anderen relevanten Objekten bzw. Inhalten abgelenkt werden. Darüber hinaus sind die Kriterien der Einfachheit und der Dreidimensionalität nicht immer vereinbar. Icons können nach Inhalt oder Funktion gruppiert werden. Diese Gruppen oder Familien müssen als solche kenntlich gemacht werden. Innerhalb der Familie muss es einheitliche gestalterische Merkmale geben. So sollten beispielsweise Grundform und Strichstärken übereinstimmen. Eine wichtige Hilfe bei der Entwicklung einer Icon-Familie kann ein Layoutraster sein, der Abstände, Winkel, Kurvenverläufe etc. definiert. Der Richtlinienkatalog muss jedoch auch genügend Spielraum bieten, Icons innerhalb der Familie unterscheiden zu können. Beim Einsatz von Farben sollte bei der Icon-Gestaltung generell Zurückhaltung geübt werden. Zu viele Variationen bei Farbwahl oder Farbkontrast können den Anwender verwirren. Schwarz, Weiß, Grau und zwei bis drei zusätzliche Farben sind absolut ausreichend.
5. Das bewegte Bild „Die Bewegung ist der stärkste Sehreiz. Ein Hund oder eine Katz können friedlich daliegen und sich wenig um all die unbeweglichen Lichter und Formen kümmern, die ihre Umwelt ausmachen; sobald sich aber irgend etwas rührt, gehen ihre Augen in diese Richtung und verfolgen die Bewegung. Kleine Katzen scheinen allem, was sich bewegt, vollständig ausgeliefert zu sein, als klebten ihre Augen daran" (Araheim 2000, 371). Beim Menschen ist das nicht viel anders. Auch wenn wir uns der Aufmerksamkeit erregenden Wirkung von Bewegung bewusst sind, können wir uns dieser automatischen Reaktion kaum entziehen. Insbesondere Bewegung in der Peripherie unseres Gesichtsfeldes fuhrt zu einer Augenbewegung in Richtung des wahrgenommenen Sehreizes. Walls (1942, 342f.) fuhrt dieses Verhalten auf ein evolutionäres Räuber-Beute-Schema zurück. Neben der Aufmerksamkeitsfunktion kann Bewegung nach Goldstein (1997, 268) folgende weitere Funktionen haben: • • •
Bewegung kann dem Betrachter dreidimensionale Informationen über seine Umwelt liefern Bewegung kann die Figur vom Grund trennen Bewegung kann Informationen liefern, mit deren Hilfe wir in unserer Umwelt interagieren können
Generell können fünf Bewegungserfahrungen unterschieden werden (vgl. etwa Goldstein 1997, 269f.; Guski 1996, 171ff. oder Arnheim 2000, 378ff.): • • • •
•
Physische Bewegung: Ein Objekt bewegt sich relativ zu seiner Umwelt Optische Bewegung: Das Objekt ist unbewegt, das Auge des Betrachters bewegt sich Stroboskopische Bewegung (Scheinbewegung): Durch kurz aufeinander folgende Einzeleindrücke wird eine Scheinbewegung wahrgenommen Wasserfalltäuschung (allgemeiner Bewegungsnacheffekt): Wenn man einen Wasserfall oder Fluss betrachtet und anschließend den Blick auf ein anderes Objekt richtet, scheint sich dieses in die entgegengesetzte Richtung zu bewegen Induzierte Bewegung: Relativ kleine, unbewegte Objekte scheinen sich im Vergleich zu relativ großen, bewegten Objekten selbst zu bewegen (Beispiele:
Das bewegte Bild
58
Der Mond bewegt sich relativ zu den Wolken, der Fahrgast am Bahnsteig bewegt sich relativ zum abfahrenden Zug) Darüber hinaus gibt es eine kinästhetische Bewegungswahrnehmung. Sie bezeichnet die Empfindung von Bewegung, die nicht durch das Sehen bedingt ist. So können wir uns etwa bei geschlossenen Augen Bewegung vorstellen. Auch das Schwindelgefiihl ist eine Bewegungswahrnehmung, die nicht auf unsere sinnliche Erfahrung zurückgeführt werden kann. Die Darstellung von Bewegung im Fernsehen, im Film und auf dem Computerbildschirm beruht ausschließlich auf der schnellen Abfolge einzelner statischer Bilder. Dieser Scheinwahrnehmung liegen der Stroboskopeffekt und die so genannte Nachbildwirkung zu Grunde. Die Nachbildwirkung beruht auf der Trägheit unseres Auges, das ein wahrgenommenes Einzelbild ungefähr 1/8 Sekunde festhält. Folgt innerhalb diese Zeitraums ein anderes Bild nach, werden beide Einzelbilder überlagert. Im folgenden sollen zwei unterschiedliche Spielarten des bewegten Bildes behandelt werden: die Animation und der interaktive Videoclip. In Abschnitt 5.1.1. werden die wichtigsten Formen der Animation vorgestellt und die wesentlichen Unterschiede zum Film herausgearbeitet. Darüber hinaus wird die Geschichte der Animation von den Anfängen im frühen 19. Jahrhundert bis zur Erfindung des Films im Jahr 1895 nachgezeichnet. In Abschnitt 5.1.2. werden neue Formen der interaktiven Animation in den Digitalmedien sowie die zu Grunde liegenden Gestaltungsprinzipien diskutiert. Zentrales Thema in Abschnitt 5.2.1. ist der Hypervideoclip. Hier sollen zunächst Möglichkeiten zur Entwicklung einer nicht-linearen Erzählstruktur erörtert werden. Außerdem wird skizziert, welche konzeptionellen Schritte bei der Produktion eines interaktiven Clips berücksichtigt werden müssen. In Abschnitt 5.2.2. werden abschließend Navigationsprinzipien für Hypervideoclips skizziert.
5.1. A n i m a t i o n 5.1.1. Von der Animation zum Film und zurück Mit Animation wird die Wiedergabe einer Folge unbewegter Einzelbilder bezeichnet, bei der der Eindruck von Bewegung entstehen kann - jedoch nicht zwangsläufig entstehen muss. Prinzipiell können alle visuellen Merkmale eines Objektes animiert werden: Position, Form, Farbe, Textur etc. Daneben kann auch die Beleuchtung (Lichttemperatur, Lichtintensität oder Beleuchtungswinkel) oder die Position der virtuellen Kamera in Relation zur Zeit verändert werden. Im Gegensatz zur Animation werden beim Film (bzw. Video) die Bilder nicht einzeln produziert und anschließend zusammengefugt, sondern kontinuierlich
Animation
59
aufgezeichnet. Das Aufzeichnungsverfahren beim Film ist fotomechanisch, bei der Videotechnik elektromagnetisch bzw. digital. Man kann drei wesentliche Formen der Animation unterscheiden: Zeichentrickanimation, Stop-Motion-Animation und Computeranimation. Beim klassischen Zeichentrickfilm besteht die Animation aus einzelnen Zeichnungen, die Bild für Bild abfotografiert und dann zusammengefügt werden. Bei der Zeichentrickanimation gibt es - wie bei der Computeranimation - so genannte Schlüsselbilder (Keyframes) oder Schlüsselzeichnungen. Anders als bei der digitalen Animation werden die Zwischenbilder aber nicht automatisch berechnet, sondern von Hand gezeichnet. Schlüsselbilder dienen vor allem zur Charakterisierung von Figuren. Sie werden eingesetzt, um Änderungen der Bewegungsrichtung, der Bewegungsgeschwindigkeit oder der Kameraperspektive zu verdeutlichen. Beim Stop-Motion-Animationsfilm wird im Gegensatz zum Zeichentrickfilm nicht gezeichnet, sondern modelliert. Zu den bekanntesten Animationsfilmen gehört wohl die Wallace-and-Gromit-Trüogie des britischen Filmemachers Nick Park. Bei den Plastilinfilmen muss jedes Objekt für ein einziges Filmbild von Hand bewegt werden. Bewegungsabläufe werden minutiös im voraus geplant und eventuell computerüberwacht. Die Positionen der Objekte und der Kameras müssen dabei millimetergenau festgelegt werden. Bei der Computeranimation nehmen Software und Rechner den Animateuren einen Teil der Arbeit ab. Einzelne Bilder zwischen Keyframes können automatisch berechnet werden. Die Bewegung entlang eines vordefinierten Pfades kann die Objektanimation erleichtern. Darüber hinaus können mit der Skelettanimation und der inversiven Kinetik relativ einfach Bewegungsabläufe modelliert werden. Die meisten computergenerierten Animationen bedienen sich der Schlüsselbildtechnik. Neuere Verfahren ermöglichen auch ein Darstellung der Animation in Echtzeit. Hier verschwimmen die Grenzen zwischen Animation und virtueller Realität (siehe Kapitel 7). Die Idee, mit Bildern Bewegung darzustellen, geht bis ins 18. Jahrhundert zurück. Das wohl bekannteste Beispiel ist das Daumenkino. Im Laufe des 19. Jahrhunderts entstanden optische Animationsgeräte, die als Spielzeug für Kinder, letztlich aber auch der Massenunterhaltung dienten. Die Erfindung des Thaumatrops im Jahr 1825 kann höchstwahrscheinlich John A. Paris zugewiesen werden (vgl. etwa Hick 1999, 309 oder Carusella 2002). Das Thaumatrop (auch Wunderscheibe) ist der erste Apparat, der sich das Prinzip der Nachbildwirkung zu Nutzen macht. Das simple Gerät besteht aus einer Papierscheibe, die auf beiden Seiten mit einem gemalten Motiv versehen ist. An zwei gegenüber liegenden Seiten der Scheibe sind Bänder angebracht. Beim Zwirbeln der Bänder dreht sich die Scheibe, und ab einer bestimmten Geschwindigkeit überlagern sich beide Motive. 1833 haben der Belgier Joseph A. Plateau und der Österreicher Simon Stampfer zeitgleich das Phenakistiskop erfunden (vgl. etwa Füsslin o.D. oder Hick
60
Das bewegte Bild
1999, 311). Das Phenakistiskop (auch Stroboskop, Lebensrad oder Fantoskop) ist eine Scheibe mit Sehschlitzen und rückseitig angebrachten Phasenbildern (Zeichnungen). Wenn man die Scheibe vor einem Spiegel dreht und durch die Sehschlitze blickt, entsteht der Eindruck eines zyklischen Bewegungsablaufs. Das Phenakistiskop basiert auf den wissenschaftlichen Erkenntnissen von Michael Faraday und Peter M. Roget, die als erste den Stroboskopeffekt in Verbindung mit der Nachbildwirkung erforscht hatten (vgl. dazu auch Arns 1999). 1834 hat William Horner die Wundertrommel erfunden (später bekannt geworden unter dem Namen Zoetrop oder Zootrop - vgl. etwa Carusella 2002). Das Zoetrop ist eine Weiterentwicklung des Phenakistiskops. Die Phasenzeichnungen sind nicht mehr auf einer Scheibe angebracht, sondern auf austauschbaren Papierbändern. Diese Bänder wiederum sind im Inneren einer Trommel befestigt. Blickt man durch die Schlitze der sich drehenden Trommel, nimmt man eine bewegte Animation wahr. Auch das Praxinoskop des Franzosen Emile Reynaud bedient sich einer ähnlichen Technik wie das Zoetrop. 1877 stellte er eine Trommel vor, bei der die mitlaufenden Sehschlitze durch einen in der Mitte angebrachten Spiegelkranz ersetzt wurden (vgl. Füsslin o.D.). 1882 wurde das Praxinoskop zum Praxinoskop-Theater (auch optisches Theater) weiterentwickelt. Hick (1999, 331) schreibt: „Das .Optische Theater' verbindet die Projektion zunächst gemalter Bilderfolgen auf transparentem perforiertem Gelatineband, später auch auf handkoloriertem photografischem Film, mit einer ebenfalls projizierten statischen Szenerie und exakt synchronisierten Geräuscheffekten." Bis zur Erfindung des Films durch die Gebrüder Lumière im Jahr 1895 wurden noch einige weitere Animationsgeräte entworfen, etwa das Zoopraxiskop (Edward Muybridge, 1879), eine Kombination aus Lebensrad und Projektionsgerät. Das Mutoskop aus dem Jahr 1894 ist ein Münzautomat in Verbindung mit einem Zylinder, der fotografische Phasenbilder zu einer Bewegungsanimation verbindet. Wie bereits skizziert, unterscheidet sich die klassische Animation vom Film durch die getrennte Herstellung jedes einzelnen Bildes. Alle optischen Apparaturen wie Thaumatrop oder Phenakistiskop bauen auf diesem Prinzip auf. Der qualitative Sprung von der Animation zum Film liegt darin, dass eine automatische Produktion mit einer automatischen Projektion der Bilder verbunden wird. Der Film läuft außerdem nicht mehr in einer Schleife ab, sondern entwickelt sich zu einem linearen Medium. Manovich (1997) verweist dabei auf die Wirklichkeitskonstruktion beim Film: Der Gegensatz zwischen dem Stil der animierten Bilder und dem Film definierte die Kultur des bewegten Bildes im 20. Jahrhundert. Animation stellt ihren künstlichen Charakter in den Vordergrund und räumt offen ein, daß ihre Bilder nur Repräsentationen sind. Ihre visuelle Sprache ist mehr mit der Grafik als mit der Fotografie verbunden. [...] Der Film hingegen versucht mit allen Mitteln, j e d e Spur seines Produktionsprozesses und auch j e d e n Hinweis zu verwischen, daß die Bilder, die wir sehen, kon-
Animation
61
struiert und nicht aufgenommen sein könnten. [...] Es spiegelt dem Zuschauer und sich selbst vor, eine einfache Aufnahme einer bereits existierenden Wirklichkeit zu sein.
Nun, im Zeitalter der digitalen Medien, scheinen Film und Animation wieder zusammenzuwachsen. Fast jede Produktion wird digital nachbearbeitet und teilweise Bild für Bild verändert. Fotorealistische Animationssequenzen ergänzen das gedrehte Material und sind von diesem kaum noch zu unterscheiden. Bei Massenszenen werden nicht mehr Statisten angeworben, sondern digitale Charaktere einkopiert und vervielfältigt. Kulissen werden nicht mehr aufwändig nachgebaut, sondern am Rechner (genauso aufwändig) konstruiert. Ausgehend von der Einschätzung, dass der Kinofilm die genuin industrielle Kunstform des 20. Jahrhunderts war, sieht Vockrodt (2000) eine ähnlich dominante Rolle für die Animation im 21. Jahrhundert voraus: „Es ist nämlich heute bereits ein Anachronismus, Filme in Zeichentrick- und Realfilme zu unterteilen. Die Möglichkeiten, welche die digitale Bildbearbeitung bietet, lassen die Grenzen zwischen Realfilm und Trickfilm verschwimmen." Und Manovich (1997) stellt provokant fest: Im Kontext der Kulturgeschichte bewegter Bilder stellt die manuelle Konstruktion von Bildern im digitalen Film eine Rückkehr in präkinematische Praktiken des 19. Jahrhunderts dar, als Bilder mit der Hand bemalt und animiert wurden. Im Obergang zum 20. Jahrhundert mußte der Film diese handwerklichen Techniken an die Animation delegieren und sich selbst als aufnehmendes Medium definieren. Beim Eintritt in das digitale Zeitalter werden diese Techniken bei der Produktion eines Filmes wieder ganz selbstverständlich. D e s w e g e n läßt sich der Film nicht mehr eindeutig von der Animation unterscheiden. Es ist keine indexikalische Medientechnologie mehr, sondern eine Unterart der Malerei.
5.1.2. Digitale A n i m a t i o n - interaktive A n i m a t i o n Animationstools für Multimediaproduktionen gibt es schon lange. Die einfachste Möglichkeit, Animationen in hypermediale Anwendungen einzubinden, basiert auf digitalen Videoformaten wie Quicktime, AVI oder MPEG. Mit 2D- oder 3DGrafiksoftware erstellte Animationen werden „gerendert" und als digitale Videoclips gespeichert. Die Interaktionsmöglichkeiten für den Anwender sind dabei jedoch beschränkt. Zwar können die digitalen Clips beliebig oft und jederzeit wiedergegeben sowie ohne Zeitverlust „gespult" werden, doch ihre innere Struktur lässt sich nicht verändern. Neuere Techniken wie Shockwave, Flash oder das um interaktive Möglichkeiten erweiterte Quicktime-Format bieten hier Abhilfe. Der Anwender kann über Hotspots
und Links direkt einzelne Sequenzen
auswählen. Er bestimmt die Ablaufsteuerung der Animation. 3D-Formate wie Shockwave-3D
oder Viewpoint
ermöglichen darüber hinaus die Echtzeitdarstel-
lung von dreidimensionalen Modellen und Animationen.
62
Das b e w e g t e Bild
Mittlerweile hat sich auch das Internet zu einem geeigneten Medium für bewegte Bilder entwickelt. Die oben genannten Technologien kommen ausnahmslos auch auf Web-Sites zum Einsatz. Einige wurden sogar speziell für das WWW entwickelt. Darüber hinaus gibt es fur digitale Clips im Internet so genannte Streaming-Formate, die ein Betrachten der Bilddaten bereits ermöglichen, auch wenn die Datei noch nicht komplett in den Cache des eigenen Rechners geladen wurde (RealVideo, ASF, Quicktime, Flash). Ermöglicht wurde die multimediale Aufrüstung des ursprünglichen Textmediums Internet durch gestiegene Datenübertragungsraten und innovative neue Technologien. Bewegte Bilder im WWW gibt es aber erst seit dem Jahr 1987. Damals wurde das GIF87a-Format vorgestellt, ein Grafikformat, das mehrere Bilder in einer Datei speichern konnte. Doch erst in der Nachfolgerversion, GIF89a, wurde eine Steuerung zum Erzeugen von animierten GIFs implementiert. Die frühen GIF-Animationen sind zappelige, ruckelnde Bildfolgen, deren einzige inhaltliche Funktion darin besteht, Aufmerksamkeit zu erregen. Rotierende Weltkugeln, Fußbälle oder Firmenlogos - die Internet-Animationen der ersten Generation sind um ihrer selbst Willen animiert. Inzwischen haben sich im Netz aber einige Ernst zu nehmende Genres und Einsatzmöglichkeiten der Animation herausgebildet. Im Bereich der Unterhaltung haben sich so genannte Webtoons etabliert, Cartoons vor allem auf Basis der Flash-Technologie. Für Produktentwurf, Produktpräsentation und -verkauf können dreidimensionale Animationen eingesetzt werden. Der Automobilhersteller Ford bietet auf seiner Web-Site beispielsweise die Möglichkeit, bestimmte Modelle auf allen drei Raumachsen erfahrbar zu machen. Darüber hinaus können bei Bedarf visuelle Zusatzinformationen aufgerufen werden. Zwei- und dreidimensionale Animationen können auch für Simulationen eingesetzt werden (etwa in der Medizin). Im Bereich der Wissens- und Informationsvermittlung kommen schließlich interaktive Erklärstücke zum Einsatz. So konnte man im August 1999 auf den Web-Seiten zahlreicher Nachrichtenanbieter Flash-Animationen zur Funktionsweise der Sonnenfinsternis finden. Generell können Animationen in den digitalen Medien folgende Funktionen haben (vgl. dazu Nielsen 2000, 143f. und Thissen 2001, 118f.): • • • • • • •
Aufmerksamkeitslenkung Wecken von Interesse und Motivation Darstellung von komplexen Sachverhalten und Prozessen Unterstützung der aktiven Wissenskonstruktion Unterstützung der Behaltensleistung Darstellung dreidimensionaler Strukturen Darstellung von Änderungen in der Zeit
Die Darstellung komplexer Sachverhalte ist eine der wichtigsten inhaltlichen Funktionen. Animationen können Funktionsweisen oder Abläufe von Prozessen
Hypervideo
63
oft sehr viel besser beschreiben als das mit Text und Bild m ö g l i c h wäre. D i e Unterstützung der aktiven Wissenskonstruktion und der Behaltensleistung spielen vor allem bei digitalen Lehr- und Lernsystemen ein große Rolle. Bei der Motivations- und Interessenlenkung, die ebenfalls bei C B T - und W B T - S y s t e m e n v o n Bedeutung ist, muss allerdings beachtet werden, dass rein dekorative A n i mationen den A n w e n d e r v o n relevanten Inhalten ablenken können. K o m p l e x e Objekte können mit H i l f e z w e i d i m e n s i o n a l e r Bilder oft nur unzureichend dargestellt werden. Hier kann eine dreidimensionale Animation den Charakter des Objektes sehr viel besser verdeutlichen. A n i m a t i o n e n können schließlich zur Visualisierung v o n Objektveränderungen in der Zeit dienen. Ein Beispiel ist e t w a die zeitbeschleunigte Darstellung d e s Wetterverlaufs. Bei der K o n z e p t i o n einer Animation ist j e d o c h nicht nur der funktionale Kontext zu beachten, g e n a u s o wichtig sind e i n i g e grundlegende Prinzipien der Ablaufsteuerung. Zunächst einmal muss gewährleistet sein, dass zu e i n e m bestimmten Zeitpunkt nur eine e i n z i g e A n i m a t i o n zu sehen ist. D a s simultane Zus a m m e n s p i e l mehrerer A n i m a t i o n e n oder V i d e o c l i p s würde die Wahrnehmungskapazitäten d e s Betrachters bei w e i t e m überfordern. Der B e w e g u n g s a b l a u f der A n i m a t i o n m u s s flüssig sein und darf nicht „ruckeln". Animationen nutzen sich ab. Bei w i e d e r h o l t e m K o n s u m können sie schnell l a n g w e i l i g werden - das gilt insbesondere für animierte Intro-Sequenzen v o n W e b - S i t e s . D e s w e g e n m u s s der A n w e n d e r die M ö g l i c h k e i t haben, eine Animation zu überspringen oder zu stoppen. Im Bedarfsfall sollte sie aber auch wiederholt werden können. Im G e g e n s a t z zur Darstellung v o n B e w e g u n g im M e d i u m Film oder Fernsehen sind digitale Animationen meistens nicht formatfüllend. D i e A n i m a t i o n steht in Korrespondenz oder Konkurrenz zu anderen Kommunikationsmitteln innerhalb einer g e m e i n s a m e n Benutzeroberfläche. Bild- und Textbausteine können die Kerninformation der Animation vertiefen. Sie k ö n n e n dynamisch, in A b h ä n g i g keit zur g e z e i g t e n A n i m a t i o n s s e q u e n z dargestellt werden. A u f der anderen Seite lassen sich mit interaktiven Bildern und Texten auch ganz g e z i e l t b e s t i m m t e Ausschnitte der Animation ansteuern.
5.2. Hypervideo 5.2.1. Erzähl- und Interaktionsstruktur D i e Einsatzmöglichkeiten für digitale V i d e o c l i p s sind vielfaltig. In Multimediaa n w e n d u n g e n werden V i d e o c l i p s als Lehr- oder Anschauungsmaterial eingebunden. E i n i g e Internet-Filmportale
bieten komplette S p i e l f i l m e i m
Streaming-
Verfahren an (und das in durchaus akzeptabler Qualität). D a n e b e n hat sich der h o c h a u f l ö s e n d e Trailer b z w . Teaser als W e r b e c l i p für K i n o f i l m e etabliert. Eine
64
Das bewegte Bild
weitere Einsatzmöglichkeit ist die Eigendarstellung - sei es von Künstlern, die einen Einblick in ihr Schaffen geben wollen, oder von Firmen, die eine engere Kundenbindung herstellen wollen. Schließlich sind Videoclips auch aus dem Nachrichtenbereich des WWW nicht mehr wegzudenken. Der Verwendungszweck von Hypervideo ist dagegen sehr viel spezifischer als beim linearen Digitalclip. Neben dem Bereich der Forschung und Entwicklung kommen interaktive Videoanwendungen vor allem beim computergestützten Lernen zum Einsatz (vgl. Francisco-Revilla 1998). Je nach Lernziel kann der Anwender hier etwa eine dynamisch erzeugte Abfolge von Szenen abrufen. Ein weiteres wichtiges Einsatzgebiet ist der Unterhaltungssektor. Ähnlich wie bei Computerspielen können hier hochkomplexe, interaktive Videonetzwerke eine neue Form der Bildschirmunterhaltung schaffen. Der lineare digitale Videoclip unterscheidet sich vom Fernsehen oder Film in Bezug auf seine zeit- und ortsunabhängigen Rezeptionsbedingungen. Er kann ohne nennenswerten Zeitverlust „gespult", einzelne Sequenzen können direkt angesteuert werden. Trotzdem hat der Betrachter keinen Einfluss auf die Handlung des Films. Die Erzähl struktur eines Films selbst kann zwar nicht-lineare Elemente aufweisen, etwa eine Rückblende. Doch weder im klassischen Film noch beim simplen Digitalclip kann diese Handlungsstruktur verändert werden. Ganz anders verhält es sich bei Hypervideo. Hypervideo kann sich einerseits spezieller Techniken des Films bedienen - etwa der Montage. Hypervideo kann andererseits aber auch unterschiedliche Erzählstränge generieren - wie etwa der Hypertext. Der Anwender bestimmt also selbst, wie eine filmische Geschichte weitergeht. Die nicht-lineare Erzähl- und Interaktionsstruktur des Hypervideo macht aber auch ein konzeptionelles Umdenken erforderlich. Ein simples Zerschneiden eines linearen Clips und die Verfugbarmachung der einzelnen Teile kann allenfalls als Video-on-demand bezeichnet werden. Alternative Handlungsstränge lassen sich dabei jedoch nicht generieren. Bei der Konzeption, der Erstellung eines Storyboards und dem Design der Benutzeroberfläche müssen diese Alternativen also von vornherein eingeplant werden. Eine wichtige Grundlage fiir die Konzeption interaktiver Videos ist das Digital Storytelling. Dieser Begriff bezeichnet die Verbindung traditionellen Geschichten Erzählens mit den kreativen Möglichkeiten spezieller StorytellingSoftware: „Digital storytelling is the art of creating and enhancing good stories with rieh media development and distribution tools. Digital storytelling helps communicators build powerful connections between people, produets, companies, communities, themselves and each other" (Skrzyniarz 2000). Darüber hinaus ermöglichen die digitalen Hilfsmittel die Transformation eines (linearen oder nicht-linearen) Handlungsverlaufs in einen interaktiven Rezeptionsprozess. Galyean III (1995, 32f.) nennt vier wesentliche Prinzipien für die Entwicklung einer interaktiven Erzählstruktur:
Hypervideo
• •
•
•
65
Temporale Struktur. Interaktive Geschichten sollten zeitliche Kontinuität aufweisen Kontinuierliche Interaktivität. Der Anwender sollte nicht zwanghaft interagieren müssen. Die Präsentation sollte nicht stoppen und auf Eingabeaktionen des Benutzers warten. Die Steuerung des Anwenders muss in den kontinuierlichen Ablauf der Geschichte integriert sein Zwei Ebenen der Repräsentation. Die Plot-Ebene verkörpert die temporale Struktur. Die Präsentationsebene weist auf die Perspektive des Betrachters hin, die durch kontinuierliche Interaktion gekennzeichnet ist Beeinflussung der Rezipientenperspektive. Analog zum klassischen Film (Schnitt, Blende etc.) müssen Techniken gefunden werden, um Übergänge von Raum und Zeit zu visualisieren
Die Geschichte mitsamt ihren alternativen Handlungsverläufen wird im Drehbuch festgeschrieben. Anschließend wird das Storyboard erstellt - das visuelle Pendant zum Drehbuch. Im Storyboard werden die Schlüsselszenen eines Films auf einer Zeitleiste festgehalten. Dabei werden neben erzählerischen auch dramaturgische und gestalterische Aspekte berücksichtigt. Die Kameraeinstellungen sind ebenso festgelegt wie Objektbewegungen (anhand von Bewegungspfaden), gesprochener Text, Hintergrundgeräusche, Musik oder Beleuchtung. Darüber hinaus berücksichtigt das Storyboard auch schon mögliche Blenden oder Kamerabrennweiten. Für Hypervideo oder interaktiven Film muss neben dem traditionellen Storyboard auch eines für die Benutzeroberfläche entworfen werden (vgl. Balcom 1996). Neben gestalterischen Optionen müssen hier grundlegende Interaktionsprozesse festgelegt werden: Wie werden Videos strukturiert? Wie werden Videos untereinander verlinkt? Wie werden Videos mit Text und Bild verlinkt? Mit Hilfe des Storyboards kann festgelegt werden, was in welcher Szene des eigentlichen Drehs passieren soll. Dabei muss beachtet werden, dass alternative Handlungsabläufe in die Planung des so genannten Shooting Scripts miteinbezogen werden: „Hypervideo's nonlinear property requires authors to carefully plan for multiple outcomes to a particular narrative sequence, and plan contingencies for realizing the outcomes of those outcomes, and so on. This nodal manner of authoring requires a great deal of careful thought and work, and may be a foreign concept to those new to hypermedia" (Balcom 1996). Sind die Szenen gefilmt, müssen sie digital aufbereitet und geschnitten werden. Neben der Archivierung aller verfügbaren Einzelclips kommt in dieser konzeptionellen Phase dem Hyperskript eine entscheidende Bedeutung zu. Ähnlich wie beim Entwurf eines Strukturdiagramms für Web-Sites (siehe Kapitel 6.2.2.) werden hier alle möglichen Verknüpfungen der Clips visualisiert und zu einem komplexen Schaubild angeordnet. Anhand des Hyperskripts kann mit einer herkömmlichen Animationssoftware wie Flash ein Prototyp des Hypervideos erstellt werden. Flash (ab Version 6.O/MX) bietet dabei den Vorteil, dass alle
Das bewegte Bild
66
herkömmlichen Videoformate problemlos ins Programm eingebunden und mit variablen Hotspots untereinander verlinkt werden können. 5.2.2. Navigationsprinzipien Um Videoclips oder Teile eines Clips verknüpfen zu können, muss zunächst die Struktur von Hypervideo untersucht werden (im Englischen hat sich hier der Begriff Granulation
durchgesetzt). Die kleinste Einheit eines Clips ist dabei - j e
nach Sichtweise - die Szene oder das Einzelbild (Frame). Das isolierte Einzelbild kann als statisches Kommunikationsmittel behandelt werden. Jedes Einzelbild kann dabei mit unterschiedlichen Zielknoten verknüpft werden. Francisco-Revilla (1998) weist jedoch darauf hin, dass unter medienimmanenten Gesichtspunkten ein Frame nicht als Video bezeichnet werden kann, da ein zentrales Charakteristikum von Video die Veränderung in der Zeit ist. „Therefore for most a frame cannot contain the message of the video. From a rhetorical and conceptual point of view, this approach is similar to creating nodes for each individual phrase or word in a hypertext context." Eine Szene besteht nach Sawhney et al. (1996) aus einer Reihe sequentiell angeordneter Einzelbilder. Ein möglicher Pfad durch eine Reihe miteinander verlinkter Szenen wird als narrative Sequenz bezeichnet. Andere strukturelle Ansätze sind weder frame- noch szenenorientiert. Hier wird ein einzelner, großer Videoclip als singulärer Knoten betrachtet, der intern referenziert wird (vgl. Francisco-Revilla 1998). Szenen entsprechen nach diesem Modell nicht vorgefertigten Einzelclips, sondern werden dynamisch indexiert und generiert. Balcom (1996) unterscheidet drei wesentliche Verknüpfungsmöglichkeiten: temporäre Links ( T e m p o r a l Links), links (Text Links).
Hotspots ( S p a t i o - t e m p o r a l Links)
und Text-
Temporäre Links können durch Textanmerkungen in einer
Video-Statuszeile oder durch Veränderungen des Mauszeigers kenntlich gemacht werden. Sie können auch - als externe Variante - in einem zweiten Videofenster den Zielclip als Vorschau anzeigen (vgl. Abbildung 5.1 links). Hotspots markieren dagegen einen bestimmten Bereich innerhalb des Videofensters mittels Umrandung oder Einfarbung. Dieser Bereich bezieht sich in der Regel auf dargestellte Objekte oder Personen und folgt diesen dynamisch (vgl. Abbildung 5.1
Abb. 5.1: Temporärer Link (links), sich verändernder Hotspot (Mitte und rechts)
Hypervideo
67
Mitte und rechts). Der Zielknoten eines Hotspots kann sich dabei auf eine komplette Szene beziehen oder von Einzelbild zu Einzelbild variieren {Travelling Hotspot - vgl. dazu Francisco-Revilla 1998). Externe temporäre Links können eingesetzt werden, um dem Anwender einen Überblick über die mögliche Verknüpfung zu geben. Das eingeblendete Vorschaufenster ist dabei einige Sekunden aktiv und verschwindet wieder, wenn der Anwender dem Link nicht folgt. Der Vorteil von Hotspots liegt darin, dass nicht nur eine Verknüpfung angezeigt werden kann, sondern mehrere gleichzeitig. Der Anwender hat hier jedoch keine Möglichkeit, eine „visuelle Fußnote" (Balcom 1996) abzurufen. Textlinks sind für die reine Videoverknüpfung weniger geeignet. Ihr Einsatz bietet sich jedoch an, wenn die Benutzeroberfläche um andere Kommunikationsmittel erweitert wird. Dabei können, abhängig vom Videoclip, bestimmte Textverweise für den Benutzer angeboten werden. Wichtig beim Schnittstellendesign für Hypervideo ist aber in jedem Fall, dass der Anwender sofort erkennen kann, wann ein Link aktiv ist und (wenn möglich) wohin er führt. Darüber hinaus kann es sinnvoll sein, die Dauer eines aktiven Links anzuzeigen und auf das Ende der Interaktionsmöglichkeit hinzuweisen.
6. Vom klassischen Layout zur Informationsarchitektur Beim traditionellen Zeitungs- oder Magazindesign richtet sich die Gliederung der Beiträge nach der Aufteilung der Ressorts. Bei der Platzierung innerhalb der Ressorts spielen Kriterien wie Aktualität, Wichtigkeit oder allgemeines Interesse eine große Rolle. Daneben gibt es Darstellungsformen, die einen festen Platz auf der Seite haben, etwa Glossen, Kommentare etc. Die Struktur einer Zeitung weist hierarchische, modulare und lineare Elemente auf. Die Informationen sind so aufbereitet, dass der Leser sowohl von hinten bis vorne blättern, als auch über Indices direkt einzelne Beiträge aussuchen kann. Der Trend zur Modularisierung ermöglicht darüber hinaus die Aufteilung, Auslagerung und Referenzierung von Informationen. Trotzdem hat der Leser aufgrund der recht statischen Gliederung für gewöhnlich keine Probleme, sich im Informationsangebot der Zeitung zurechtzufinden. Bei Büchern können wir uns zumeist noch viel schneller orientieren, weil ihre Struktur weitaus weniger modulare oder hierarchische Elemente aufweist als bei der Zeitung - sieht man einmal von Wörterbüchern oder Lexika ab. In elektronischen Informationssystemen kann es dagegen sehr viel schneller zur Desorientierung des Anwenders kommen. Das liegt zum einen daran, dass die Bereitstellung und Aufbereitung von digitalen Informationen sehr viel einfacher ist als im Printbereich. Weder gibt es Platzbeschränkungen, noch müssen Beiträge alter Ausgaben oder Versionen gelöscht werden. Das Informationsangebot ist also um ein vielfaches größer als bei gedruckten Publikationen. Zum anderen kann die zu Grunde liegende Hypertextstruktur theoretisch alle Informationseinheiten des Systems miteinander verknüpfen. Dadurch kann der Anwender mit einer Vielzahl an Navigationsoptionen konfrontiert werden. Das Orientierungs- und Erinnerungsvermögen wird stark belastet. Mittlerweile gibt es insbesondere im W W W eine unüberschaubar große Zahl an äußerst komplexen, datenbankbasierten Informationsangeboten - 10000 Seiten oder mehr sind keine Seltenheit. Um bei einem solch voluminösen Angebot Übersichtlichkeit zu gewährleisten und dem Anwender schnelle und effiziente Instrumente zur Informationsfindung an die Hand zu geben, muss der Aufbau der Programmstruktur von vornherein bis ins letzte Detail geplant werden. Der Prozess der Planung, Organisation und Strukturierung von Information wird Informationsarchitektur genannt. Dazu gehören auch die formale Gestaltung der Sei-
Layout in d e n Printmedien
69
ten sowie der Navigationsinstrumente oder die Festlegung des typografischen Konzeptes. Site-Design und Seitendesign sind also eng miteinander verzahnt. Die Arbeitsschritte beim Informationsdesign und die zu Grunde liegenden Richtlinien der Benutzerfreundlichkeit werden in Kapitel 6.2. vorgestellt und diskutiert. In Kapitel 6.1. sollen jedoch zunächst einige Begriffe aus dem klassischen Zeitungsdesign geklärt werden. Beim Layout von gedruckten und digitalen Publikationen gibt es durchaus Gemeinsamkeiten. Seitenraster, Satzspiegel oder Umbruch sind Begriffe, die auch ein Online-Designer kennen sollte. Darüber hinaus gibt es beim Zeitungsdesign einige wichtige Regeln der Text-Bild-Zuordnung, die ihre Gültigkeit in digitalen Informationssystemen keinesfalls verloren haben (jedoch allzu oft in Vergessenheit geraten sind).
6.1. Layout in den Printmedien Mit Layout wird der feste gestalterische Rahmen einer Publikation bezeichnet. Das Layout (auch Makrotypografie) geht weit über die bloße Schriftgestaltung (auch Mikrotypografie) hinaus. Bei der Planung einer Publikation müssen folgende Elemente der Seitengestaltung berücksichtigt werden: Seitenformat, Satzspiegel, Satzausrichtung und Umbruchart. Bei der Wahl des Papier- oder Seitenformates sind zwei Faktoren von Bedeutung: die Größe und das Seitenverhältnis. Beide Faktoren hängen von der Art der Publikation und der inhaltlichen Ausrichtung ab. Bei der Bestimmung des Formates sind daher folgende Fragen hilfreich: • • • •
Welches Publikationsmedium soll gewählt werden? Zeitung, Magazin, Plakat, Buch etc.? Welche Kommunikationsmittel sollen verwendet werden? Text, Bild, Grafik? Ist die Informationsstruktur linear oder modular? Welche Elemente des Textdesigns sollen verwendet werden? Soll die Publikation einen sachlichen Charakter haben oder Gefühle ansprechen?
Jedes Publikationsmedium hat bestimmte konventionelle Muster hervorgebracht, an die man sich bei der Festlegung des Formates zunächst halten sollte. So gibt es bei den Zeitungen in Deutschland gegenwärtig drei gängige Formate: das Berliner Format (47 x 31,5 cm, 1:1,49), das Hamburger (Nordische) Format (57 x 40 cm, 1:1,43) und das Rheinische Format (53 x 37,5 cm, 1:1,41). Zeitschriften werden in der Regel im A4-Format gesetzt (29,7 x 21 cm, 1:1,41). Die genormten DIN-Formate weisen alle ein Verhältnis von 1:1,41 auf. Auch viele Seitenformate von Pia-
Vom klassischen Layout zur Informationsarchitektur
70
katen entsprechen diesem Verhältnis. Bei Büchern hat sich dagegen ein Verhältnis von 1:1,5 durchgesetzt. Diese Proportion geht auf mittelalterliche Schriften zurück. Wenn das Seitenformat festgelegt ist, muss der Satzspiegel definiert werden. Mit dem Satzspiegel wird im Prinzip die eigentliche Nutzfläche der Drucksache bestimmt. Er umfasst alle Angaben, die dazu dienen, Text oder Bilder zu begrenzen und a u f z u n e h m e n (mit Ausnahme der festen Kopfzeilen, Marginalien und Seitenzahlen). Dazu gehören die Seitenränder, die Seitenköpfe, die Anzahl der Spalten, der Spaltenabstand und der Zeilenabstand. Die Anzahl und die Breite der Spalten hängen von der Seitengröße und der optimalen Lesbarkeit des Textes ab. In der Regel variiert die Spaltenzahl bei Zeitungen zwischen vier und sieben, bei Magazinen zwischen zwei und fünf. Bücher haben normalerweise eine bis zwei Spalten; bei technischen Dokumentationen oder Lehrbüchern kann noch eine Marginalspalte hinzukommen. Die nicht bedruckbare Fläche der Seite wird als Rand oder Steg bezeichnet. Die Ränder müssen in einem ausgewogenen Verhältnis zur N u t z f l ä c h e stehen. Nach Blana (1993, 131) kann man beim Buch zwischen normaler ( R o m a n e ) , kleiner (bibliophile Werke) und formatausnutzender Satzspiegelgröße (Taschenbücher) unterscheiden. Generell gilt j e d o c h die Regel, dass der Bundsteg (Innenrand) schmaler sein sollte als der Außensteg (Außenrand) und der Kopfsteg (oberer Rand) schmaler als der Fußsteg (unterer Rand). Sehr harmonisch wirkt das Verhältnis von Seitenformat und Satzspiegel, wenn die Blattbreite der Satzspiegelhöhe entspricht. Innerhalb des Satzspiegels werden Texte, Bilder und Grafiken angeordnet. Eine große Hilfe kann dabei der Gestaltungsraster sein. Der Raster teilt den Satzspiegel in kleine Module auf. Die Breite der Module richtet sich nach der Spaltenbreite, die Höhe entspricht etwa f ü n f Zeilen der Grundschrift. Bilder erstrecken sich auf dem Raster normalerweise über ganze Module. Das Layout einer gedruckten Publikation beinhaltet auch das typografische Konzept. Schriftarten, Schriftgrößen und Zeilenabstände für Grundschrift, Überschriften, Bildunterschriften etc. sind hier festgeschrieben. Auch Hintergrundfarben und Strichstärken für Kästen oder grafische Elmente werden im Layout festgelegt. Daneben wird definiert, welche Beitragsformen welche Satzausrichtung haben (siehe Kapitel 1.1.1.) und nach welchem Prinzip komplette Seiten umgebrochen werden. Insbesondere beim Zeitungslayout kann man drei wesentliche Umbrucharten unterscheiden: Blockumbruch, Treppenumbruch und Mischumbruch. Der Blockumbruch hat seinen N a m e n von der rechteckigen Anordnung der Artikel auf einer Seite. Im Idealfall bildet j e d e r Artikel eine rechteckige Form. Mehrere Artikel zusammen werden ebenfalls zu rechteckigen Blöcken angeordnet. Der Blockumbruch kann horizontal oder vertikal ausgerichtet sein, es gibt aber auch Mischformen. Der Blockumbruch setzte sich mit Einführung des Foto- und Lichtsatzes durch. Die Arbeit am Ganzseitenbildschirm löste dabei den U m b r u c h
71
Layout in den Printmedien
am Montagetisch ab und vereinfachte die Gestaltung von Büchern, Zeitungen, Magazinen etc. Der Blockumbruch ist heute als vorherrschendes Prinzip in fast allen Tageszeitungen zu finden. Der entscheidende Vorteil liegt in der übersichtlichen Anordnung der Artikel. Ein Nachteil ist der zum Teil statisch wirkende Gesamteindruck der Seite. Der Treppenumbruch ist der Vorgänger des Blockumbruchs. Er beherrschte jahrzehntelang das Aussehen von Zeitungen - nicht zuletzt bedingt durch die Bleisatztechnik. Der Treppenumbruch fasst Artikel nicht in rechteckigen Blöcken zusammen, sondern lässt sie ineinander übergehen. Daraus ergibt sich die typische Treppenstruktur. Der Treppenumbruch wirkt im Gegensatz zum Blockumbruch dynamischer. Die gestalterische Abwechslung geht jedoch auf Kosten der Übersichtlichkeit. Die Seitengestaltung wirkt unruhig und unausgewogenen. Der Mischumbruch schließlich vereint (im Idealfall) die Vorteile von Block- und Treppenumbruch. Übersichtlich angeordnete Blöcke wechseln sich ab mit aufgeschnittenen Artikeln. Beim Umbruch von Texten müssen einige spezifische Besonderheiten beachtet werden. Zu nennen sind in erster Linie die so genannten Hurenkinder, Schusterjungen und Witwen. Ein Schusterjunge bezeichnet die erste Zeile eines Absatzes, wenn sie in der letzten Zeile einer Spalte steht. Die letzte Zeile eines Absatzes in der darauf folgenden Spalte wird Hurenkind genannt. Besteht die letzte Zeile eines Absatzes aus einem einzigen Wort oder gar aus einer einzigen Silbe, spricht man von einer Witwe. Hurenkinder, Schusterjungen und Witwen sollten möglichst vermieden werden. Sie beeinträchtigen zum einen die Lesbarkeit von Texten, da das Auge eine am Spaltenende oder -anfang stehende einzelne Zeile leicht übersehen kann. Zum anderen leidet die Geschlossenheit des Schriftbildes. Heute ist man jedoch - vor allem beim Zeitungsumbruch - dazu übergegangen, dieser Regel kaum mehr Beachtung zu schenken. Das geschieht zumeist aus produktionstechnischen Gründen.
Gesamteindruck der Seile. Der Treppenumbruch ist der Vorgänger des Btockumbruchs. Er beherrschte jahrzehntelang das Aussehen von Zeitungen - nicht zuletzt bedingt durch die Bleisatztechnik. Der Treppenumbruch fasst Artikel nicht in rechteckigen Blökken zusammen, sondern lässt sie ineinander übergehen. Daraus ergibt sich die typische Treppenstruktur. Der Treppenumbruch wirkt im Gegen-
satz zum Blockumbruch dynamischer, Die geslatterische Abwechslung geht jedoch auf Kosten der Übersichtlichkeit, Die Seitengestaltung wirkt unruhig und unausgewogenen. Der Mischumbruch schließlich vereint (im Idealfall) die Vorteile von Block- und Treppenumbruch, Übersichtlich angeordnete Blöcke wechsein sich ab mit aufgeschnittenen Artikein. Beim Umbruch von Texten müssen
darüber hinaus einige spezifische Besonderheiten beachtet werden. Zu nennen sind in erster Linie die so genannten Hurenkinder. Schusterjungen und Witwen. Mit Schusterjunge wird die erste Zeile eines Absatzes bezeichnet, wenn sie in der letzten Zeile einer Spalte steht. Die letzte Zeile eines Absatzes in der darauf folgenden Spalte wird Hurenkind genannt. Besteht die letzte Zeile eines Absatzes aus einem einzigen Wort
Abb. 6.1: Hurenkind (linke Spalte, oben), Schusterjungen (linke Spalte und mittlere Spalte, jeweils unten) und Witwe (mittlere Spalte, vorletzte Zeile)
Abschließend sollen einige weitere, klassische Regeln des Zeitungs- und Zeitschriftendesigns vorgestellt werden. Diese Regeln haben jedoch keinen normativen
72
Vom klassischen Layout zur Informationsarchitektur
Charakter, sondern stellen lediglich Richtlinien dar, über die sich durchaus streiten lässt (vgl. etwa Meissner 1992, 86f.; Turtschi 1998, 146ff. und Siemoneit, 211ff.). • • • •
•
• •
Überschriften sollten nicht nebeneinander stehen, weil die Beiträge oft als ein einziger wahrgenommen werden können Der Text darf nicht durch Bilder unterbrochen werden Der Aufmacher einer Seite muss an zentraler Position stehen. Auf jeder Seite darf es nur einen Aufmacher geben Die Text-Bild-Zuordnung muss eindeutig sein. Es empfiehlt sich, den Text um das Bild fließen zu lassen oder das Bild neben den Text zu stellen. Das Bild sollte nicht unter dem Text stehen Der Blickfang einer rechten Seite befindet sich oben rechts. Es ist daher ratsam, Bilder an diese Position zu stellen (es sei denn, eine auf dem Bild dargestellte Person würde aus der Zeitung herausblicken) Bilder auf derselben Seite müssen aufgeteilt werden. Sie dürfen sich jedoch nicht berühren Absatzende und Spaltenende sollten nicht zusammenfallen, wenn der Beitrag noch weitergeht. Dem Leser könnte sonst signalisiert werden, dass der Artikel am Spaltenende aufhört
6.2. Informationsarchitektur in den digitalen Medien 6.2.1. Informationsarchitektur und Benutzerfreundlichkeit Der Begriff der Informationsarchitektur ist ein Kunstwort. Er verbindet wichtige Prinzipien der klassischen Architektur mit dem Anspruch, Informationen in komplexen Hypertextsystemen zu strukturieren. So wie in der Architektur Planung und Entwurfsphase von großer Bedeutung sind, soll in der Informationsarchitektur der Aufbau einer Informationsstruktur geplant und organisiert werden. Funktionalität, Gestaltung und Benutzerkomfort sind dabei Stichworte, die sowohl in der klassischen Architektur als auch in der Informationsarchitektur bemüht werden. Beim Informationsdesign müssen darüber hinaus ganz spezifische Faktoren wie das so genannte Labeling - die Kennzeichnung der Rubriken - oder der konsistente Aufbau eines Navigations- und Suchsystems berücksichtigt werden. Der Begriff der Informationsarchitektur ist eng verknüpft mit dem Begriff der Benutzerfreundlichkeit - Usability. Die Benutzerfreundlichkeit hängt davon ab, wie gut ein Anwender den Funktionsumfang eines Systems ausschöpfen kann. Zentral ist dabei die Dialoggestaltung zwischen Mensch und Benutzerschnittstelle. Im Vordergrund stehen die Bedürfnisse des Anwenders, die konkrete Gestaltung der Benutzeroberfläche hat sich also dieser funktionalen Ausrichtung unterzuordnen. In der Literatur (etwa Nielsen 1990, 143 oder Shneiderman 1998,
Informationsarchitektur in den digitalen Medien
73
97ff.) werden traditionell fünf Kriterien für benutzerfreundliche Systeme genannt: • • •
• •
Das System muss leicht und schnell zu erlernen sein Wenn der Anwender das System einmal erlernt hat, muss er es effektiv nutzen können Der Anwender muss sich leicht an das System erinnern können. Wenn er längere Zeit nicht mit dem System gearbeitet hat, sollte er nicht wieder von vorn beginnen müssen Bei der Arbeit mit dem System dürfen nur wenig Fehler auftreten. Katastrophale Fehler sind zu vermeiden Der persönliche Eindruck eines Anwenders ist von Bedeutung. Er sollte gerne mit dem System arbeiten
Mittlerweile gibt es im Bereich der Softwareergonomie sogar eine DIN-Norm für die benutzerfreundliche Gestaltung von Schnittstellen (DIN 66234, Teil 8, vgl. auch ISO 9241, Teil 10). Die wesentlichen Bewertungskriterien sind hierbei die Aufgabenangemessenheit, die Selbstbeschreibungsfähigkeit, die Erwartungskonformität, die Konsistenz und die Fehlerrobustheit: 1. Die Benutzer werden in der Erledigung ihrer Arbeitsaufgabe effizient unterstützt. Sie erreichen ihre Ziele schnell, ohne durch die Eigenschaften des Dialogsystems unnötig belastet zu werden. 2. Jeder Dialogschritt ist unmittelbar verständlich. Die Benutzer können sich eine für das Verständnis und für die Erledigung der Arbeitsaufgabe zweckmäßige Vorstellung von den Systemzusammenhängen machen. 3. Der Dialog entspricht den Erwartungen, die die Benutzer aus Erfahrungen mit bisherigen Arbeitsabläufen oder aus der Benutzerschulung mitbringen. 4. Das Dialogverhalten ist einheitlich. Uneinheitliches Dialogverhalten zwingt den Benutzer zu starker Anpassung an wechselhafte Durchfuhrungsbedingungen ihrer Arbeit, erschwert das Lernen und bringt unnötige Belastung mit sich. 5. Trotz fehlerhafter Eingaben kann das Arbeitsergebnis ohne oder mit minimalem Korrekturaufwand erreicht werden. Eingaben der Benutzer dürfen nicht zu Undefinierten Systemzuständen oder Systemzusammenbrüchen fuhren.
6.2.2. Site-Design Site-Design ist nicht zu verwechseln mit Seitendesign. Während das Site-Design alle konzeptionellen und organisatorischen Arbeitschritte bei der Entwicklung eines Informationssystems umfasst, bezieht sich das Seitendesign auf die eigentliche Gestaltung der Benutzeroberfläche. Das Seitendesign ist Teil des Site-Designs. Im folgenden sollen die wesentlichen Phasen beim Aufbau einer Web-Site oder Multimediaanwendung skizziert werden. Dabei ist zu beachten, dass der
Vom klassischen Layout zur Informationsarchitektur
74
A n w e n d u n g s z w e c k alle weiteren Schritte der Planung bestimmt. Folgende Fragen sind bei der Definition der kommunikativen Ziele von Bedeutung: •
W a r u m soll die Anwendung überhaupt aufgebaut werden?
•
Kann m a n kurzfristige, mittelfristige u n d langfristige Ziele unterscheiden?
•
W e r wird das System nutzen?
•
W a r u m werden Anwender die Web-Site besuchen oder das System benutzen?
W e n n geklärt ist, w a r u m das Informationssystem überhaupt aufgebaut werden soll, muss die Zielgruppe definiert werden. Bei einer A n w e n d u n g für computergestütztes Lernen muss man etwa unterscheiden zwischen Lernenden und Lehrenden. Die einen können die Anwendung beispielsweise zur Fortbildung nutzen, während die anderen bestimmte Lehrinhalte oder auch interaktive A u f g a b e n in ihren Unterricht mit einbeziehen können. Bei der B e s t i m m u n g der Zielgruppe kann darüber hinaus die soziodemografische Struktur der A n w e n d e r von Bedeutung sein. Unterschiedliche Nutzer stellen unterschiedliche A n f o r d e r u n g e n an eine Anwendung. D e s w e g e n müssen auch unterschiedliche W e g e der Informationsrecherche berücksichtigt werden. Eine wichtige Hilfe bei der Definition der Zielgruppe können deshalb so genannte Nutzerszenarien darstellen. Dabei können bestimmte idealtypische Nutzerprofile e n t w o r f e n werden. Anhand eines Profils kann ermittelt werden, ob ein prototypischer A n w e n d e r alle für ihn relevanten Informationen abrufen kann, ob seinen Erwartungen entsprochen wird etc. N e b e n der Festlegung von Zielen und Zielgruppen sind die eigentlichen Inhalte und Informationsbausteine von zentraler Bedeutung. Der Arbeitsschritt der Inhaltsdefinition umfasst nicht nur den unmittelbaren inhaltlichen Bereich, etwa redaktionelles Angebot, sondern auch die komplette funktionale Struktur des Systems. Dazu gehört - besonders bei datenbankbasierten Anwendungen - die Festlegung, welche Seiten statisch und welche dynamisch aufgebaut werden sollen. Dazu gehören bei Web-Sites auch Elemente wie Feedbackformulare, Gästebücher, Suchseiten etc. Daneben müssen in dieser Phase auch schon statische Elemente w i e Copyright-Hinweise oder Impressum definiert werden. Ein weiterer Bestandteil der Inhaltsdefinition ist das Labeling, die Gliederung und Kennzeichnung der eigentlichen, redaktionellen Bereiche. Kennzeichnungen stellen nach Rosenfeld/Morville (1998, 73) die naheliegendste Möglichkeit dar, d e m A n w e n d e r die Site-Struktur und -Organisation zu zeigen. Kennzeichnungen sollten einfach, selbsterklärend und auf A n h i e b verständlich sein. Eine schlechte Kennzeichnung der Rubriken kann dagegen das Vertrauen des Anwenders in eine organisatorische Struktur mindern. Rosenfeld/Morville (1998, 74f.) weisen darauf hin, dass Kennzeichnungen als Systeme zu begreifen sind, nicht als einzelne, isolierte Labels. Innerhalb eines solchen Systems müssen alle Kennzeichnungen auf den gleichen Wissenstand des A n w e n d e r s Bezug nehmen. Darüber hinaus
Informationsarchitektur in den digitalen Medien
75
müssen sie begrifflich und syntaktisch konsistent sein. Ein weiterer wichtiger Aspekt beim Labeling stellt die Berücksichtigung von Konventionen dar. So sollte man bei Web-Anwendungen fiir die Kennzeichnung der Einstiegsseite bereits eingeführte Begriffe wie Home, Homepage oder Main verwenden. Neben der unumgänglichen Text-Kennzeichnung können Labels auch ikonischer Natur sein (siehe Kapitel 4.2.). Bei der Festlegung der Seitenstruktur (ebenso wie bei Navigation und Orientierung) können Metaphern gute Hilfestellung leisten. Die Metapher überträgt bekannte und vertraute Schemata aus unserem Alltag auf die Strukturierung digitaler Informationen (vgl. Thissen 2001, 46). Man kann zwischen organisatorischen, funktionalen und visuellen Metaphern unterscheiden. Organisatorische Metaphern beziehen sich auf existierende Strukturen eines Systems oder einer Organisation (z. B. Buch/Seiten, Film/Zeitleiste oder Haus/Zimmer). Funktionale Metaphern beziehen sich auf den alltäglichen Sprachgebrauch. Diese Begriffe werden auf den Funktionsumfang eines Informationssystems übertragen (z.B. Blättern, Suchen, Gehen, Öffnen etc.). Schließlich stellen visuelle Metaphern einen konkreten Bezug zu Objekten aus unserem Alltag her (z. B. Schere, Lineal, Pinsel etc.). Schlecht gewählte Metaphern können auf der anderen Seite den Anwender aber auch in eine starre, festgelegte Struktur zwingen oder in die Irre fuhren. Die aus den klassischen Printmedien stammende Buch-/Seitenmetapher ist beispielsweise fîir non-lineare, selektive Anwendungen sehr viel weniger geeignet als eine Netzwerkmetapher (vgl. dazu auch Genter/Nielsen 1996).
Abb. 6.2: Entwurfsphasen der Informationsarchitektur: Strukturbaum bzw. Blueprint (links unten), Layoutraster (links oben) und Designskizze (rechts)
Der erste Schritt der Strukturierung ist zumeist textbasiert. Im Folgeschritt muss die Gliederung mit Hilfe eines Strukturbaums visualisiert werden. Bei der Konzeption eines komplexen, datenbankbasierten Systems sollte vor allem die Auf-
76
Vom klassischen Layout zur Informationsarchitektur
teilung vertikaler und horizontaler Hierarchieebenen in einem ausgewogenen Verhältnis stehen. Wenn die Rubriken auf der ersten hierarchischen Ebene keine inhaltliche Tiefe aufweisen, ist der Strukturbaum zu flach. Dadurch wird der Anwender schon auf der Einstiegsseite mit einer Vielzahl von Möglichkeiten konfrontiert. Ein solches Überangebot an Optionen kann zu Überlastungen der Erinnerungsleistung fuhren. Im Gegensatz zur horizontal ausgerichteten Seitenstruktur bietet eine stark vertikal ausgerichtete Struktur dem Anwender zu wenig Möglichkeiten, Informationen schon auf der Einstiegsseite zu klassifizieren. Er muss sich erst durch mehrere Hierarchieebenen bewegen, um erkennen zu können, ob die dort befindlichen Informationen relevant für ihn sind. Zudem ist eine zu tief ausgerichtete Struktur sehr unübersichtlich. Eine ausgewogene Seitenstruktur weist in der Regel nicht beliebig viele Rubriken auf. Die Bereiche sollten genügend inhaltliche Tiefe haben, um ihre Existenz zu rechtfertigen. Auch die einzelnen Rubriken müssen übersichtlich gestaltet sein und idealerweise auf einen Blick zeigen, welche Bereiche oder Inhalte sie anbieten. Darüber hinaus muss gewährleistet sein, dass der Benutzer immer weiß, in welcher Rubrik und auf welcher hierarchischen Ebene er sich gerade befindet. Ein gut gegliederter Strukturbaum, auch Blueprint genannt, sollte Datenbankanbindung und Funktionalität der Anwendung von vornherein mit berücksichtigen. Die Konzeption eines Navigationssystems orientiert sich zunächst am Entwurf des Strukturbaums. Die Rubriken erster Ordnung bilden dabei in aller Regel das globale Navigationssystem. Die Navigationsinstrumente des globalen Systems sind ständig verfügbar. Die repräsentierten Bereiche können von jeder Seite direkt angesteuert werden. Die Rubriken zweiter Ordnung können dagegen zu lokalen Systemen zusammengefasst werden. Lokale Navigationssysteme sind nicht auf jeder Seite im System verfügbar, sie sind abhängig von der jeweils gewählten (oder aktiven) Hauptrubrik. Auch wenn die Labels von lokalen Navigationssystemen kontextabhängig sind, sollten Gestaltung und Funktionalität der Verweise standardisiert werden. Globale und standardisierte lokale Navigation können auch als strukturelle Navigation bezeichnet werden (vgl. Fröbisch et al. 1997, 55). Strukturelle Navigationselemente beziehen sich auf die generellen Interaktionsmöglichkeiten im gesamten System. Dazu gehören beispielsweise die lineare Navigation von Informationseinheit zu Informationseinheit oder hierarchische Verzweigungen. Inhaltliche Navigationselemente umfassen dagegen alle Funktionen und Systemoperationen, die thematisch zusammengehören. Im Normalfall sind diese Navigationsinstrumente auf eine einzige Inhaltsseite bezogen und abgestimmt. Beispiele sind Kontrollfunktionen für Videoclips oder interaktive Animationen. Besonders bei datenbankorientierten Anwendungen muss darüber hinaus ein ausgefeiltes Suchsystem aufgebaut werden. Dazu gehört eine Volltextsuche mit der Möglichkeit, Begriffe zu verknüpfen (Boolesche Operatoren). Dazu gehören aber auch so genannte Browse-Kataloge, die dem Anwender eine bestimmte
Informationsarchitektur in den digitalen Medien
77
Struktur vorgeben. Das ist insbesondere dann wichtig, wenn der Nutzer gar keine konkreten Suchbegriffe im Sinn hat. Für die Navigation in komplexen Informationssystemen können nach Shneiderman (1998, 74f.) ganz allgemein folgende Anforderungen formuliert werden: • • • •
• • • • •
Die Darstellung muss konsistent sein (Systemoperationen, Eingabefelder, Menüs, Hilfefenster, Farbgebung, Layout, Typografie) Die Kapazität des Kurzzeitgedächtnisses muss berücksichtigt werden (max. sieben Elemente gleichzeitig) Der Einsatz von Farben als Code- und Hinweisfunktion muss beschränkt werden (max. fünf Farben gleichzeitig) Der Einsatz redundanter Codierung (Form, Muster, Gruppierung) verringert den Informationsverlust bei Farbfehlsichtigkeit oder monochromer Darstellung Programmabläufe müssen strukturiert werden (einheitliche Muster von Informationsblöcken und Aufgaben) Aktionen müssen reversibel sein, Fehler müssen rückgängig gemacht werden können Das System sollte transparent und die Programmsteuerung vorhersehbar sein Visualisierungen sind hilfreich bei Übersichtsdarstellungen, Orientierungsund Navigationskarten Ergebniskontrolle, Berichterstattung und Feedback-Möglichkeiten müssen in das System implementiert sein
Ergebniskontrolle ist besonders bei CBT- oder WBT-Systemen von Bedeutung. Hier muss der Anwender selbst kontrollieren können, wie gut er bei der Lösung von Aufgaben abschneidet, ob er Fragen richtig oder falsch beantwortet und wie viel Prozent der Fragen er richtig beantwortet. Wenn er Fragen falsch beantwortet, muss er Gelegenheit haben, die richtigen Antworten einzusehen. Neben der Navigation kommt der Orientierung im System eine herausragende Bedeutung zu. Mangelnde Orientierung kann dadurch gemindert werden, dass Inhaltsverzeichnisse, Indices und besonders grafische Orientierungshilfen den Weg durch das Informationssystem weisen. Bei kleinen Anwendungen kann die gesamte Systemstruktur in Form eines globalen Baumdiagramms ( S i t e - M a p ) dargestellt werden, dem der Benutzer entnehmen kann, wo er sich gerade befindet. Während globale Diagramme die Relationen zwischen den Informationseinheiten aufgrund der begrenzten Darstellungskapazität nur grob wiedergeben können, können relative, lokale Übersichtskarten dem Anwender zeigen, welche Verbindungen das gerade angezeigte Dokument zu anderen aufweist. Eine solche Übersicht ist abhängig vom jeweiligen Kontext der Informationseinheit. Eine datenbankgestützte Anwendung bietet dabei den Vorteil, dass die möglichen Verbindungen dynamisch generiert werden können.
78
Vom klassischen Layout zur Informationsarchitektur
Die Konzeption der Navigationsinstrumente und Orientierungshilfen muss auch unterschiedliche Nutzertypen berücksichtigen. Bereits bei der Zielgruppendefinition kann man Anwender hinsichtlich ihrer unterschiedlichen kommunikativen Absichten unterscheiden. Darüber hinaus gilt es zwischen Erstbenutzern (Anfangern), erfahrenen Nutzern (Fortgeschrittenen) und so genannten Power-Usern (Experten) zu unterscheiden. Erstbenutzer müssen sich erst einmal einen Überblick über die Anwendung verschaffen. Sie sollen die Inhaltsbereiche und Servicefunktionen kennen lernen, aber auch wissen, wo die Grenzen der Anwendung liegen (vgl. Shneiderman 1998, 10). Erfahrenere Nutzer müssen die Systemstruktur erfassen und sich jeder Zeit im System zurechtfinden können. Experten sollten darüber hinaus die Abläufe von Aktionen mit Hilfe von Abkürzungen (alternative Wege durch das Programm, Makros, Shortcuts) beschleunigen können. 6.2.3. Seitendesign/Schnittstellendesign Ein gut konzipierter Strukturbaum und ein ausgefeiltes Navigationssystem müssen in ein einheitliches gestalterisches Konzept eingebunden werden. Das funktionierende Zusammenspiel dieser Komponenten erleichtert dem Anwender den Aufbau einer kognitiven Karte, anhand derer er sich problemlos im System orientieren kann (vgl. dazu auch Kapitel 7.2.1.). Benutzerschnittstellendesign beschäftigt sich vor allem mit der Frage, wie die Interaktionsprozesse zwischen Mensch und Computer transparent und nachvollziehbar gemacht werden können. Die grafische Benutzerschnittstelle eines Informationssystems stellt dem Anwender Interaktionsmöglichkeiten in Form von Bildern, Buttons oder Textverweisen zur Verfügung. Die Benutzeroberfläche ist dabei nichts anderes als eine Art Schaltzentrale, die komplexe Operationen und Manipulationen des Systems über eine leicht und intuitiv zu erfassende Navigationsstruktur ermöglicht. Trotzdem sollte sich ihr Design der Funktionalität unterordnen. Die Benutzeroberfläche darf nicht Selbstzweck sein. Der erste Schritt beim Seitendesign ist der Layoutraster. Ähnlich wie beim klassischen Print-Design gibt der Layoutraster den schematischen Aufbau einer Seite wieder. Allerdings ist beim Raster für digitale Anwendungen die unterschiedliche Formatausrichtung zu beachten. Zeitungen, Bücher oder Broschüren liegen normalerweise in einem Hochformat vor. Die Leser sind es dabei gewohnt, eine Seite auf einen Blick erfassen zu können. Das, was man sieht, entspricht dem gesamten Informationsangebot. Bei elektronischen Dokumenten ist das anders, sie werden zumeist im Querformat angeboten. Dabei können Bildlaufleisten oder Rollbalken die Möglichkeit schaffen, auf einer Seite mehr Informationen unterzubringen, als auf den ersten Blick tatsächlich ersichtlich ist. Das so genannte Scrolling ist uns aus dem Umgang mit gedruckten Dokumenten jedoch nicht vertraut. Vielmehr setzt diese Technik voraus, dass sich der Anwen-
Informationsarchitektur in den digitalen Medien
79
der ständig an Inhalte und Objekte erinnern muss, die nicht immer auf dem Bildschirm zu sehen sind. Das erfordert eine höhere Erinnerungsleistung des Nutzers. Viele Leser digitaler Texte lehnen die Scrolling-Technik ab. Das haben etwa die Studien Nielsens aus den Jahren 1994/1995 und auch neuere Untersuchungen ergeben (vgl. Nielsen 2000, 112f.). Darüber hinaus belegt eine Arbeit aus dem Jahr 2001, dass das Auffinden von Informationen und das Textverstehen bei einer modularen Textstruktur sehr viel einfacher möglich ist als bei einer Scrolling-Struktur (Parsons 2001, IVf.). Inzwischen hat das Scrolling etwa m e h r Akzeptanz erfahren - das mag mit den überlangen Einstiegsseiten einiger InternetPortale und Online-Magazine zusammenhängen, die in diesem Bereich
ein
Strukturierungsprinzip hervorgebracht haben, an das sich der Anwender gewöhnt hat. Trotzdem bleibt das Scrolling in Bezug a u f Übersichtlichkeit,
Lesege-
schwindigkeit und Textverständlichkeit problematisch. Wenn lange Textstrecken auf einer einzigen Seite dargestellt werden, müssen zumindest einige grundlegende Prinzipien der Textstrukturierung (siehe Kapitel 1.2.2.) beachtet werden: A m A n f a n g des Textes sollte eine kurze Z u s a m m e n f a s s u n g und/oder ein interaktives Inhaltsverzeichnis dem inhaltlichen Einstieg dienen. Die einzelnen Absätze des Haupttextes sollten kurz sein. Zwischenüberschriften und grafische Elemente können als weitere Strukturelemente eingesetzt werden. Darüber hinaus sollte der Leser an j e d e r Stelle des Textes die Möglichkeit haben, zum Seitenanfang zurückzukehren. Generell ist beim Seitendesign, insbesondere beim Entwurf des Rasters, das Prinzip der immergleichen Seitenaufteilung zwingend erforderlich. Wenn Fenster, Navigationsinstrumente, Grafiken und Texte ihren festen Platz auf d e m Raster haben und in einem funktionalem Z u s a m m e n h a n g stehen, werden Systemoperationen durchschaubar und vorhersehbar. Dieses Prinzip stellt für den A n w e n d e r die Grundlage für einen vertrauten Umgang mit d e m Produkt dar. (Die Konsistenz gehört zu den softwareergonomischen Gestaltungsgrundsätzen der N o r m ISO 9241/10.) Der Layoutraster kann folgende Elemente enthalten: Kopfzeile/Header, Fußzeile/Footer, Inhaltsbereich, globale und lokale Navigation, Markenzeichen bzw. L o g o des Site-Betreibers und Werbeflächen. Die Anordnung dieser Elemente richtet sich nicht nur nach softwareergonomischen bzw.
gestalttheoretischen
Aspekten, sondern auch nach konventionellen Kriterien. So hat sich beim Design von Web-Seiten ein gewisser Formenschatz herausgebildet, an den sich jeder Gestalter halten sollte. Das Markenzeichen steht in der Regel links oben und Bannerwerbung wird - sofern vorhanden - oben mittig platziert. Die Positionierung der Navigationselemente kann dagegen variieren. Normalerweise werden Navigationsleisten oder Bedieneinheiten am oberen oder linken
Fensterrand
platziert. Diese Anordnung entspricht zwar konventionellen Mustern. Sie ist j e d o c h nicht für Touchscreen-Systeme zu empfehlen, bei denen die Eingabe direkt über einen berührempfindlichen Monitor erfolgt. Insbesondere Rechtshän-
80
Vom klassischen Layout zur Informationsarchitektur
der würden bei einer solchen Bildschirmaufteilung fast alle relevanten Inhalte mit d e m eigenen Unterarm verdecken. Im Layoutraster ist die formale Anordnung einzelner Navigations- und Inhaltskomponenten innerhalb der Benutzeroberfläche festgeschrieben. Doch erst im darauf folgenden Arbeitsschritt des Seitendesigns werden diese Elemente im Detail gestaltet. Die so genannte Designskizze soll ein G e f ü h l für das visuelle Erscheinungsbild der Site vermitteln. Dabei wird ein Konzept für die OnlineTypografie entwickelt. Die Farben werden definiert und auf die inhaltliche Ausrichtung der A n w e n d u n g abgestimmt. Icon-Familien werden entworfen und in die Oberfläche integriert. Mustertypen für andere Kommunikationsmittel wie Bilder, Grafiken, Videoclips oder Animationen werden erstellt. Eine solche Designskizze hat j e d o c h keine Funktionalität. Erst die modellhafte Umsetzung der Skizze in ein Arbeitsmodell (bei einer Web-Site auf Basis von H T M L ) kann diese Funktionalität bieten. In der Regel ist es sinnvoll, ein Modell mit statischen Seiten zu entwerfen. Hat sich das Modell bewährt, kann ein datenbankbasierter Prototyp den vollen Funktionsumfang der Web-Site demonstrieren.
6.2.4. Gestaltung von Navigationselementen Die Gestaltung von Buttons, Pop-Up-Menüs, Eingabefeldern etc. muss sich generell am thematischen Bezug der A n w e n d u n g orientieren. Bei einer
Edutain-
»je«/-An Wendung, die sich an Schüler bzw. Schülerinnen richtet, müssen die Navigationsinstrumente anders gestaltet sein als bei einer Web-Site für eine Versicherungsgesellschaft. Neben diesen inhaltlichen Aspekten gibt es darüber hinaus einige grundlegende, allgemeine Gestaltungsprinzipien:
UMMSMM« KUctMn
hm
MfckmSafatai : NHchM St« n n r
@EEESSi®@
Hhctt«n5wh.wj j KltcMn S *
"]
-f
2
Abb. 6.3: Navigationsinstrumente in digitalen Informationssystemen: Text- und GrafikButtons (1), aktive und inaktive Icons (2), Textverweise (3), Bilder (4), Sympathieträger (5) Buttons müssen einen gewissen Aufforderungscharakter haben und d e m Anwender signalisieren, dass mit einem Klick eine Systemfunktion ausgelöst werden kann. Das kann über Text geschehen oder auch mittels einfacher grafischer Elemente wie Schatten oder Umrisslinien. Buttons können d e m A n w e n d e r durch
Informationsarchitektur in den digitalen Medien
81
Änderung ihrer grafischen Struktur aber auch zeigen, dass bestimmte Aktionen gerade nicht zur V e r f ü g u n g stehen. So müssen etwa inaktive Buttons anders gestaltet werden als aktive. Neben Bildzeichen oder Textzeichen können auch fotografische Bilder Systemfunktionen repräsentieren. Vordergründig mag man zwar davon ausgehen, dass fotografische Bilder einen stärkeren Bezug z u m dargestellten Objekt vermitteln können. Doch j e komplexer eine Systemoperation, desto schwieriger dürfte auch die Vermittlung mittels Bild sein. Denn Bilder können eigentlich nur Gegenstände und ihre Beziehungen darstellen. Die Subjekt-Prädikat-Struktur von Sätzen kann mit Bildern nicht nachvollzogen werden (siehe Kapitel 3.1.). Eine weitere, vor allem im Edutainment-Bereich
verbreitete Form von Benut-
zerführung ist die Moderation durch Sympathieträger. Das können mittels Videoclip dargestellte Personen sein oder virtuelle Charaktere in 2D oder 3D. Es empfiehlt sich jedoch, diese Navigationsmöglichkeit lediglich als zusätzliche Option zu implementieren, da es sich zum einen um eine verspielte Form der Benutzerf ü h r u n g handelt und zum anderen die Interaktionsmöglichkeiten beschränkt sind. Schließlich trifft auch der oft oberlehrerhafte Ton nicht unbedingt den Geschmack des Anwenders. Insbesondere beim Design datenbankgestützter Anwendungen müssen auch Eingabeformulare und Dialogfelder eindeutig und einfach gestaltet werden. Auch hier spielt die Konsistenz in Bezug auf Anordnung, Gestaltung, Farbgebung und typografisches Konzept eine große Rolle (siehe Kapitel 6.2.1.). Daneben können Menüs, Fenster, Listboxen und interaktive Zeitleisten (Slider) zur Navigation eingesetzt werden. Viele Autorensysteme bieten hierfür zwar vorgefertigte Elemente an oder integrieren die Bedienfelder externer Module (etwa die Quicktime-Videosteuerung). Doch der normative Anspruch einer einheitlichen Benutzeroberflächengestaltung macht es letztendlich erforderlich, dass auch diese Objekte in das gestalterische Grundkonzept eingebunden und gemäß der Richtlinien für das Seitendesign angepasst werden. Menüs dienen dazu, den Dialog zwischen Mensch und Maschine mit Hilfe vorgefertigter Befehlseingaben zu vereinfachen. Menüs werden erst bei Bedarf g e ö f f n e t und benötigen daher wenig Platz innerhalb der Benutzeroberfläche. Man kann Pop-up-
von Pull-down-Menüs
unterscheiden. Während Pull-down-Menüs
Befehlsgruppen besser strukturieren können und übersichtlicher sind, können Pop-up-Menüs bei der Navigation sehr viel schneller und effizienter eingesetzt werden: Der A n w e n d e r m u s s die Maus nicht bewegen, sondern lediglich die rechte Maustaste bedienen. Dialogfenster sollten so gestaltet werden, dass der Text auf ein M i n i m u m reduziert wird. Meldungen müssen klar und präzise formuliert sein. Der A n w e n d e r sollte Meldungen ohne größeren A u f w a n d (in Form von Tastatureingaben oder Mausbewegungen) bestätigen oder verwerfen können. Formulare müssen benutzerfreundlich gestaltet werden. Insbesondere bei Web-Formularen sollte der
82
Vom klassischen Layout zur Informationsarchitektur
Nutzer mit der Tabulator-Taste von Feld zu Feld springen können. Eingabefelder, die inhaltlich zusammengehören, sollten auch gestalterisch zu Gruppen zusammengefasst werden. Schließlich sollte gewährleistet werden, dass bereits eingegebene Anwenderdaten beim Verlassen einer Formularseite nicht gelöscht werden. Zusammenfassend lässt sich urteilen, dass Site-Design und Seitendesign bei der Planung großer Web-Sites oder Multimediaanwendungen oft nur sehr schwer voneinander zu trennen sind. Gestalterische Konzepte sind in den Prozess der Site-Organisation immer mit integriert. Schließlich geht es auch beim Seitendesign nicht nur um die Gestaltung von Buttons oder Hintergrundbildern. Vielmehr muss die Beziehung zwischen den Kommunikationsmitteln und ihrem effektiven Einsatz in der Anwendung herausgearbeitet und festgelegt werden.
7. Virtuelle Realität
Die freie Navigation im virtuellen Raum kann als völlig neue Epoche der Mensch-Maschine-Kommunikation angesehen werden. Die dabei möglichen Interaktionsformen bedeuten gleichzeitig eine Loslösung von der klassischen Benutzeroberfläche, wie wir sie von vielen Anwendungsprogrammen kennen. Um virtuelle Welten zu schaffen, müssen daher auch grundlegend neue konzeptionelle und gestalterische Wege beschritten werden. Virtuelle Realität (VR) bedeutet im wörtlichen Sinn, dass die Wirklichkeit möglich ist. „Richtig verstanden und angewandt, eröffnet die virtuelle Realität, als ein spielerisches Modell, denjenigen Möglichkeitsraum, den der Möglichkeitssinn als selbstregulierende Strategie evolutionärer Entwicklung benötigt: einen virtuellen Raum zur experimentellen Evaluierung von möglichen, zukünftig realisierbaren Welten" (Florschütz 2001). Neben dem Begriff der virtuellen Realität wird in der Literatur als Synonym auch der Begriff Cyberspace genannt. Dieser Begriff entstammt dem Roman Neuromancer von William Gibson und bezeichnet eigentlich „nur" den vernetzten, digitalen Informationskosmos. Levy (1996) beschreibt den Cyberspace als „nicht zu fassenden Korpus" aller Dokumente des WWW: „Die zentralen Metaphern des Verhältnisses zum Wissen sind heute die Navigation und das Surfen. Sie beinhalten die Fähigkeit, mit den Wellen, den Strudeln, den Strömungen und den gegensätzlichen Winden auf einer unbegrenzten und sich stetig verändernden großen Fläche zurechtzukommen." Bestandteil des Cyberspace sind auch so genannte virtuelle Gemeinschaften, die Möglichkeit zur Diskussion bieten oder in denen Menschen (anonym) gemeinsamen Interessen nachgehen können. In Abschnitt 7.1. sollen zunächst die unterschiedlichen Stufen virtueller Realität dargestellt und von anderen Formen dreidimensionaler Raumerfahrung abgegrenzt werden. Zentral sind dabei die Begriffe der Immersion und Interaktivität. Anschließend werden in Abschnitt 7.2. die wichtigsten Faktoren der räumlichen Wahrnehmung behandelt. Abschnitt 7.3. beschäftigt sich mit Navigation, Wegfindung und Orientierung in realen und künstlichen Umgebungen. Hier werden etwa die unterschiedlichen Wissensstadien vorgestellt, die für den Aufbau einer kognitiven Karte und das Erforschen von Räumen notwendig sind. Schließlich werden in Abschnitt 7.4. konkrete Gestaltungsmittel diskutiert, die für die Strukturierung virtueller Umgebungen hilfreich sein können.
84
Virtuelle Realität
7.1. Stufen der künstlichen Realität Grundvoraussetzung für „echte" VR ist, dass die Umgebung auf allen drei Raumachsen erfahrbar ist. Der Anwender muss sich frei im Raum bewegen können. Der jeweilige, subjektive Bildausschnitt muss sich an der aktuellen Position im Raum orientieren. Ein einfacher Quicktime-WR-Clip ist demzufolge keine echte virtuelle Umgebung. Zwar kann sich der Betrachter frei auf der X-Achse, bei einem sphärischen QTVR-Clip sogar auf der Y-Achse bewegen. Doch die Bewegung auf der Z-Achse kann allenfalls durch einen Zoom in das Bild simuliert werden. „The moment you begin to pan through the scene, the image becomes jagged. And, if you try to zoom into the image, all you get are oversized pixels. The representational machine keeps hiding and revealing i t s e l f (Manovich 1996). Ein QTVR-Clip ist ein 360-Grad-Panoramafoto, das auf einen virtuellen Zylinder (oder eine virtuelle Kugel) projiziert wird. Die Kamera befindet sich im Inneren des Projektionskörpers. Dadurch kann auch die typische Linsenverzerrung beim Rotieren simuliert werden. Das Besondere am QTVR-Format ist, dass verschiedene Panoramafotos und (ebenfalls fotografische) 3D-Objekte durch Links miteinander verknüpft werden können. Das Panorama selbst ist jedoch keine Erfindung des digitalen Zeitalters. Vielmehr geht es auf sogenannte Illusionsräume in Palästen und Villen des 17. und 18. Jahrhunderts zurück. 1787 ließ sich Robert Barker eine Methode patentieren, mit der sich die panoramatische Perspektivdarstellung rasch vermarkten ließ. Im 19. Jahrhundert entwickelte sich das Panorama zum Massenmedium. In vielen Großstädten Europas und Amerikas wurden spezielle Rotunden gebaut, die fotorealistische Gemälde mit weit über 1000 qm zeigen konnten. Erste Pan-
Abb. 7.1: Funktionsprinzip eines Quicktime-Panoramas und virtuelle Umgebung
oramafotografien entstanden Mitte des 19. Jahrhunderts. Sie wurden aus zwei bis zwölf Daguerrotypen zusammengesetzt. Im ausgehenden 19. Jahrhundert wurden erste Spezialkameras zur Herstellung von Panoramafotos entwickelt. Auch heute noch setzen Profifotografen solche teuren Spezialkameras ein, um hochwertige
Räumliche W a h r n e h m u n g in virtuellen U m g e b u n g e n
85
Ergebnisse zu erzielen. Daneben hat sich aber auch das Zusammensetzen von Einzelbildern mit Hilfe so genannter Photo Stitching Software etabliert. Im Gegensatz zu den virtuellen Panoramen ermöglicht „echte" VR das Eintauchen (Immersion) in die computergenerierte Umgebung. Virtuelle Realität kann generell nach dem Grad der Immersion und Interaktion unterschieden werden. Immersive VR setzt Stereodarstellung und damit echte dreidimensionale Wahrnehmung voraus. Das Eintauchen in die virtuelle Welt ist jedoch nur mit Hilfe spezieller Hardware möglich. Die Ausgabe erfolgt über Datenhelm (Head-Mounted Display/HMD) und Klangsystem, die Eingabe über Datenhandschuh oder Sprache. Desktop-VR (auch Window on World/WoW) wird zumeist mit herkömmlichen Computerbildschirmen dargestellt. Zusätzlich ermöglicht eine Datenbrille stereoskopisches Sehen. Der Immersionsgrad ist mittel. Die typischen Interaktionsgeräte sind Joystick oder Maus. Man kann bei der Desktop-VR auch auf die Möglichkeit stereoskopischen Sehens verzichten, der Grad der Immersion ist dann allerdings sehr viel geringer. Wenn komplexe VR-Szenarien nicht in Echtzeit dargestellt werden können und beispielsweise als gerenderte Videoclips abgerufen werden, spricht man auch von Pseudo- VR. Während der Grad der Immersion in etwa dem der Desktop-VR entspricht, sind die Interaktionsmöglichkeiten auf ein Minimum beschränkt. Unter technischen Gesichtspunkten muss man zwischen der eigentlichen virtuellen Welt (auch Virtuelle Umgebung/WU oder Virtual Environment/VE), den Eingabe- und den Ausgabegeräten unterscheiden. Die virtuelle Umgebung ist nichts anderes als ein dreidimensionales Computermodell, während die Eingabegeräte (Datenhandschuh, Maus) der Interaktion und Manipulation in der künstlichen Welt dienen. Visuelle Ausgabegeräte können bei immersiver VR das HMD, bei nicht-immersiver VR der Computerbildschirm sein. Akustische Ausgabegeräte reichen vom Computerlautsprecher bis hin zu aufwändigen, stereoskopischen Raumklangsystemen.
7.2. Räumliche Wahrnehmung in virtuellen Umgebungen Der entscheidende Unterschied zwischen virtuellen Umgebungen und herkömmlichen Benutzerschnittstellen liegt darin, dass der „Besucher" das Gefühl hat, komplett von räumlicher Information umgeben zu sein (vgl. Henry 1992, 1). Um sich in solchen Welten zurechtzufinden, müssen dieselben Sinne angesprochen werden, die auch in unserer alltäglichen Raumwahrnehmung von Bedeutung sind. Um beim Rezipienten den Eindruck räumlicher Illusion hervorzurufen, müssen räumliche Schnittstellen nach Henry (1992, Chapter 2) folgende (technischen) Voraussetzungen erfüllen:
86 • • •
Virtuelle Realität
Stereoskopisches Sehen. Das räumliche Sehen kann entweder mit einem HMD oder mit Hilfe spezieller Projektionsverfahren gewährleistet werden Ermittlung der Raumposition mit Hilfe eines Position Trackers Direkte Interaktion mit der virtuellen Umgebung. Mit Hilfe von Laufbändern können dreidimensionale Modelle physikalisch erfahrbar gemacht werden
Physikalische Gesetze wie Schwerkraft oder Reibung können in virtuellen Umgebungen einerseits nachgebildet werden, sie können andererseits aber auch völlig außer Kraft gesetzt werden. Dadurch kann der Benutzer Erfahrungen machen, die jenseits der Möglichkeiten realer Bewegungsabläufe liegen. Die räumliche Wahrnehmung in virtuellen Umgebungen ist in der Regel visueller Natur. Die akustische Wahrnehmung spielt eine untergeordnete Rolle. Haptische oder olfaktorische Faktoren werden zumeist gar nicht berücksichtigt. Trotz ständig steigender Rechnerleistung und Darstellungskapazität von SD-Grafiksystemen sind virtuelle Umgebungen immer noch detailarmer als reale Umgebungen. Daraus ergibt sich zwangsläufig ein höherer Abstraktionsgrad der VU. Henry (1992, 38ff.) weist in einer Untersuchung nach, dass die mangelnde Detailgenauigkeit keinen Einfluss auf die Orientierung hat. Neuere Arbeiten kommen zu unterschiedlichen Ergebnissen. Witmer (1998) ist der Meinung, dass der Detaillierungsgrad (Level of Detail/LoD) durchaus die Orientierung beeinflussen kann. Hansen (2000a) sieht im hohen Abstraktionsgrad der VU aber auch eine Chance: „Eine detailärmere VR könnte strukturierter und übersichtlicher [...] als eine Realitätskopie erscheinen." Wie bereits in Kapitel 3.2.3. skizziert, wird die räumliche Wahrnehmung des Menschen durch mehrere Faktoren beeinflusst: Objektgröße, Objektüberlagerung, lineare Perspektive, Licht und Schatten, Detaillierungsgrad, Schärfegrad und Sättigungsgrad. Um bei der Gestaltung zweidimensionaler Bilder den Eindruck räumlicher Tiefe hervorzurufen, müssen diese Faktoren allesamt berücksichtigt werden. Genauso wichtig ist bei der Modellierung von dreidimensionalen Welten das Design der Modelle und Objekte. Virtuelle Umgebungen sind in der Regel relativ komplex. Die Objekte müssen mit Texturen versehen werden, ihre Oberflächenbeschaffenheit muss definiert werden. Die Relation der Objekte untereinander muss bestimmt werden. Lichter müssen definiert werden, und der Schattenwurf muss berechnet werden. Darüber hinaus sind auch Faktoren wie Dunst oder Nebel zu berücksichtigen. Schließlich muss der Standort des Betrachters gewählt werden. Seine Bewegungsmöglichkeiten müssen definiert werden. Die Bewegung ist sicherlich einer der wichtigsten Faktoren der Raumwahrnehmung. Erst durch das sich verändernde Blickfeld erschließt sich dem Betrachter das Verhältnis aller Raumkomponenten zueinander. „Das binokulare Sehen des Menschen ermöglicht dabei Tiefeninformationen bereits mit der initialisierenden Wahrnehmung. Eine zweifelsfreie Bestimmung der einzelnen Formen und
Orientierung u n d Navigation
87
ihrer Ausmaße sowie der räumlichen Beziehungen der Objekte untereinander ist allerdings erst möglich, wenn durch einen oder mehrere Standort- bzw. Viewportwechsel des Betrachters die Repräsentation der Szene durch ein mentales 3 D-Modell erfolgt sind" (Hansen 2000a).
7.3. Orientierung und Navigation 7.3.1. Navigation und W e g f i n d u n g in Realräumen Wer als Tourist in eine fremde Stadt kommt, findet sich in der Regel ohne einen Stadtplan nicht zurecht. Erst nach und nach lernt der Besucher sich zu orientieren - an markanten Gebäuden, großen Plätzen oder auch kleinen, sehr spezifischen Eigenheiten. Dabei eignet er sich mehr und mehr räumliches Wissen an und entwickelt gleichsam ein mentales Modell der Stadt. Das Suchen und Auffinden von Zielen und die damit verbundenen Strategien erzeugen eine kognitive Karte (Cognitive Map) der Umgebung. Dabei handelt es sich nicht um ein mentales, kartografisch genaues Abbild der Stadt, sondern um eine Art Schema, das uns hilft, den richtigen Weg zu finden. Downs/Stea (1973, 5) definieren eine kognitive Karte als einen „process composed of a series of psychological transformations by which an individual acquires, codes, stores, recalls, and decodes information about the relative locations and attributes of phenomena in their everyday spatial environment." Navigationsbewusstsein beim Erforschen von Räumen (realen wie virtuellen) bedeutet, dass der Besucher Kenntnis über alle Wege und Ziele einer Umgebung besitzt. Beim Aufbau einer kognitiven Karte sind drei Stadien des Wissenserwerbs zu unterscheiden: Landmarkenwissen (Landmark Knowledge), Routenwissen (Routing Knowledge, auch Prozeduralwissen) und Überblickswissen (Survey Knowledge) (vgl. Jansen-Ossmann 1998, 15). Das Landmarkenwissen bezieht sich auf die Kenntnis der relevanten Landmarken (Landmarks) einer Umgebung. Nach Lynch (1986, 78) sind Landmarken einfache, herausragende Elemente, die hinsichtlich ihrer Größe variabel sind. Landmarken sind Referenzpunkte, die besser erinnert werden können als andere Objekte der Umgebung. Eigenschaften, die Objekte zu Landmarken machen, sind etwa Größe, Form oder Farbe. Das Routenwissen bezieht sich auf die Wege, die der Mensch einschlägt. Wege verbinden Orte. Auf der kognitiven Karte verbinden sie Landmarken. „Sind diese Wege intern repräsentiert, spricht man von Routen. Ein Hauptcharakteristikum des Routenwissens ist der sukzessive Erwerb" (Jansen-Ossmann 1998, 17). Das Routenwissen ermöglicht dem Besucher das Navigieren von einem Punkt zum anderen auf einem bestimmten Weg. Alternative Wegmöglichkeiten oder Abkürzungen werden dabei nicht berücksichtigt.
88
Virtuelle Realität
Das Überblickswissen schließlich umfasst die Kenntnis verschiedener Landmarken und Routen - quasi aus einer übergeordneten, absoluten Perspektive. Diese Perspektive ermöglicht die Erkundung einer Umgebung auf unterschiedlichen Wegen. Der Betrachter hat die Fähigkeit, die Umgebung quasi von außen einsehen zu können (vgl. Satalich 1995, 3). Die mentale Repräsentation von Landmarken und Routen wird in die kognitive Karte integriert. „Damit löst sich survey knowledge von der egozentrischen Perspektive, die die anderen Wissenszustände charakterisiert. Deshalb ist survey knowledge auch am unempfindlichsten gegenüber Rotationen, Verschiebungen oder sonstigen Perspektivenveränderungen" (Hansen 2000a). Schließlich ist auch die Raumkenntnis (spatial ability) ein weiterer wichtiger Faktor bei der Navigation in Räumen. Drei Faktoren beeinflussen die Raumkenntnis: Raumorientierung, Raumvisualisierung und Raumbeziehung. 7.3.2. Navigation und Wegfindung in virtuellen Räumen Schon bei der Informationsrecherche auf Web-Seiten kommt dem Begriff der Navigation eine zentrale Bedeutung zu. In der Regel beschränkt sich das Navigieren aber auf den simplen Abruf von Informationseinheiten. Bei der Wegfindung in virtuellen Umgebungen ist das anders. Hier ist der Begriff der Navigation sehr viel enger an unsere natürlichen Bewegungsabläufe in der Realwelt gekoppelt. Wenn man sich von einem Ort zu einem anderen bewegt, muss man wissen, wo die Ausgangs- und Zielpunkte sind und wie man zum Ziel gelangt. Das sind auch die zentralen Fragen bei der Navigation in virtuellen Welten. Neben dem Lost-in-Hyperspace-Effekt, der eintreten kann, wenn man sich innerhalb des Cyberspace verirrt, gibt es auch einen Lost-in-VU-Effekt. Es ist deshalb von großer Bedeutung, virtuelle Welten sorgfaltig zu strukturieren und gestalten. Die Strukturierung muss grundsätzlich dem Aufbau einer kognitiven Karte dienen und damit die mentale Repräsentation des dreidimensionalen Modells beschleunigen. Hilfreich bei der Strukturierung sind neben den bereits erwähnten Landmarken sogenannte Pfade (Paths), Grenzen (Edges), Quartiere (Dislricts) und Knoten (Nocies). Diese Begriffe gehen auf den Geografen und Stadtplaner Kevin Lynch zurück, der in „The Image of the City" schon 1960 untersucht hatte, woran sich Menschen in einem Umgebungsraum orientieren. „Paths are the Channels along which the observer customarily, occasionally, or potentially moves" (Lynch 1986, 47). Pfade können Straßen sein, Gehwege, Treppen usw. Grenzen sind ebenfalls lineare Elemente. Wir können uns jedoch nicht auf Grenzen bewegen. Vielmehr dienen sie der Grenzziehung zwischen Quartieren oder anderen Umgebungsobjekten. Grenzen verlaufen oft entlang der Pfade (etwa Mauern oder Flüsse). Quartiere sind größere Einheiten einer Stadt oder Umgebung. Sie können sich untereinander abheben in Form, Farbe, Baustil etc. Knoten oder Knotenpunkte schließlich bezeichnen Orte von besonderer
Gestaltungsprinzipien
89
strategischer Bedeutung: Kreuzungen, große Plätze, Treffpunkte. Dieses Strukturierungselemente lassen sich prinzipiell auch auf die Gestaltung von virtuellen Umgebungen übertragen, denn der „Reiz im Gliederungsansatz von Lynch liegt eigentlich darin, dass er, obwohl in städtebaulichem Zusammenhang entstanden, im Grunde maßstabslos ist: Prinzipiell lassen sich mit diesen Elementen Welten jeder Größe und jeden Maßstabs gliedern" (Hansen 2000b).
7.4. Gestaltungsprinzipien Navigation und Wegfindung ( W a y f i n d i n g ) in virtuellen Umgebungen kann einerseits mit den oben genannten Strukturelementen gewährleistet werden, andererseits gibt es formale Gestaltungskriterien, die gezielt anwendbar sind. Die einfachsten Gestaltungsmittel sind Farbe und Textur. Evans et al. haben bereits 1980 den positiven Einfluss farbiger Innenraumgestaltung auf die Orientierung nachgewiesen. Wenn einzelne Räume in unterschiedlichen Farben „gestrichen" sind, findet sich der Besucher sehr viel schneller zurecht als in gleichfarbigen Räumen. Die Textur kann sowohl durch Reduktion als auch durch besondere Komplexität Orientierungshilfe bieten. Haben Objekte eine sehr einfache oder gar keine Struktur, kann sich der Anwender auf andere, wesentlichere Orientierungshilfen konzentrieren. Die Abstraktion bestimmter Objekte kann die Aufmerksamkeit aber auch auf andere Objekte mit einem hohen Grad an Detailtreue lenken. Auch mit Licht und Schatten lassen sich Räume differenzieren. Während diffuses Licht den Raum gleichmäßig ausleuchtet und relativ weiche Schlagschatten erzeugt, kann man mit gebündeltem Licht (Spot Lights) bestimmte Objekte im Raum herausheben. Mit sehr harten Licht-Schatten-Kontrasten kann der Blick des Betrachters gelenkt werden. Licht kann aber auch auf anderen Gliederungsebenen eine orientierende Funktion haben. Anhand der Lichttemperatur kann der Betrachter beispielsweise erkennen, ob er sich im Freien oder in geschlossenen Räumen aufhält. Ein weiteres wichtiges Gestaltungskriterium ist die Proportionierung. Groß-klein-Differenzierungen erlauben dem Besucher eine recht schnelle Orientierung etwa auf Gebäudeebene. Auf Quartiersebene bietet der Baustil eine gute Möglichkeit der Abgrenzung. Nicht zu unterschätzen ist auch der Einfluss von Hanglagen. Steck (2000, 71 f.) hat in einer Untersuchung unter anderem nachgewiesen, dass eine globale Hangneigung von den meisten Besuchern einer virtuellen Umgebung als Referenzsystem verwendet wird. Neben diesen Gestaltungselementen, die mehr oder weniger auch bei der Bildgestaltung eine Rolle spielen, gibt es für die Wegfindung in virtuellen Welten noch einige ganz spezifische Prinzipien. Zu nennen sind in erster Linie die bereits erwähnten Landmarken. Doch auch die Strukturierung der Wege spielt bei der Navigation eine übergeordnete Rolle. „Well-structured paths are continu-
90
Virtuelle Realität
ous and have a clear beginning, middle, and end when viewed in each direction. They should confirm progress and distance to their destination along their lengths" (Foltz 1998). Darüber hinaus sollte man bedenken, dass virtuelle Umgebungen zwar im Prinzip eine freie Navigation des Besuchers ermöglichen, aufgrund der Vielzahl dieser Möglichkeiten aber auch Orientierungsprobleme schaffen können. Daher kann es sinnvoll sein, dem Anwender nicht zu oft vor die Wahl zu stellen. Klare Wegvorgaben erleichtern das Auffinden von Zielen. Stadtpläne sind nicht nur in realen Städten eine große Orientierungshilfe. Sie können auch in künstlichen Städten oder Räumen sehr hilfreich sein. Virtuelle, lokale Karten, sogenannte You-are-Here-Maps, können den jeweiligen Standort des Betrachters und die relativen Wegmöglichkeiten visualisieren. Sie können die Drehungen des Anwenders berücksichtigen und ihre Informationen entsprechend dieser Bewegung aktualisieren. Auf ähnliche Weise können Schilder oder Wegmarkierungen den Wegfindungsprozess erleichtern. Die Wegweiser können besonders bei Knotenpunkten schnelle Hilfe ermöglichen. Neben Karten und Schildern können auch Raster und künstliche Kompasse der Orientierung dienen. Während ein Kompass immer eingeblendet werden kann, macht ein Bodenraster aber nur Sinn, wenn die Sicht in der virtuellen Welt nicht verstellt ist. Letztlich ist also auch die freie Sicht ein nicht zu unterschätzendes Kriterium der Wegfindung. Wenn der Anwender weiß, was vor ihm liegt, kann er sich wesentlich besser orientieren. Ist ihm dagegen die Einsicht in die Umgebung (Visual Access) versperrt, wird auch der Aufbau einer kognitiven Karte erschwert. Hansen (2000b) verdeutlicht diesen Aspekt: „Ein realräumliches Beispiel hierfür wäre ein Fenster zum Innenhof hin, so dass sich ein Überblick über den Rest des Gebäudes ergibt. In solchen Situationen lässt sich der eigene Standpunkt leicht mit der umgebenden Welt abgleichen, und es ist einsichtig, dass Orientierung in dem Maße einfacher wird, wie von jedem Teil einer Umgebung alle anderen Teile gesehen werden können."
Literaturverzeichnis Aicher, Otl / Krampen, Martin: Zeichensysteme der visuellen Kommunikation. Stuttgart 1977. Aicher, Otl: Die Welt als Entwurf. Berlin 1991. Arnheim, Rudolf: Kunst und Sehen. Eine Psychologie des schöpferischen Auges. Neufassung. B e r l i n / N e w York 2000 3 . Arns, Inke: Techniken des Betrachtens: Die Aufdeckung der „referentiellen Illusion". Apparaturen als Metaphern der Wahrnehmung. Berlin 1999. URL: http://www.v2.nl/ ~arns/Texts/klotz-d.html. Stand: 3 / 2 0 0 2 . Arthur, Paul / Passini, Romedi: Wayfinding: People, Signs, and Architecture. N e w York 1992. Ausubel, David P.: The use of advance organizers in the learning and retention of meaningful verbal material. Journal of Educational Psychology, 51, 1960, 2 6 7 - 2 7 2 . Balcom, David: Hypervideo: Notes Towards A Rhetoric. 1996. URL: http://www.lcc. gatech.edu/gallery/hypercafe/David_Project96/contents.html. Stand: 4 / 2 0 0 2 . Ballstaedt, Steffen-Peter: Wissensvermittlung: Die Gestaltung von Lernmaterial. Weinheim 1997. Barthes, Roland: Die helle Kammer. Bemerkungen zur Photographie. Frankfurt 1989. Baumgardt, Michael: Web Design kreativ! Heidelberg 1998. Bellantoni, Jeff / Woolman, Matt: Type.Emotion. Innovative digitale Gestaltung. Mainz 1999. Bergner, Walter: Grundlagen der Typografie: Gestaltungshandbuch für Druckerzeugnisse. Leipzig 1990. Bernard, Michael / Mills, Melissa / Peterson, Michelle / Storrer, Kelsey: A Comparison of Popular Online Fonts: Which is the Best and When? 2001. URL: http://psychology. witicha.edu/surl/usabilitynews/3S/font.htm. Stand: 10/2001. Bickford, Peter: Interface Design. San Diego 1997. Birn, Jeremy: Lighting und Rendering. München 2001. Black, Roger: W e b Sites that work. San Jose 1997. Blana, Hubert: Die Herstellung: ein Handbuch fur die Gestaltung, Technik und Kalkulation von Buch, Zeitschrift und Zeitung. München 1993 3 . Blum, Joachim / Bucher, Hans-Jürgen: Die Zeitung: Ein Multimedium. Textdesign - ein Gestaltungskonzept für Text, Bild und Grafik. Konstanz 1997. Bodner, Richard C . / M a c K e n z i e I. Scott: Using Animated Icons to Present Complex Tasks. 1997. URL: http://www.yorku.ca/mack/cascon97.html. Stand: 2 / 2 0 0 2 . Braun, Gerhard: Grundlagen der visuellen Kommunikation. München 1993 2 .
Literaturverzeichnis
92
Braun, Norbert: Interaction Approach for Digital Video Based Storytelling. Darmstadt 2001. URL: http://wscg.zcu.cz/wscg2001/Papers_2001/R333.pdf. Stand: 4 / 2 0 0 2 . Brielmaier, Peter; Wolf, Eberhard: Zeitungs- und Zeitschriftenlayout. Konstanz 1997. Brooks, Kevin Michael: Metalinear Cinematic Narrative: Theory, Process, and Tool. Massachusetts 1999. Brugger Ralf: Professionelle Bildgestaltung in der 3D-Computergrafik. Bonn 1995. Bucher, Hans-Jürgen: Textdesign - Zaubermittel der Verständlichkeit? Die Tageszeitung auf dem Weg zum interaktiven Medium. In: Hess-Lüttich, Ernest W.B./Holly, Werner/ Püschel, Ulrich (Hrsg.): Textstrukturen im Medienwandel. Frankfurt a . M . / B e r l i n / N e w York 1 9 9 6 , 3 1 - 5 8 . -
Vom Textdesign zum Hypertext. Gedruckte und elektronische Zeitungen als nichtlineare Elemente. In: Holly, Werner / Biere, Bernd U. (Hrsg.): Medien im Wandel. Opladen 1998, 6 3 - 1 0 2 .
Burger, Jeff: The Desktop Multimedia Bible. Reading etc. 1993. Carusella, Brian: Animation Toys. 2002. URL: http://freeweb.pdq.net/headstrong/Persist. htm. Stand: 2 / 2 0 0 2 . Cooper, Alan: About Face. The Essentials of User Interface Design. Foster City 1995. Crüger, Ingrid: Farbentheorie und Farbgestaltung. 2000. URL: http://www.darmstadt.gmd. de/~crueger/farbe/index.html, Stand: 9 / 2 0 0 1 . Culhane, Shamus: Animation from Script to Screen. N e w York 1988. Davenport, Glorianna: 1001 Electronic Story Nights: Interactivity and the Language of Storytelling. 1996. URL: http://www.afc.gov.au/resources/online/afc_loi/presentations/ glorianna_d.html. Stand: 4/2002. Doelker, Christian: Ein Bild ist mehr als ein Bild: Visuelle Kompetenz in der MultimediaGesellschaft. Stuttgart 1997. Downs, Roger M. / Stea, David: Cognitive Maps and Spatial Behavior. Process and Products. In: Downs, Roger M. / Stea, David (Hrsg.): Image and Environment. Chicago 1973, 8 - 2 6 . Dunker, Achim: Licht- und Schattengestaltung im Film: Die chinesische Sonne scheint immer von unten. München 1993. Espe, Hartmut: The communicative potential of pictures: eleven theses. In: Landwehr, K. (Hrsg.): Ecological Perception Research, Visual Communication, and Aesthetics. Berlin/Heidelberg 1990, 2 2 - 2 7 . Evans, G . W . / F e l l o w s , J . / Z o r n M . / D o t y , K.: Cognitive Mapping an architecture. In: Journal of Applied Psychology, 65, 1980, 4 7 4 - 4 7 8 . Finberg, Howard I. / Itule, Bruce D.: Visual Editing: A Graphic Guide for Journalists. Belmont 1990. Fleming, Jennifer: Web Navigation. Cambridge 1998. Florschütz, Gottlieb: Mythos Internet - eine medienphilosophische Analyse. 2001. URL: http://www.uni-kiel.de/medien/netz.html. Stand: 8 / 2 0 0 1 . Foltz, Mark A.: Designing Navigable Information Spaces. 1998. URL: infoarch.ai.mit.edu/publications/mfoltz-thesis/thesis.html. Stand: 9 / 2 0 0 1 .
http://www.
Literaturverzeichnis
93
Francisco-Revilla, Luis: A Picture of Hypervideo Today. 1998. URL: http://www.csdl. tamu.edu/~10fD954/academic/cpsc610/p-l.htm. Stand: 4/2002. Freund, Gisèle: Photographie und Gesellschaft. Reinbek 1979. Fröbisch, Dieter K./Lindner, Holger/Steffen, Thomas: MultiMediaDesign. München 1997. Füsslin, Ulrike: Optisches Spielzeug, laufende Bilder aus der Biedermeier-Zeit. O.D. URL: http://www.augenoptiker.at/archiv/museum/spielzeug/spielzeug.htm. Stand: 4 / 2 0 0 2 . Gaffron, Mercedes: Left and right in pictures. In: Art Quarterly, 13, 1950, 312-321. Galyean III, Tinsley Azariah: Narrative Guidance of Interactivity. Massachusetts 1995. Garcia, Mario R./Stark, Pegie: Eyes on the News. St. Petersburg 1991. Genter, Don /Nielsen, Jakob: The Anti-Mac Interface. 1996. URL: http://www.acm.org/ cacm/AUG96/antimac.htm. Stand: 6 / 2 0 0 0 . Gerdes, Heike: Lernen mit Text und Hypertext. Lengerich 1997. Gesellschaft für Gestalttheorie und ihre Anwendungen: Was ist Gestalttheorie? URL: http://www.geocities.eom/HotSprings/8609/#kap2. Stand: 12/2001. Gillespie, Joe: Web Page Design for Designers. 2001. URL: http://www.wpdfd.com. Stand: 6/2001. Gillner, Sabine: Untersuchungen zur bildbasierten Navigationsleistung in virtuellen Welten. Diss., Tübingen 1997. Gloor, Peter: Elements of Hypermedia Design. Boston 1997. Goldstein, E. Bruce: Wahrnehmungspsychologie. Eine Einführung. Heidelberg 1997. Gombrich, Ernst H.: Kunst und Illusion. Zur Psychologie der bildlichen Darstellung. Stuttgart/Zürich 1986 2 . Groeben, Norbert: Leserpsychologie: Textverständnis - Textverständlichkeit. Münster 1982. Gronemeyer, Andrea: Schnellkurs Film. Köln 1998. Guski, Rainer: Wahrnehmen - ein Lehrbuch. Stuttgart 1996. -
Wahrnehmung: eine Einfuhrung in die Psychologie der menschlichen Informationsaufnahme. Stuttgart 1989.
Haase, Norbert: Geschichte dokumentarischer Photos als Gegenstand gedenkstättenpädagogischer Veranstaltungen. Berlin 2000. URL: http://www.ghwk.de/deut/tagung/haase.htm. Stand: 9/2001. Hansen, Stefan: Navigation and Wayfinding in Virtual Environments: a Review. 2000. URL: http://www.uni-weimar.de/~hansenl/wayfinding/navway/.
Stand: 9 / 2 0 0 1 . (= Hansen
2000a). -
Virtuelle Architektur? Zur Gestaltung und Strukturierung virtueller Welten. 2000. URL: http://www.uni-weimar.de/~hansenl/wayfinding/virtual/text2.htm. Stand: 9/2001. (= Hansen 2000b)
Harrower, Tim: The Newspapers Designer's Handbook. Blacklick 2002 5 . Hasebrook, Joachim: Multimedia-Psychologie. Heidelberg 1995. Heijnk, Stefan: Textoptimierung für Printmedien. Opladen 1997. Heller, Eva: Wie Farben wirken. Farbpsychologie, Farbsymbolik, kreative Farbgestaltung. Reinbek 1999 10 .
Literaturverzeichnis
94
Henning, Kathy: Writing for Readers Who Scan. Online Copywriting and Editing. 2001. URL: http://www.clickz.com/design/onl_edit/article.php/836621. Stand: 2 / 2 0 0 2 . Henry, Daniel: Spatial Perception in Virtual Environments: Evaluating an Architectural Application. Washington
1992. URL:
http://www.hitl.washington.edu/publications/
henry/home.html. Stand: 2/2002. Heo, Nokon: Emotional Responses to Web Advertising: The Effects of Animation, Position, and Product Involvement on Physiological Arousal. 2000. URL: http://www. personal.psu.edu/dept/medialab/research/emoresp.html, Stand: 6 / 2 0 0 1 . -
Visual Orientation and Memory for Web Advertising: A Study of Animation and Position Effects. 2000. URL: http://www.personal.psu.edu/dept/medialab/research/EOGstudy.html. Stand: 6/2001.
Hick, Ulrike: Geschichte der optischen Medien, München 1999. Hill, Alyson L . / S c h a r f f , Lauren F.V.: Readability Of Websites With Various Foreground/ Background Color Combinations, Font Types and Word Styles. 1997. URL: http:// hubel.sfasu.edu/research/AHNCUR.html. Stand: 1 0 / 2 0 0 1 . H o f f m a n , Kay: Vom spektakulären Computereffekt zur unscheinbaren alltäglichen Manipulation. In: Telepolis 27.02.1997. URL:
http://www01.heise.de/tp/deutsch/special/
film/6119/1 .html. Stand: 2 / 2 0 0 2 . Holzschlag, Molly E.: I Want My WebTV. 2000. URL: http://www.webtechniques.com/ archives/2000/03/desi. Stand: 6 / 2 0 0 1 . lone, Amy: Defining visual representation as a creative and interactive modality. In Paton, R . / N e i l s o n , I. (Hrsg.): Visual Representations and Interpretations. London 1999. URL: http://users.lmi.net/ione/visual.html, Stand: 6 / 2 0 0 1 . Jansen-Osmann, Petra: Kognition von Distanzen - laborexperimentelle Untersuchungen in virtuellen Umgebungen. Diss., Duisburg 1998. Jung-Hoon Seo, James: Intercreative Cinema: Collaborative Expression with Digital Video. Massachusetts 2001. Kapitan, Tomis: Vision, Vector, Veracity. 1998. URL: http://www.soci.niu.edu/~phildept/ Kapitan/vvv.html. Stand: 6/2001. Kapr, Albert; Schiller, Walter: Gestalt und Funktion der Typografie. Leipzig 1977. Kelly, Doug: Character Animation In Depth. Scottsdale 1998. Kerlow, Isaac V.: The Art of 3-D: Computer Animation and Imaging. New York 2000. Kilian, Crawford: Effective Web Writing. 2001. URL: http://www.webtechniques.com/ archives/2001/02/kilian. Stand: 6 / 2 0 0 1 . Kroeber-Riel, Werner: Bildkommunikation. München 1993. Kuhlen, Rainer: Hypertext. Ein nicht-lineares Medium zwischen Buch und Wissensbank. B e r l i n / H e i d e l b e r g / N e w York, 1991. Küppers, Harald: Das Grundgesetz der Farbenlehre. Köln 2000. -
Küppers' Farbenlehre. 2002. URL:
http://www.darmstadt.gmd.de/Kueppersfarbe/index.
html. Stand: 2/2002. Lambert, J o e / M u l l e n , Nina: Digital Storytelling Cookbook. Berkeley 1999. URL: http:// www.storycenter.org/digistory.pdf. Stand: 4 / 2 0 0 2 .
Literaturverzeichnis
95
Langer, Inghard / Schulz von T h u n , F r i e d e m a n n / T a u s c h , Reinhard: Sich verständlich a u s d r ü c k e n . M ü n c h e n 1974 (7. neugest. A u f l a g e : 2002). Lanier, Chris: T h e Aesthetics o f Internet A n i m a t i o n . In: A n i m a t i o n W o r l d M a g a z i n e 5, 2000.
URL:
http://www.awn.eom/mag/issue5.05/5.05pages/lanieraesthetics.php3.
Stand: 3 / 2 0 0 2 . L a y b o u r n e , Kit: T h e A n i m a t i o n B o o k . A C o m p l e t e G u i d e to A n i m a t e d F i l m m a k i n g - F r o m Flip B o o k s to S o u n d C a r t o o n s to 3 D A n i m a t i o n . N e w York 1998. Levy, Pierre: C y b e r k u l t u r . 1996. U R L : h t t p : / / w w w . f o c u s . a t / m k l _ p r i x / l e v y _ l . h t m l . S t a n d : 8 /2001. Lewenstein, M a r i o n / Edwards, G r e g / Tatar, D e b o r a h / DeVigal, A n d r e w : E y e T r a c k i n g Online N e w s ( S t a n f o r d - P o y n t e r Project). 2000. U R L : http://www.poynter.org/eyetrack 2000. Stand: 6 / 2 0 0 1 . Lieb, Jutta: Foto, In: Faulstich, W e r n e r (Hrsg.): G r u n d w i s s e n Medien. M ü n c h e n
19952,
204-218. Lopuck, Lisa: D e s i g n i n g Multimedia. Berkeley 1996. Lynch, Kevin: T h e Image of t h e City. C a m b r i d g e 1986 1 8 . Lynch, Patrick: W e b Style G u i d e : Basic Design Principles f o r Creating W e b Sites. 1999. U R L : h t t p : / / w w w . i n f o . m e d . y a l e . e d u / c a i m / m a n u a l . Stand: 7 / 2 0 0 0 . Maestri, G e o r g e : Digital character animation. Indianapolis 1996. M a n o v i c h , Lev: T h e Aesthetics o f Virtual Worlds: R e p o r t From Los Angeles. 1996. U R L : h t t p : / / w w w . c t h e o r y . c o m / g l o b a l / g a l 0 3 . h t m l . Stand: 7 / 2 0 0 1 . -
Was ist digitaler Film? In: Telepolis, 14.2.1997. U R L : http://www.heise.de/tp/deutsch/ special/film/6109/2.html. Stand: 3 / 2 0 0 2 .
M a y , Marlin D.: T h e E f f e c t s o f H y p e r l i n k s and Site m a p s on the Memorability and E n j o y ability
of
Web
Content.
1997.
URL:
http://www.personal.psu.edu/dept/medialab/
research/hyperlinks.html. Stand: 6 / 2 0 0 1 . M c L a u g h l i n , J o h n P.: H e m i s p h e r i c Specialization and Aesthetics. 1999. U R L : h t t p : / / w w w . u d e l . e d u / p s y c h / j o h n m c l / a r t c h a p 2 . t x t . Stand: 4 / 2 0 0 1 . M e h n e r t , Hilmar: D a s Bild in F i l m und F e r n s e h e n . Leipzig 1986. Meissner, Michael: Z e i t u n g s g e s t a l t u n g . T y p o g r a p h i e , Satz und Druck, Layout und U m bruch. M ü n c h e n 1995 2 . Moock,
Colin:
Web
Design
Course.
2001.
URL:
http://www.moock.org/webdesign/
lectures/index.html, Stand: 6 / 2 0 0 1 . Morkes, J o h n / N i e l s e n Jakob: A p p l y i n g Writing G u i d e l i n e s to W e b Pages. 1998. U R L : h t t p : / / w w w . u s e i t . c o m / p a p e r s / w e b w r i t i n g / r e w r i t i n g . h t m l , Stand: 6 / 2 0 0 1 . -
Concise, Scannable, and Objective: H o w to Write for the W e b . 1997. U R L : http://www. useit.com/papers/webwriting/writing.html. Stand: 6 / 2 0 0 1 .
M u c k e n h a u p t , M a n f r e d : G r u n d l a g e n der k o m m u n i k a t i o n s a n a l y t i s c h e n M e d i e n w i s s e n s c h a f t (Typoskript). T ü b i n g e n 1997. -
Text und Bild. G r u n d f r a g e n der B e s c h r e i b u n g von T e x t - B i l d - K o m m u n i k a t i o n
aus
s p r a c h w i s s e n s c h a f t l i c h e r Sicht. T ü b i n g e n 1986. M ü n z , Stefan: S E L F H T M L , V e r s i o n 7.0 v o m 2 7 . 0 4 . 1 9 9 8 . U R L : h t t p : / / w w w . t e a m o n e . d e / selfhtml. Stand: 7 / 2 0 0 0 .
Literaturverzeichnis
96
N a r a y a n , S u n e t r a / O b r e g o n , R a f a e l / U p p a l , C h a r u / W u , Shuanghong: D o e s W e b Advertising W o r k ? M e m o r y for Print vs. Online M e d i a . 1998. U R L : h t t p : / / w w w . p e r s o n a l . p s u . e d u / d e p t / m e d i a l a b / r e s e a r c h / w e b a d . h t m l . Stand: 6 / 2 0 0 1 . Nicki,
M a r k u s : Verständlich
schreiben -
eine E i n f ü h r u n g . 2 0 0 1 . U R L :
http://www.
d o c t i m a . d e / V S c h r e i b / I n d e x . h t m . Stand: 2 / 2 0 0 2 . Nielsen, Jakob/Pernice Coyne, Kara/Tahier, Marie: Make your site usable. 2001. U R L : http://www.zdnet.eom/ecommerce/stories/main/0,10475,2671180,00.html. Stand: 6 / 2 0 0 1 . N i e l s e n , J a k o b / Tahier, Marie: Building W e b Sites W i t h Depth. 2001. U R L : http://www. w e b t e c h n i q u e s . c o m / a r c h i v e s / 2 0 0 1 / 0 2 / n i e l s e n / , Stand: 6 / 2 0 0 1 . N i e l s e n , J a k o b / T o g n a z z i , Bruce: B e y o n d the B r o w s e r . 2001. U R L : h t t p : / / w w w . z d n e t . c o m / intweek/stories/news/0,4164,2701166,OO.html. Stand: 6 / 2 0 0 1 N i e l s e n , Jakob: E r f o l g des Einfachen. M ü n c h e n 2 0 0 0 . -
H y p e r t e x t and H y p e r m e d i a . San D i e g o 1990.
O ' R o u r k e , M i c h a e l : Principles of T h r e e - D i m e n s i o n a l C o m p u t e r A n i m a t i o n . N e w Y o r k 1998. P a r s o n s , Clark G.: T h e Efficiency and P r e f e r e n c e Implications of Scrolling versus P a g i n g W h e n I n f o r m a t i o n Seeking in L o n g Text P a s s a g e s . Diss., Greeley 2 0 0 1 . U R L : http:// w w w . j u j a p a . c o m / c l a r k / c g p _ d i s s . h t m l . Stand: 1 / 2 0 0 2 . P e t e r s e n , C o n s t a n c e : Writing for a W e b audience. 2 0 0 1 . U R L : h t t p : / / w w w . 1 0 6 . i b m . c o m / developerworks/usability/library/us-writ. Stand: 2 / 2 0 0 2 . Pisciotta,Lisa / Otto, G e o r g e / Schlag, Karen: A n i m a t i o n and Priming E f f e c t s in Online A d v e r t i s i n g . 1997. U R L : http://www.personal.psu.edu/dept/medialab/research/priming. html. Stand: 6 / 2 0 0 1 . Pring, R o g e r / C a m p b e l l , Alastair V.: w w w . c o l o r . M ü n c h e n 2 0 0 1 . -
www.type. München 2000.
Prinz, W o l f g a n g : W a h r n e h m u n g . In: Spada, H a n s (Hrsg.): Lehrbuch A l l g e m e i n e P s y c h o logie. Bern 1992 2 , 2 5 - 1 1 4 . P r ü m m , Karl: D i e Bilder lügen immer. Die Digitalisierung und die Krise des d o k u m e n t a r i schen Bildes. In: M e d i e n w i s s e n s c h a f t r e z e n s i o n e n & reviews, 3, 1996, 2 6 4 - 2 6 7 . Rada, Holger: Von der Druckerpresse z u m W e b - S e r v e r . Zeitungen u n d M a g a z i n e im Internet. Berlin 1999. R o s e n f e l d , L o u i s / Morville, Peter: Information A r c h i t e c t u r e f o r the W o r l d W i d e W e b . S e b a s t o p o l 1998. S a c h s - H o m b a c h , Klaus / Schirra, Jörg R.J.: Z u r politischen Instrumentalisierbarkeit bildh a f t e r R e p r ä s e n t a t i o n e n . Philosophische und p s y c h o l o g i s c h e A s p e k t e der B i l d k o m m u nikation. In: W . H o f m a n n (Hrsg.): Die Sichtbarkeit der M a c h t . T h e o r e t i s c h e und empirische U n t e r s u c h u n g e n zur visuellen Politik. B a d e n - B a d e n 1999, 2 8 - 3 9 . S a c h s - H o m b a c h , Klaus: B i l d / B i l d t h e o r i e . 1998. In: Sandkühler, Jörg (Hrsg.): E n z y k l o p ä die der Philosophie. H a m b u r g (im D r u c k ) . U R L :
http://isgnw.cs.uni-magdeburg.de/
~ksh/artikel/bild.html. Stand: 9 / 2 0 0 1 . Salt, B a r r y : Film Style and Technology. History a n d Analysis. L o n d o n 1983.
Literaturverzeichnis
97
Satalich, Glenna A.: Navigation and Wayfinding in Virtual Reality: Finding the Proper Tools and Cues to Enhance Navigational Awareness. Washington 1995. URL: http:// www.hitl.washington.edu/publications/satalich/home.html. Stand: 12/2001. Sawhney, N i t i n / B a l c o m , D a v i d / S m i t h , Ian: Authoring and Navigating Video in Space and Time. A Framework and Approach towards Hypervideo. 1996. URL: http://www.lcc. gatech.edu/gallery/hypercafe/Nick_Project96/ hypervideo.html. Stand: 4 / 2 0 0 2 . -
HyperCafe: Narrative and Aesthetic Properties of Hypervideo. 1996. URL: http://www. lcc.gatech.edu/gallery/hypercafe/HT96_HTML/HyperCafe_HT96.html. Stand: 4 / 2 0 0 2 .
Scheurer, Hans J.: Zur Kultur- und Mediengeschichte der Fotografie. Die Industrialisierung des Blicks. Köln 1987. Schneider, Wolfgang: Ergonomische Gestaltung von WWW-Seiten. 2000. URL: http:// 141.90.2.11 /ergo-online/Software/W ww_Einleitung.htm. Stand: 12/2001. -
Ergonomische Masken- und Dialoggestaltung. 2000. URL: http://141.90.2-l 1/ergoonline/Software/lMasken-dialog.htm. Stand: 1 2 / 2 0 0 1 .
Scholz, Oliver R.: Was ist ein Bild? 1998. URL: http://userpage.fu-berlin.de/~sybkram/ medium/scholz.html. Stand: 9 / 2 0 0 1 . Schroeder, Will: What Is Eye Tracking Good for? 1998. URL:
http://world.std.com/
~uieweb/eyetrack2.htm. Stand: 2 / 2 0 0 2 . Schröter, Jens: Digitale Perspektive. In: Monika Schmitz-Emans und Kurt Röttgers: Perspektive in Literatur und bildender Kunst. Essen 1999, 139-165. URL: http://www. theorie-der-medien.de/JS/texte/Perspektive/perspektive.html. Stand: 9 / 2 0 0 1 . Schulz, Angelika: Interfacdesign. Die visuelle Gestaltung interaktiver Computeranwendungen. St. Ingbert 1998. Sethuraman, Shyam S.: Effect of Source Attribution on Perception of Online News Stories. 1998. URL: http://www.personal.psu.edu/dept/medialab/research/sourceatt.html.
Stand:
6/2001. -
Source Effects in Users' Perception of Online News. 1996. URL: http://www.personal. psu.edu/dept/medialab/research/sourceff.html. Stand: 6 / 2 0 0 1 .
Shneiderman, Ben: Designing information-abundant web sites: issues and recommendations. In: Int. J. Human-Computer Studies, 47, 1997, 5 - 2 9 . -
Designing the User Interface: Strategies for Effective Human-Computer Interaction. Reading 1998 3 .
Siegel, David: Creating Killer W e b Sites: The Art of Third-Generation Site Design. Indianapolis 1996. Siemoneit, Manfred: Multimedia - Präsentationen planen, gestalten. München 1995. -
Typographisches Gestalten. Regeln und Tips f u r die richtige Gestaltung von Drucksachen. Frankfurt a.M. 19934.
Skrzyniarz, KoAnn: The Search for a Digital Storytelling Definition. In: dStory News, 1, 2000. URL: http://www.dstory.eom/dsf6/newsletter_01.html#oped. Stand: 4 / 2 0 0 2 . Sorrows, Molly E.: The Role of Landmarks in Real and Electronic Environments. 1999. URL: http://www.sis.pitt.edu/~messtl7/SOA_mar5_99.htm. Stand: 5 / 2 0 0 1 .
Literaturverzeichnis
98
Stanford Poynter Project: Internet Eytracking Study. 2000. URL: http://www.poynter.org/ eyetrack2000. Stand: 8 / 2 0 0 0 . Staufer, Michael: Piktogramme für Computer. Kognitive Verarbeitung, Methoden zur Produktion und Evaluation. Berlin/New York 1987. Steck, Sibylle D.: Integration verschiedener Informationsquellen bei der Navigation in virtuellen Umgebungen, Diss., Tübingen 2000. Stiebner, Erhard D. / Leonhard, Walter: Bruckmanns Handbuch der Schrift. München 1992". Storrer, Angelika: Schreiben, um besucht zu werden: Textgestaltung furs World Wide Web. In: Bucher, Hans-Jürgen / Püschel, Ulrich (Hrsg.): Die Zeitung zwischen Print und Digitalisierung. Opladen 2001, 173-205. Strothotte, Christine / Strothotte, Thomas: Seeing between the Pixels. Pictures in Interactive Systems. B e r l i n / H e i d e l b e r g / N e w York 1997. The American Editor, 4, 2000: The Editors' Guide to Newspaper Design. Thissen, Frank: Screen-Design-Handbuch. Effektiv informieren und kommunizieren mit Multimedia. Berlin etc. 2001 2 . Thomas, Frank/Johnston, Ollie: Disney Animation: The Illusion of Life. New York 1995. Thorell, Lisa G. / Smith, Wanda J.: Using computer color effectively: An illustrated reference. Englewood Cliffs 1990. Tinker, Miles: Legibility of Print. Ames 1963. Tolman Edward C.: Cognitive Maps in Rats and Men. Erstveröffentlichung in: The Psychological Review, 55(4), 1948, 189-208. URL: http://psychclassics.yorku.ca/Tolman/ Maps/maps.htm. Stand: 5 / 2 0 0 1 . Toub, Steve: Evaluating Information Architecture. A practical Guide to Assessing Web Site Organization. Argus Center for Information Architecture 2000. URL: http://argusacia.com/white_papers/evaluating_ia.pdf. Stand: 11/2001. Tschichold, Jan: The Form of the Book. Vancouver 1991. Tufte, Edward R.: Envisioning Information. Cheshire 1990. Turtschi, Ralf: Die Mär von der Lesbarkeit. In: Desktop Dialog, 4, 1998. -
Mediendesign. Zeitungen, Magazine, Screendesign. Sulgen 1998.
-
Praktische Typografie. Gestalten mit dem Personal Computer. Sulgen 1995.
Uka, Walter: Foto. In: Faulstich, Werner (Hrsg.): Grundwissen Medien. München: 1998 3 , 221-238. Ushenko, Andrew P.: Dynamics of Art. Bloomington 1953. Vockrodt, Stefan: Vom Butterbrotpapier zum digitalen Film. In: Morgen Welt, 12.6.2000. URL: http://www.morgenwelt.de/wissenschaft/000612-trickfilm-p.htm. Stand: 3 / 2 0 0 2 . Wagstaff, Sean: Animation on the Web. Berkeley 1999. Wallace, Nathan: W e b Writing for Many Interest Levels.
1999. URL:
http://www.
e-gineer.com/articles/web-writing-for-many-interest-levels.phtml. Stand: 1 2 / 2 0 0 1 . Walls, Gordon L.: The Vertebrate Eye and Its Adaptive Radiation. N e w York 1942 (Neudruck 1967). Wandmacher, Jens: Software-Ergonomie. B e r l i n / N e w York 1993.
Literaturverzeichnis
99
W e h n , Karin: (Fast nur) Trash, Tierquälerei und Blasphemie: R e n a i s s a n c e d e s animierten K u r z f i l m s auf Entertainment-Portalen im W W W . 2001. U R L : http://www.uni-leipzig. de/~wehn/anima/theory/intro/intro_lang.zip. Stand: 3 / 2 0 0 2 . W e i d e n m a n n , Bernd: W i s s e n s e r w e r b mit Bildern. Instruktionale Bilder in Printmedien, F i l m / V i d e o und C o m p u t e r p r o g r a m m e n . Bern 1994. W e i n m a n , Lynda: W e b D e s i g n . Zürich 1998. Wells, Paul: U n d e r s t a n d i n g A n i m a t i o n . L o n d o n / N e w Y o r k 1998. W e r t h e i m e r , M a x : Ü b e r Gestalttheorie. Vortrag v o r der K a n t - G e s e l l s c h a f t Berlin, 1924. A b g e d r u c k t in: Philosophische Z e i t s c h r i f t f ü r Forschung und A u s s p r a c h e 1, 3 9 - 6 0 , 1925. W i e d e r a b g e d r u c k t in: Gestalt T h e o r y , Vol. 7, N o . 2, 9 9 - 1 2 0 , O p l a d e n 1985. W h e i l d o n , Colin: C o m m u n i c a t i n g or Just M a k i n g Pretty Shapes. N o r t h S y d n e y 1986. -
T y p e and Layout. Berkeley 1995.
W h i t e , T o n y : The A n i m a t o r ' s W o r k b o o k . N e w Y o r k 1988. Whittaker, Ron: Television Production. A Comprehensive On-line Cybertext in Studio and Field Production. 2001. U R L : http://www.cybercollege.com/tvp_ind.htm, Stand: 9 / 2 0 0 1 . Willberg, H a n s P e t e r / F o r s s m a n , Friedrich: Lesetypographie. M a i n z 1997. Wilson,
Ralph F. H T M L
E-Mail: Text Font Readability
Study. 2 0 0 1 . U R L :
www.
w i l s o n w e b . c o m / w m t 6 / h t m l - e m a i l - f o n t s . h t m . Stand: 1 0 / 2 0 0 1 . W i t m e r , B o b G . / S i n g e r , Michael J.: M e a s u r i n g presence in virtual e n v i r o n m e n t s . A presence questionaire. In: Presence, 7, 1998, 2 2 5 - 2 4 0 . W ö l f f l i n , Heinrich: Über d a s R e c h t s und L i n k s im Bilde. In: G e d a n k e n zur Kunstgeschichte. Basel 1941, 8 2 - 9 0 . Zettl, Herbert: Sight, S o u n d , Motion. A p p l i e d M e d i a Aesthetics. B e l m o n t etc. 1999 1 .