130 103 1MB
English Pages 233 [229] Year 2006
Eric Karstens Fernsehen digital
Eric Karstens
Fernsehen digital Eine Einführung
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über abrufbar.
. . 1. Auflage Juni 2006 Alle Rechte vorbehalten © VS Verlag für Sozialwissenschaften | GWV Fachverlage GmbH, Wiesbaden 2006 Lektorat: Barbara Emig-Roller Der VS Verlag für Sozialwissenschaften ist ein Unternehmen von Springer Science+Business Media. www.vs-verlag.de Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist ohne Zustimmung des Verlags unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Umschlaggestaltung: KünkelLopka Medienentwicklung, Heidelberg Satz: Anke Vogel, Ober-Olm Druck und buchbinderische Verarbeitung: Krips b.v., Meppel Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier Printed in the Netherlands ISBN-10 3-531-14864-8 ISBN-13 978-3-531-14864-9
Inhalt
5
Inhalt
Abbildungen und Tabellen ................................................................................. 9 Vorbemerkung ................................................................................................... 11 1
Technische Grundlagen ............................................................................ 13 1.1 Datenkompression und Datenreduktion .............................................. 13 1.1.1 JPEG ............................................................................................ 15 1.1.2 MPEG .......................................................................................... 16 1.1.3 Codecs und Containerformate ..................................................... 20 1.2 Datenspeicherung ................................................................................ 22 1.2.1 Kassettensysteme......................................................................... 23 1.2.2 Festplattensysteme....................................................................... 25 1.2.3 Optische Speichermedien ............................................................ 28 1.2.4 Flash-Speicher ............................................................................. 29 1.3 Datenübertragung ................................................................................ 30 1.3.1 Basisverfahren der Distribution................................................... 31 1.3.2 Vermittlungstechniken................................................................. 34 1.3.3 Digitale Fernsehausstrahlung ...................................................... 35 1.3.4 Alternative Fernsehdistribution ................................................... 39 1.3.5 Funktechniken ............................................................................. 42 1.4 Bildauflösung und Fernsehnormen...................................................... 43 1.4.1 PAL und NTSC ........................................................................... 43 1.4.2 HDTV .......................................................................................... 45 1.4.3 Metadaten .................................................................................... 48 1.4.4 Verwendung von Metadaten........................................................ 50 1.5 Digital Rights Management................................................................. 53 1.5.1 Klassisches Rechtemanagement .................................................. 53 1.5.2 Digitale Verfügbarkeit................................................................. 55 1.5.3 Hardwarebasiertes DRM ............................................................. 56 1.5.4 Kopierschutz für HDTV .............................................................. 57 1.5.5 Softwarebasiertes DRM............................................................... 58 1.5.6 Risiken von DRM........................................................................ 60 1.5.7 Jugendschutz................................................................................ 62
6
Inhalt
2
Distribution und Empfangswege.............................................................. 63 2.1 Frequenzen........................................................................................... 63 2.2 Satellit .................................................................................................. 67 2.3 Kabelfernsehen .................................................................................... 71 2.3.1 Kabelnetz-Infrastruktur ............................................................... 75 2.3.2 Bedingungen für die Kabeleinspeisung von TV-Programmen ... 78 2.3.3 Pay-TV im Kabel......................................................................... 79 2.3.4 Grundverschlüsselung ................................................................. 80 2.4 Digitalfernsehen über Antenne (DVB-T) ............................................ 83 2.5 Mobilfunk ............................................................................................ 86 2.6 Internet................................................................................................. 90
3
Endgeräte und Medienkonsum ................................................................ 93 3.1 Endgerätekonvergenz und -durchsetzung............................................ 93 3.2 Set-Top-Boxen..................................................................................... 98 3.3 Komponenten digitaler Empfangsgeräte ........................................... 100 3.3.1 Verschlüsselung und Adressierung ........................................... 102 3.3.2 Hardware und Betriebssystem ................................................... 106 3.4 Bildschirme........................................................................................ 109 3.4.1 Bildschirmtechnologien............................................................. 110 3.4.2 Deinterlacing und Skalierung .................................................... 113 3.5 Personal Video Recorder ................................................................... 115 3.5.1 PVRs und Electronic Program Guides ...................................... 117 3.5.2 PVRs und Video-on-Demand.................................................... 120 3.6 Interaktivität....................................................................................... 122
4
Zuschauerforschung ................................................................................ 127 4.1 Herausforderungen durch digitale Distribution................................. 128 4.2 Publikumsfragmentierung und Mediaplanung .................................. 130 4.3 Interaktives Fernsehen ....................................................................... 134
5
Wertschöpfungsketten und Geschäftsmodelle...................................... 137 5.1 Fernseh-Senderfamilien..................................................................... 137 5.1.1 Privatsender auf dem Werbemarkt ............................................ 137 5.1.2 Lineares und nonlineares Fernsehen ......................................... 141 5.1.3 Programmpsychologie und Programmstrategien der Fernsehsender ............................................................................ 143
Inhalt
7
5.1.4 Kompensationsstrategien und Diversifikation .......................... 147 5.1.5 Programmvermögen und Produktionsrisiken ............................ 149 5.1.6 Geschäftserweiterung, Distributionserlöse und Pay-TV ........... 151 5.1.7 Pay-TV und Digitalisierung im Ausland................................... 158 5.2 Werbung im digitalen Fernsehen....................................................... 160 5.2.1 Sonderwerbeformen................................................................... 161 5.2.2 Interaktive Werbung .................................................................. 165 5.3 Öffentlich-rechtliche Sender.............................................................. 167 5.4 Kleinere Fernsehsender ..................................................................... 172 5.5 Unterhaltungskonzerne und US-Majors ............................................ 177 5.6 Produktionsfirmen ............................................................................. 179 5.6.1 Digitale Produktion.................................................................... 180 5.7 Netzbetreiber...................................................................................... 182 5.7.1 Kabelnetzbetreiber..................................................................... 183 5.7.2 Telekommunikationsunternehmen ............................................ 188 5.7.3 Mobilfunk .................................................................................. 190 5.8 Hersteller von Unterhaltungselektronik ............................................ 192 5.9 Electronic Program Guides und andere Dienste................................ 195 6
Herausforderungen und Perspektiven .................................................. 199 6.1 Medienpolitik..................................................................................... 199 6.1.1 Finanzierung und Funktion der Öffentlich-Rechtlichen ........... 199 6.1.2 Medienaufsicht .......................................................................... 202 6.1.3 Wirtschaftsförderung und Standortpolitik................................. 204 6.2 Endgeräte ........................................................................................... 206 6.3 Geschäftsmodelle und -strategien...................................................... 209
7
Literatur ................................................................................................... 211
8
Glossar ...................................................................................................... 213
Register ............................................................................................................. 227
9
Inhalt
Abbildungen und Tabellen
Abbildung 1: Abbildung 2: Abbildung 3: Abbildung 4: Abbildung 5: Abbildung 6: Abbildung 7: Abbildung 8: Abbildung 9: Abbildung 10: Abbildung 11: Abbildung 12: Abbildung 13: Abbildung 14: Abbildung 15:
Tabelle 1: Tabelle 2: Tabelle 3: Tabelle 4: Tabelle 5: Tabelle 6:
Aufteilung des Internet-Datenverkehrs 2004 .......................... 33 Mögliche DSL-Bandbreiten in Privathaushalten in Kbit/s...... 40 Größenrelationen SDTV/HDTV ............................................. 46 Modulationsverfahren AM, FM und PM................................. 64 Struktur des deutschen Kabelfernsehnetzes 2004 ................... 73 Mobilfunkteilnehmer in Prozent der Gesamtbevölkerung ...... 95 Aufbau digitaler Empfangsgeräte.......................................... 101 Netto-Werbeerlöse im Fernsehen in Mrd. € .......................... 139 Entwicklung der Ausstattung der Haushalte mit DVD-Playern in %................................................................. 141 Prototypische Diversifikation in der US-Unterhaltungsindustrie .................................................... 149 Umsatz- und Gewinnanteile (EBIT) der M6-Gruppe 2004... 153 Anteil der Sonderwerbeformen am Werbevolumen in % ..... 162 Gesamteinnahmen im dualen Fernsehsystem 2004 in Mio. €................................................................................. 168 Marktanteilsentwicklung von ARD und ZDF in % (E 14-49) ....................................................................... 170 Haushalte mit deutschsprachigen Digitalkabel-Paketen in Mio..................................................................................... 175 Digitale MAZ-Kassetten-Formate (Auswahl)......................... 24 Frequenzbereiche (Auswahl) in MHz ..................................... 65 Rückkanalfähiger Ausbau der Kabelnetze Ende 2005 ............ 78 Marktanteile der großen Privatsender ................................... 138 Digital verbreitete bundesweite öffentlich-rechtliche Programme............................................................................. 169 Sender im Pay-TV-Bouquet der Kabel Deutschland GmbH 2006 ........................................................................... 186
1.1 Datenkompression und Datenreduktion
11
Vorbemerkung
Digitales Fernsehen wird in Deutschland immerhin schon seit Mitte der neunziger Jahre ausgestrahlt: 1995 startete mit Astra 1E der erste für den digitalen Direktempfang ausgerüstete TV-Satellit ins All, und 1996 brachte die damalige Kirch-Gruppe das später mit Premiere verschmolzene Pay-TV-Angebot DF1 auf den Markt. Danach folgte eine lange Phase weitgehender Stagnation; erst seit 2004 macht sich wieder eine neue Dynamik bemerkbar. Die Schwierigkeiten haben damit zu tun, dass es sich bei dem Umstieg vom analogen auf das digitale Fernsehen um einen sehr tiefgreifenden und umfassenden Paradigmenwechsel handelt. Anders als etwa bei der Einführung des Farbfernsehens ist es beileibe nicht damit getan, lediglich die Technik aufzurüsten und sich ansonsten darauf zu verlassen, dass alles andere unverändert bleibt. Im Gegenteil wandeln sich in der digitalen Welt auch die Dimensionen der Fernsehnutzung und der mit dem Medium verbundenen Geschäftsmodelle. Inzwischen hat sich die Entwicklung stark beschleunigt. Fast täglich werden neue Geräte, Anwendungen und Initiativen vorgestellt; Anbieter und Nutzer suchen nach dem erfolgversprechendsten Umgang mit den neuen Möglichkeiten. In dieser Situation möchte der vorliegende Band Orientierung vermitteln, indem er die für das Digitalfernsehen bedeutsamen Grundlagen von Technologie, Infrastruktur, Inhalte- und Marktentwicklung in ihren Funktionsprinzipien erläutert. Es geht hier also nicht in erster Linie um die technischen Feinheiten oder die vollständige Analyse aller wirtschaftlichen Ansatzpunkte, sondern um die praktische Bedeutung aller dieser Faktoren für das Medienmanagement. Bestimmungsgemäß befasst sich dieses Buch mit den spezifisch digitalen Aspekten des Fernsehens. Als allgemeine Einführung in die TV-Branche und die Arbeitsweise der Fernsehunternehmen sei daher das Praxishandbuch Fernsehen empfohlen, das ebenfalls im VS-Verlag erschienen ist. Besonderer Dank geht an Achim Schöneich für Unterstützung bei der Recherche und redaktionelle Mitarbeit vor allem an den Kapiteln 4 und 5, an Christian Bunge für wertvolle Hinweise und Korrekturen, sowie an Jakob Krebs für inspirierende Fragestellungen und Diskussionen. Eric Karstens
1.1 Datenkompression und Datenreduktion
13
1 Technische Grundlagen
1.1 Datenkompression und Datenreduktion Die digitale Speicherung und Übertragung von Fernsehinhalten – und nicht nur von diesen – ist gegenüber der analogen Welt wirtschaftlich ungleich konkurrenzfähiger. Das liegt vor allem daran, dass erst der digitale Bereich eine automatische und systematische Verringerung der Datenmenge bei gleichzeitig relativ geringem Verlust an inhaltlichen Informationen möglich gemacht hat. Denn der analoge Informationsgehalt lässt sich nur um den Preis größerer Undeutlichkeit einsparen: Nimmt man z.B. Leonardo da Vincis berühmten „Homo quadratus“, so stellt dieser eine analoge Datenreduktion – man könnte auch sagen: Abstraktion – von einem wirklichen Menschen dar. Die Zeichnung lässt viele Details einfach weg, angefangen von der Farbe echter Haut über die einzelnen Haare, Fingerabdrücke, die Zeichnung der Iris usw. Dennoch ist es ein analoges, d.h. ähnliches Abbild. Die nächste Datenreduktionsstufe lässt sich auf der Rückseite italienischer Ein-Euro-Münzen bewundern. Dort ist Leonardos Mann verkleinert und schematisch wiedergegeben. Es stimmen im Grunde nur noch die Proportionen und die äußerliche Form mit der Vorlage überein; einen Wiedererkennungseffekt gibt es vor allem deshalb, weil das Original so berühmt ist. Auf der Münze selbst würden wir sonst nur eine etwas rätselhafte männliche Figur mit je vier Armen und vier Beinen erkennen. Noch mehr kann man den Datenumfang kaum verringern – die nächste Stufe wäre ein Strichmännchen, das ein Betrachter höchstens noch als einen Verweis auf die Gattung Mensch erkennen würde, aber nicht mehr als Darstellung menschlicher Proportionen. Abhängig also von dem verwendeten Medium (ein Blatt Papier, eine Münze), dessen Größe (30x30cm, 23mm Durchmesser) und den eingesetzten Mitteln (Tinte und Feder, Prägestempel und Metall) wird die Informationsdichte immer weiter reduziert. Mit jeder Verkleinerung gehen weitere Details unwiederbringlich verloren. Den Euro mit einer Lupe zu betrachten, bringt uns dem Original der Darstellung nicht näher. Wir haben es hier demnach mit einer Datenreduktion zu tun. Alternativ besteht aber auch die Möglichkeit, ein verkleinertes Abbild des Originals herzustellen, bei dem nur wenige Eigenschaften der Vorlage verloren gehen, z.B. eine Fotografie. Wenn man dazu einen hochwertigen Film verwendet, lassen sich die 900cm² von Leonardos Federzeichnung ohne weiteres auf einen Quadratzentimeter bannen. Betrachtet man den entwickelten Film dann
14
1 Technische Grundlagen
durch ein Vergrößerungsglas oder projiziert das Bild auf eine Leinwand, stellt sich heraus, dass keine grafischen Details auf der Strecke geblieben sind – lediglich die Haptik des vom Künstler verwendeten Papiers kann man anhand der Reproduktion nicht mehr nachempfinden. In diesem Fall handelt es sich also um eine Datenkompression: Mit Hilfe eines technischen Mittels (Fotokamera) werden vorhandene Informationen auf einem kleineren Medium (transparenter Film) nahezu vollständig und maßstabsgerecht gespeichert. Auslassungen oder Abstraktionen werden vermieden. Die Kompression findet erst dort ihre Grenze, wo die Auflösung des Speichermediums nicht mehr ausreicht, um alle Details darzustellen, also z.B. wenn die lichtempfindliche Emulsion des Films sehr körnig ist oder man versucht, das akkurate Abbild nicht auf einem Quadratzentimeter Film zu speichern, sondern auf einem Quadratmillimeter. Diese beiden Methoden, Platz zu sparen, gibt es auch im digitalen Bereich. Dabei ist die Datenkompression verlustfrei, d.h. mit einem Trick wird die vollständige Information des Originals auf einem Raum gespeichert, der möglichst klein ist. Man kann sich das Prinzip, das dabei angewendet wird, gut an einem Text vorstellen: Der Buchstabe E ist in der deutschen Sprache der häufigste. Statt also jedes E einzeln zu speichern, merkt man sich, wie oft der Buchstabe in einem Text vorkommt und an welchen Stellen. Noch besser funktioniert die Kompression, wenn man den Text auf größere Einheiten durchsucht, die sich öfter wiederholen, also z.B. Silben oder ganze Wörter. Es erfolgt mithin im Grunde eine statistische Analyse des Datenbestandes; tatsächlich gespeichert wird dann nur die Anleitung zur Wiederherstellung des Originals, also eine Art Koordinatensystem davon. Mit der Hilfe eines Computers geht diese Kompression und Dekompression sehr schnell und automatisch vonstatten. Die bekannten ZIPDateien arbeiten nach diesem Muster. Eine Datenreduktion bei dem gleichen Text würde dagegen verzichtbare Buchstaben, die für das Verständnis des Inhaltes nicht unbedingt notwendig sind, einfach ersatzlos entfernen. Das geht mit Vokalen sehr leicht: Das Wort „Datenreduktion“ erkennt man im Zusammenhang dieses Kapitels – spätestens nach kurzer Überlegung – auch dann, wenn nur „Dtnrdktn“ geschrieben steht. Wenn man nun aber einem Computer beibringen will, aus dem reduzierten Wort das ursprüngliche Wort wieder herzustellen, reicht es nicht mehr aus, ihm eine einfache Tabelle zu liefern, aus der er durch mathematische Operationen das Original ableiten kann, sondern man muss ihm mehr oder weniger komplexe Regeln und Wahrscheinlichkeiten mitgeben. Nur dann wird er mit einiger Zuverlässigkeit die im jeweiligen Zusammenhang richtigen Vokale an den korrekten Stellen einsetzen und ableiten, dass von „Datenreduktion“, aber nicht etwa von „Diätenredaktion“ die Rede ist. Da der Computer aber im Gegensatz zum Menschen eben nicht intelligent ist, kann er manchmal bei zwei möglichen, orthographisch glei-
1.1 Datenkompression und Datenreduktion
15
chermaßen richtigen Begriffen nicht entscheiden, welcher gemeint ist und rettet sich dann in ein undeutliches Ergebnis, das der Leser erst noch interpretieren muss, z.B. „Dtenrdktion“. Die unsinnigen Nicht-Buchstaben, die der Computer eingesetzt hat, werden all denen, die schon einmal digitales Fernsehen gesehen haben, bekannt vorkommen: In Bildern werden sie umgangssprachlich „Klötzchen“ oder „Pixel“ genannt, doch der treffendere Fachbegriff heißt Artefakte – künstliche Objekte, die von der Elektronik überall dort eingesetzt werden, wo sie keine eindeutigen Anhaltspunkte für das wirklich Gemeinte hat. Wenn das vorliegende Datenmaterial nicht ausführlich genug ist, um ein Bilddetail präzise darstellen zu können, muss die Technik bereits in einem ungenaueren Stadium die Arbeit abbrechen. Genau so laufen auch die Kompression und Reduktion von audiovisuellen Inhalten ab. Die Kompression ist technisch relativ einfach, schnell und liefert zuverlässige Ergebnisse, während die Arbeit mit Reduktionsverfahren langsamer ist, eine hohe Komplexität der verwendeten Software bzw. Elektronik erfordert und trotzdem manchmal Fehler macht.
1.1.1 JPEG Die Abkürzung steht für die Joint Photographic Experts Group, eine Gruppe von Fachleuten für die Verarbeitung von Standbildern. Das JPEG-Verfahren ermöglicht die platzsparende Speicherung und Übertragung von Fotos, aber auch von Videoaufnahmen. Dabei werden zunächst die weniger wichtigen Details des Bildes unterdrückt. Auf einem typischen Urlaubs-Schnappschuss am Strand ist z.B. sehr viel blauer Himmel zu sehen. Dabei zeigt die Original-Aufnahme eine Menge von verschiedenen Blautönen, die das menschliche Auge unter Umständen gar nicht unterscheiden kann. Also werden die Farbwerte des Himmels vereinheitlicht; von den 2.000 Nuancen des Originals bleiben vielleicht nur zwanzig erhalten. Ist diese Vereinheitlichung erst einmal erfolgt, braucht man im nächsten Schritt nicht mehr Tausende einzelner Bildpunkte mit jeweils unterschiedlichen Eigenschaften zu speichern, sondern nur noch die Information, wie oft und an welchen Stellen ein identischer Bildpunkt wiederholt werden muss. Von der ursprünglichen, eigentlich überflüssigen Komplexität der Aufnahme bleiben also nur die für die Wahrnehmung wichtigen Elemente zurück, also die Unterschiede zwischen Strand, Meer und Himmel, und die Menschen, die auf dem Foto zu sehen sind. Wie viele Details das nach dieser Methode datenreduzierte Bild enthält, d.h. wie scharf es wirkt und wie wirklichkeitsnah seine Farben oder Graustufen erscheinen, ist vom jeweils gewählten Reduktionsfaktor abhängig. Größenordnun-
16
1 Technische Grundlagen
gen von bis zu 5:1 (also eine Reduktion auf 20 Prozent des ursprünglichen Umfangs) sind in der Regel nicht sichtbar, und selbst Faktoren von 25:1 (4 Prozent der Ausgangsgröße) können noch gute Resultate liefern. Das hängt natürlich immer von dem Verwendungszweck des Bildes und seinem Inhalt ab: Das briefmarkengroße Foto auf einer Internet-Seite verträgt eine stärkere Datenreduktion als eines, das ganzseitig in einer Illustrierten abgedruckt werden soll, und das Abbild einer vollbesetzten Zuschauertribüne bei einem Fußballspiel mit Tausenden Gesichtern, Transparenten und Fahnen lässt sich in seinem Informationsgehalt sehr viel weniger stark verringern als das oben erwähnte Strandfoto, auf dem nur wenige Einzel-Elemente erscheinen. Bei Fernseh- bzw. Videoaufnahmen wird das gleiche Prinzip verwendet. Reguläres Fernsehen besteht aus 25 Einzelbildern pro Sekunde, und jedes dieser Bilder (in der Fachsprache Frames genannt) durchläuft vor seiner Speicherung auf einem digitalen Datenträger, z.B. einer professionellen Videokassette, blitzschnell einen JPEG-Datenreduktionsprozess. Dabei haben die verschiedenen Hersteller für ihre unterschiedlichen Geräte und Speichersysteme (vgl. Kap. 1.2) allerdings keine gemeinsame Norm vereinbart, so dass Überspielungen zwischen nicht bauartgleichen Systemen nur über Umwege möglich sind und zu sichtbaren Qualitätsverlusten führen. Weit verbreitete professionelle Videokassetten-Standards wie Digital Betacam oder DVCPRO verwenden eine JPEG-Datenreduktion. Damit gelingt es z.B., die maximal bei der Produktion von herkömmlichem Fernsehen anfallende Datenmenge von 270 Mbit/s auf 83 Mbit/s (im Falle von DigiBeta) bzw. 25 Mbit/s (bei DVCPRO) zu verringern.
1.1.2 MPEG Doch auch so bleiben immer noch gewaltige Datenmengen übrig: Ein 90minütiger Spielfilm auf DigiBeta belegt einen Speicherplatz von fast 55 Gigabyte. Zum Vergleich: Handelsübliche PCs verfügen heute über Festplatten mit rund 200 GB Volumen, und auf eine herkömmliche DVD passen lediglich 4,7 GB – also weniger als ein Zehntel des originalen Datenumfanges eines eher kurzen Films. Erschwerend kommt die Entwicklung des hochauflösenden Fernsehens HDTV (High Definition Television) hinzu, das Bilder mit rund fünfmal so vielen Bildpunkten liefert wie unser gewohntes Fernsehen und damit auch entsprechend umfangreichere Datenmengen erzeugt. Ohne eine weitere Datenreduktion wäre es mithin nahezu unmöglich, Filme auf DVDs zu brennen, Videos im Internet zu übertragen oder überhaupt eine wirtschaftlich sinnvolle Ausstrahlung von digitalem Fernsehen über Antenne, Kabel oder Satellit zu gewährleisten.
1.1 Datenkompression und Datenreduktion
17
Die Lösung dafür erarbeitete ein weiterer Zusammenschluss von Fachleuten, die Motion Picture Experts Group, abgekürzt MPEG. Das Verfahren macht sich den Umstand zu Nutze, dass sich bei 25 Fernseh-Einzelbildern pro Sekunde der Bildinhalt von Frame zu Frame nur sehr geringfügig verändert. Musterbeispiel dafür ist eine Nachrichtensendung: Eine typische Meldung dauert z.B. etwa 20 Sekunden und wird von einem Sprecher vorgelesen, in dessen Hintergrund eine Grafik erscheint, oft eine Landkarte oder ein Foto. Die einzigen Bildelemente, die sich während dieser Zeit – also innerhalb von 500 Frames – verändern, sind die Mund- und leichten Kopfbewegungen des Sprechers. Im Prinzip reicht es also aus, das allererste Bild vollständig zu speichern oder zu übertragen, von allen weiteren Bildern aber jeweils nur den recht kleinen Teil, der sich gegenüber dem Ausgangs-Bild tatsächlich verändert hat. Im Fall des Nachrichtensprechers sind das höchstens fünf Prozent. Dieses Verfahren funktioniert aber auch bei Actionfilmen oder anderen Sequenzen, in denen sich schnell sehr viel verändert, denn auch bei einer Auto-Verfolgungsjagd oder einem Formel-1-Rennen bewegen sich zwar von Bild zu Bild die Autos selbst weiter, der Hintergrund sowie Farbe und Form der Fahrzeuge bleiben jedoch weitgehend gleich. Das MPEGVerfahren muss also „nur“ sicherstellen, dass die Bewegung der Objekte richtig wiedergegeben wird. Das vollständig gespeicherte Referenzbild heißt I-Frame (Intra Coded Frame), d.h. ein in sich mit JPEG datenreduziertes Bild. Die Einzelbilder, die sich davon ableiten, werden P-Frames (Predictive Coded Frames), d.h. Voraussagen über die inhaltliche Veränderung gegenüber dem I-Frame genannt. P-Frames beziehen sich immer auf ein zeitlich vorhergehendes Referenzbild. Weitere Reduktionen sind mit B-Frames (Bidirectional Coded Frames) möglich, die sich sowohl auf den vorhergehenden als auch den nächsten folgenden I-Frame beziehen. Aber natürlich steigt mit wachsender Entfernung des P-Frames von seinem Ausgangsbild die Abweichung von diesem; die Vorhersage, wie ein Bild auszusehen hat, wird damit immer schwieriger und unzuverlässiger. Deshalb kann man die Qualität eines MPEG-Videos durch den Abstand zwischen den IFrames bestimmen, die Group of Pictures (GOP). Professionelle Formate, die alle Möglichkeiten der nachträglichen Bearbeitung des Bildmaterials erhalten wollen, arbeiten daher mit einer GOP von 1, d.h. sie enthalten ausschließlich IFrames, damit trotz Datenreduktion keine inhaltlichen Informationen verloren gehen können. Bei einer DVD ist die GOP dagegen im Durchschnitt 14, d.h. pro Sekunde werden weniger als zwei Bilder vollständig gespeichert, während sich alle anderen Frames lediglich von Referenzbildern ableiten (Long GOP). Das reicht für die bekannt hochwertige Bildqualität bei der DVD-Wiedergabe von bis zu 130 Minuten Filmmaterial.
18
1 Technische Grundlagen
Das Arbeiten mit einer Group of Pictures bringt es in jedem Fall mit sich, dass mindestens die zu einer GOP gehörenden Frames vom Abspielgerät zwischengespeichert werden müssen, da MPEG ja keine Einzelbilder wiederherstellen kann, ohne sich an den jeweiligen I-Frames zu orientieren. Das stellt einerseits hohe Anforderungen an die Geschwindigkeit und Kapazität der Speicherbausteine (Random Access Memory, RAM) der eingesetzten Hardware; andererseits sorgt es für eine Zeitverzögerung zwischen dem Auslesen der Datei und der Darstellung ihrer Inhalte auf einem Bildschirm. Wo also das analoge Fernsehbild praktisch unverzüglich von der Antenne oder Kassette auf den Apparat gelangt, vergehen hier systembedingt mindestens Sekundenbruchteile, unter Umständen aber auch mehrere Sekunden. Dadurch kann gegebenenfalls auch das gewohnte Zapping zu einer eher unerfreulichen Erfahrung geraten, weil sich das TV-Gerät erst wieder auf einen neuen Datenstrom einstellen muss (dabei ist MPEG freilich nicht der einzige Faktor; vgl. auch Kap. 3). Für unterschiedliche Bildinhalte (Nachrichten, Autorennen) und verschiedene Verwendungszwecke von Videos (Postproduktion, Fernsehen, Internet) ist es erforderlich, die Stärke der Datenreduktion jeweils anzupassen, also unterschiedlich große GOPs zu verwenden. Bei einigen Anwendungen wie z.B. der DVD wird die Datenrate an den Bildinhalt dynamisch angepasst. Szenen mit vielen Bewegungen oder zahlreichen Details werden weniger stark reduziert, während Sequenzen mit geringerem optischen Informationsgehalt besonders stark an Datenvolumen einsparen. Für die Distribution von Videomaterial – sei es auf DVDs oder im digitalen Fernsehen – lassen sich auf diese Weise extrem starke Kapazitätseinsparungen erreichen, die mit geringen oder zumindest akzeptablen sichtbaren Qualitätsverlusten einhergehen. Wo z.B. das professionelle IMX-Format noch 50 Mbit/s benötigt, kommt eine DVD mit rund 10 Mbit/s aus, und für die Ausstrahlung eines Fernsehkanals reichen unter Umständen ganze 2 Mbit/s an Bandbreite. Datenreduktionsverfahren stellen hohe Ansprüche an die dabei verwendeten Geräte. Für eine JPEG-Codierung genügt es, wenn die Technologie, welche die Reduktion vornimmt, mit intelligent programmierten Mitteln arbeitet; die bloße Darstellung des Bildinhaltes erfordert dagegen keine nennenswerte Rechenleistung mehr. Ganz anders bei MPEG: Auf der Seite des Encoders wird mit großem technischem Aufwand der Bildinhalt auf Farben, Formen und Bewegungen analysiert, um ihn dann möglichst platzsparend und zugleich qualitätswahrend in einen Datenstrom zu verwandeln. Aber dieser Vorgang muss auf der Empfängerseite vollständig rückwärts durchlaufen werden. Ein Decoder errechnet aus den spärlichen Informationen der I-, P- und B-Frames den ursprünglichen Bildinhalt und stellt ihn auf einem Bildschirm dar. Sobald ein I-Frame beschädigt wird oder
1.1 Datenkompression und Datenreduktion
19
verloren geht, bricht das ganze System in sich zusammen und es kommt zu Bildstörungen – zumindest so lange, bis der nächste korrekte I-Frame gefunden ist. Das erklärt auch, warum sich MPEG-codierte Videos mit einer GOP von mehr als 2 in der Regel nicht optimal für den Schnitt oder die Nachbearbeitung eignen. Wenn ein Schnitt zwischen zwei I-Frames angesetzt wird, geht der Bezug zum Referenzbild verloren und damit auch der größte Teil des Inhaltes des ersten Bildes nach dem Schnitt. Das Gleiche gilt auch für Farbkorrekturen, Spezialeffekte und andere Bearbeitungsschritte, die ein in allen Hinsichten technisch vollständiges Ausgangsmaterial erfordern. Das Schnittsystem müsste also das ursprüngliche Video so umrechnen, dass es wieder ausschließlich aus I-Frames besteht, es dann bearbeiten und schließlich wieder in eine Datei mit größerer GOP verwandeln. Das wäre sehr aufwändig und brächte fast zwangsläufig weitere Qualitätsverluste mit sich. Bestimmte Bildeigenschaften können auch gar nicht mehr rekonstruiert werden, wenn sie nicht von Anfang an in voller Qualität mitgespeichert worden sind. MPEG-2 ist das zur Zeit noch am weitesten verbreitete Verfahren; es wird auf DVDs genauso verwendet wie für das digitale Fernsehen über Antenne, Satellit oder Kabel. Der Standard wird von sehr vielen Geräten beherrscht und konzentriert sich auf die vergleichsweise simple Speicherung der Unterschiede zwischen den einzelnen JPEG-Frames. Ursprünglich für den Einsatz im Internet oder auf mobilen Endgeräten wurde der Standard MPEG-4 entwickelt, der gegenüber MPEG-2 die Datenrate bei sehr guter Bildqualität noch einmal mindestens halbiert. Die wesentlich stärkere Datenreduktion erreicht MPEG-4 durch komplexe mathematische Analysen des Bildmaterials, mit deren Hilfe zwischen bewegten und unbewegten Objekten und verschiedenen Bildebenen unterschieden wird. Statt immer nur die Unterschiede gegenüber dem I-Frame zu speichern, kann dadurch z.B. für eine längere GOP ein einziges Mal die Bewegungsrichtung eines Gegenstandes abgelegt werden, die dann auf mehrere Frames Anwendung findet. Dank dieses Verfahrens ist es möglich, die gewaltigen Datenmengen von HDTV zu bewältigen, ohne dabei die Speicher- und Übertragungskapazitäten zu sprengen. Aufgrund seiner hohen Entwicklungsstufe benötigt MPEG-4 besonders leistungsfähige Elektronik; deshalb beginnt es sich auf dem Markt für Konsumenten-Endgeräte erst langsam durchzusetzen. Das ältere MPEG-1 erzeugt Datenraten von bis zu 1,5 Mbit/s und liefert keine besonders gute Bildqualität. Es wird jedoch außer im Internet vor allem im professionellen Bereich immer noch eingesetzt, weil es sich optimal für die Vorschau von TV-Material auf Computern oder nonlinearen Schnittsystemen eignet. Das hängt damit zusammen, dass es bei einer GOP von einem Frame immer nur mit einem der beiden Halbbilder arbeitet, aber keine Frame-übergreifenden Techniken verwendet. Auf diese Weise kann man z.B. an einem PC ohne Prob-
20
1 Technische Grundlagen
leme eindeutig definieren, an welcher Stelle das Ausgangsmaterial geschnitten werden soll. Dadurch kann man bei mit MPEG-1 codierten Videos auch auf weniger leistungsstarken Geräten präzise Schnittlisten (Edit Decision Lists, EDL) erstellen, ohne dass dazu das Original vorliegen müsste. Übrigens ist auch das beliebte MP3 eine Entwicklung aus dem MPEGUmfeld: Die Abkürzung steht für MPEG Layer 3 und ist eigentlich ein Verfahren zur Datenreduktion von Sound in MPEG-Videodateien.
1.1.3 Codecs und Containerformate Es existiert eine große Vielzahl an Verfahren zur Datenreduktion und zum Wiederabspielen von Videomaterial, Kombinationen aus Coder und Decoder, kurz: Codecs. Die meisten davon setzen auf den JPEG- und MPEG-Verfahren auf, wandeln sie aber auf die unterschiedlichste Weise ab oder entwickeln sie weiter. Oft handelt es sich auch um proprietäre Lösungen bestimmter Hersteller oder Netzwerkbetreiber, die damit den Verkauf ihrer jeweiligen Geräte fördern oder sich gegen konkurrierende Unternehmen abschotten wollen. Im PC- und Internet-Bereich kommen z.B. häufig die Codecs WMV (Micosoft Windows Media Video), RealVideo, DivX oder das aus DivX abgeleitete Open-Source-Projekt XviD zum Einsatz. Als besonders leistungsfähig gilt der Standard H.264, auch bekannt als MPEG-4/AVC (Advanced Video Codec), der vor allem für die Datenreduktion von HDTV-Videomaterial eingesetzt wird. Eine native Übertragung, d.h. ein verlustfreies Überspielen ohne technische Umwege, ist dabei in der Regel jeweils nur zwischen Geräten bzw. Codecs der gleichen Produktfamilie möglich, z.B. von DigiBeta zu DigiBeta oder von DVCPRO zu DVCAM; lediglich MPEG-2 kann heute als recht universeller Standard gelten, der von einer wachsenden Anzahl von Maschinen nativ verstanden wird. Das wirft in der Praxis eine ganze Reihe von Problemen auf. Eines davon sind Kaskadierungsverluste, die immer dann entstehen, wenn ein Bildsignal im Laufe seiner Lebensdauer mehrfach von einem Codec in einen anderen umgewandelt werden muss. Eine Reportage wird z.B. mit einer DV-Kamera gedreht, dann für den Schnitt auf DigiBeta überspielt, per Datenleitung im MPEG-2Format mit einer GOP von einem Frame an die Sendezentrale geschickt und von dort schließlich als stark datenreduziertes MPEG-2 mit einer GOP von 20 Bildern ausgestrahlt. In solchen Fällen kommt es im Laufe der Zeit zu immer größeren Qualitätsverlusten, die sich überdies gegenseitig verstärken können. Der zweite, dritte oder vierte Encodierungsprozess kann sein Ergebnis nicht mehr mit dem Original vergleichen, sondern immer nur mit dem Produkt der vorausgehenden Arbeitsstufe. Eine systembedingte Unschärfe oder ein Bildfehler früherer
1.1 Datenkompression und Datenreduktion
21
Codecs wird mithin immer weiter verschlimmert, zumal wenn von Generation zu Generation die Stärke der Datenreduktion erhöht wird. Außerdem können Maschinen in der Regel mit Video-Dateien, deren Codec ihnen unbekannt ist, nichts anfangen, d.h. sie weder speichern noch öffnen. Der Effekt ist ungefähr so, als wenn man versucht, eine Tabellenkalkulations-Datei mit einem Textverarbeitungsprogramm aufzurufen: Entweder es geht gar nicht oder man sieht schließlich nur eine Ansammlung rätselhafter Sonderzeichen. Mit dem Ziel, Videomaterial so abzuspeichern und zu übertragen, dass es möglichst selten von einem Codec in einen anderen gewandelt werden muss und darüber hinaus von möglichst vielen verschiedenen technischen Geräten vertragen wird, wurden deshalb die Containerformate geschaffen. Weit verbreitet ist im PCBereich beispielsweise AVI (Audio Video Interleaved) und in der professionellen Fernsehproduktion MXF (Material Exchange Format). Im Grunde kann man ein Containerformat mit einem Karton vergleichen, in dem Gegenstände – hier: audiovisuelle Inhalte – aufbewahrt werden und dessen Außenseite eine Beschreibung der Art seines Inhaltes trägt. Und selbst wenn man mit dem Inhalt nichts anzufangen weiß, so ist man doch zumindest in der Lage, den Karton entgegenzunehmen und in ein Regal zu stellen, um dann in Ruhe nachzudenken, was man damit machen soll. Der Container kann also im Grunde beliebiges Videomaterial enthalten und wird auch von Maschinen akzeptiert, die den verwendeten Codec (noch) nicht kennen. Zugleich enthält er im Normalfall Informationen darüber, welcher Codec zu seiner Entschlüsselung gebraucht wird. Wenn die richtigen technischen Voraussetzungen gegeben sind, kann sich das Gerät den Codec dann automatisch aus dem Internet beschaffen oder von einem Benutzer installieren lassen und den Inhalt schließlich abspielen und/oder bearbeiten. Auf diese Weise vermag eine Container-Datei beliebig viele Stationen zu passieren, ohne dabei ihre ursprünglichen Eigenschaften zu verlieren oder an Qualität einzubüßen. Damit ist freilich nicht notwendigerweise garantiert, dass man sie überall auch tatsächlich öffnen kann. Moderne Containerformate erschöpfen sich nicht unbedingt in dieser Aufgabe als universelle Transport- und Speicherungsverpackung, sondern sind dafür gerüstet, noch eine Menge weiterer Metadaten zu enthalten, d.h. beschreibende Informationen über ihren Inhalt (vgl. Kap. 1.4.3). Das können Zusammenfassungen der Handlung oder Listen mit filmographischen Daten (Land, Jahr, Regisseur, Darsteller etc.) sein, aber auch Zuordnungen zu einem Genre, urheberrechtliche Hinweise oder technische Informationen.
22
1 Technische Grundlagen
1.2 Datenspeicherung Die langfristige Speicherung und Aufbewahrung von Fernsehprogrammen und anderem Videomaterial stellt von jeher eine große technische Herausforderung dar, da die schieren Datenmengen leicht die Kapazitäten der jeweils verfügbaren Speichermedien erschöpfen. Das hat sich auch in der digitalen Welt nicht grundsätzlich geändert: Der Studio-Produktions- und Übertragungsstandard SDI (Serial Digital Interface) für klassisches Fernsehen arbeitet mit einer Datenrate von 270 Mbit/s, seine HDTV-Variante HD-SDI sogar mit 1,5 Gbit/s. Ohne Datenreduktion wäre es auch heute noch praktisch sehr schwierig und wirtschaftlich fast unmöglich, solche Mengen an Information auf ein Trägermedium zu bannen, denn rechnerisch kommen so in einer Stunde 118 GB (SDI) bzw. 675 GB (HDSDI) zusammen. Aber selbst nach Verringerung des zu speichernden Umfanges mit hochentwickelten Verfahren wie MPEG bleibt immer noch ein gewaltiges Volumen übrig – zumindest dann, wenn man sich die Möglichkeit zu einer Bearbeitung des Materials offen halten will. Eine Programmstunde umfasst so bei herkömmlichem Fernsehen (SDTV, Standard Definition Television) rund 21 GB und bei HDTV ca. 81 GB. Diese Zahlen wirken angesichts der Leistungsfähigkeit moderner PCFestplatten noch nicht allzu erschreckend, doch man muss sich die gesamte Menge des produzierten und ausgestrahlten Videomaterials vor Augen halten, um die Dimensionen zu verstehen. Ein Fernsehsender, der rund um die Uhr in HDTV ausstrahlt, kommt im Jahr leicht auf einen Speicherbedarf von über 300.000 GB, selbst wenn man berücksichtigt, dass ein Teil des Programms aus Wiederholungen oder Live-Sendungen wie Nachrichten besteht, die nicht für eine langfristige Lagerung aufgezeichnet werden müssen. Und bereits bei einem SDTV-Kanal kommen unter gleichen Voraussetzungen ohne weiteres rund 60.000 GB zusammen. Ferner muss man berücksichtigen, dass in der Regel erheblich mehr Material produziert als ausgestrahlt wird; auf jede fertige Reportage etwa kommt mindestens noch einmal der doppelte bis dreifache Umfang an Ausgangsmaterial, von dem Sender oder Produzent gewöhnlich zumindest einen Teil aufbewahren, um es für die Herstellung anderer Programme in der Hinterhand zu behalten. Über mehrere Jahre gerechnet, haben wir es hier also mit Datenvolumina im hohen Tera- und Petabyte-Bereich zu tun (1 Terabyte entspricht 1.024 GB, 1 Petabyte besteht aus 1.024 Terabyte). Zum Vergleich: Der gesammelte Text aller Bücher der im Jahr 1800 gegründeten Library of Congress in Washington, der größten Bibliothek der Welt, wird auf lediglich 80 Terabyte (also rund 82.000 GB) geschätzt.
1.2 Datenspeicherung
23
1.2.1 Kassettensysteme Die traditionelle Lösung für die Aufbewahrung solch gigantischer Datenvolumina sind Kassetten mit Magnetbändern (MAZ, Magnetaufzeichnung), so wie sie in Form der analogen VHS-Kassette (Video Home System) allgemein bekannt sind. Die professionellen Systeme unterscheiden sich dabei im wesentlichen durch ihre höhere Speicherkapazität, Betriebssicherheit und Haltbarkeit. Sie sind in beliebiger Menge verfügbar, kosten relativ wenig, lassen sich gut lagern und brauchen, nachdem sie einmal bespielt worden sind, keine weitere Zufuhr von elektrischem Strom. Doch genau wie bei analogen Videobändern besteht auch im digitalen Bereich die Herausforderung darin, die großen Datenmengen in Echtzeit auf die Magnetbänder zu schreiben bzw. später wieder abzuspielen. Dazu ist es erforderlich, dass sich das Band in möglichst hoher Geschwindigkeit an dem Videokopf vorbeibewegt; die Faustregel lautet: Je langsamer, desto weniger Daten können geschrieben werden, je schneller, desto mehr. Das bringt für die Praxis Nachteile mit sich, denn um eine ausreichend hohe Datenrate zu erzielen, hätte man zwei Alternativen: Man könnte erstens ein schmales Band mit großer Geschwindigkeit laufen lassen. Dann käme es aber zu einer starken mechanischen Belastung des Bandes, es bestünde die Gefahr, dass es reißt, und außerdem hätte man bei längeren Aufnahmen Spulen mit sehr großem Durchmesser. Zweitens wäre es möglich, ein breites Band zu verwenden, das dann langsamer laufen könnte; das würde aber zu sehr dicken und damit ebenfalls unpraktischen Spulen bzw. Kassetten und zu Problemen bei der Verteilung der Daten auf das Band führen. Die Größe der Bandkassetten ist aber von doppelter Bedeutung – einerseits müssen sie klein genug sein, um in tragbare Fernsehkameras zu passen, und andererseits sollen sie auch im Archiv so wenig Platz verbrauchen wie möglich. Die Lösung dafür heißt Schrägspuraufzeichnung (Helical Scan). Dabei wird das Magnetband in einem Winkel verkantet an einer sich drehenden Kopftrommel mit mehreren Videoköpfen vorbeigeführt. Statt einer durchgehenden linearen Spur werden hier also viele nebeneinander liegende, leicht gekrümmte einzelne Spuren aufgezeichnet. In dem Augenblick, wenn ein Videokopf an der oberen Kante den Bandkontakt verliert, beginnt am unteren Rand der nächste Kopf eine neue Spur zu schreiben. Die Laufgeschwindigkeit des Bandes und die Rotationsgeschwindigkeit der Kopftrommel addieren sich mithin zu einer recht hohen relativen Bandgeschwindigkeit. Kompakte Kassetten ermöglichen auf diese Weise die Aufzeichnung hoher Datenvolumina. Nach diesem Prinzip arbeiten fast alle gängigen Videokassettensysteme, also auch VHS und das aus digitalen Amateur-Videokameras bekannte DV-Format.
24
1 Technische Grundlagen
Tabelle 1: Digitale MAZ-Kassetten-Formate (Auswahl) Bezeichnung Auflösung Professionelle Formate IMX SDTV Betacam SX SDTV DigiBeta SDTV DVCPRO SDTV DVCPRO50 SDTV DVCAM SDTV HDCAM HDTV HD-D5 HDTV DVCPROHD HDTV Consumer-Formate DV SDTV HDV HDTV
Verfahren MPEG-2, GOP 1 MPEG-2, GOP 2 JPEG JPEG JPEG JPEG JPEG JPEG JPEG JPEG MPEG-2
Datenrate
Bandmaterial
50 Mbit/s 18 Mbit/s 83 Mbit/s 25 Mbit/s 50 Mbit/s 25 Mbit/s 185 Mbit/s 235 Mbit/s 100 Mbit/s
1/2 Zoll 1/2 Zoll 1/2 Zoll 1/4 Zoll 1/4 Zoll 1/4 Zoll 1/2 Zoll 1/2 Zoll 1/4 Zoll
25 Mbit/s 25 Mbit/s
1/4 Zoll 1/4 Zoll
Doch auch das Helical-Scan-Verfahren erfordert einige technische Kompromisse. Zunächst einmal ist die Bandführung recht kompliziert; das Band muss von einer Mechanik aus der Kassette gezogen und halb um die Kopftrommel gewickelt werden. Besitzer von Videokassetten-Recordern kennen die dadurch entstehende sekundenlange Wartezeit, bis eine eingelegte Kassette zu laufen beginnt. Das größere Problem besteht jedoch darin, dass die Videoköpfe die schrägen Spuren auf dem Band nur bei normaler Bandgeschwindigkeit richtig auslesen können, während sich in der Pause-Stellung oder bei schnellem Vor- oder Rücklauf der Winkel zwischen Videokopf und Spur verändert. Einfache VHSRecorder, aber auch viele Profi-Geräte sind deshalb nicht in der Lage, ein störungsfreies Standbild zu erzeugen, und beim schnellen Vorlauf erscheinen im Bild waagerechte Störstreifen bzw. digitale Artefakte, weil die Kopftrommel statt einer Spur pro Frame nunmehr während der Dauer eines Frames die Videospuren mehrerer hintereinander liegender Bilder berührt. Einige, aber nicht alle dieser unerwünschten Effekte sind mit hohem technischen Aufwand korrigierbar. Einer der Nachteile der Schrägspuraufzeichnung im industriellen Fernsehbetrieb besteht ferner darin, dass auch Überspielungen (von speziellen Ausnahmen abgesehen) immer in Echtzeit erfolgen müssen. Einen zweistündigen Spielfilm zu kopieren, dauert auf jeden Fall mindestens zwei Stunden. Auch das Einspielen von Kamerakassetten in ein digitales, nichtlineares Schnittsystem
1.2 Datenspeicherung
25
(vgl. Kap. 1.2.2) ist aus diesem Grund sehr zeitaufwändig. Effizienzvorteile kann man höchstens dadurch erzielen, dass man gleichzeitig mehrere Kopien zieht, also von einer Quelle parallel auf mehrere Aufzeichnungsgeräte überspielt (Kopierstraße). Diese Einschränkungen machen sich vor allem beim kassettenbasierten, sogenannten linearen Schnitt, d.h. der Nachbearbeitung von auf Kassetten gespeichertem Videomaterial, negativ bemerkbar. Hierbei wird nicht wie beim Film mit der Schere an einer bestimmten Stelle des Materials angesetzt, sondern es werden immer nur Ausschnitte von einem oder mehreren Quell-Bändern auf ein Ziel-Band umkopiert. Wenn mithin – um ein Extrembeispiel zu konstruieren – zwischen zwei Schnitten ein zehnminütiges Segment vollständig verwendet werden soll, müssen die beteiligten Personen entsprechend lange untätig zusehen, während das Stück kopiert wird, und können ihre Arbeit erst anschließend fortsetzen. Es ist wie bei einem mit der Schreibmaschine auf Papier geschriebenen Text: Wenn man nachträglich noch einen Absatz einfügen will, bleibt einem nichts anderes übrig, als den gesamten Text ab der entsprechenden Seite noch einmal abzutippen (lineare Bearbeitung). Mit einem PC-Textverarbeitungsprogramm dagegen kann man den Absatz einfach hinzufügen und braucht den restlichen Text nicht mehr anzufassen (nichtlineare Bearbeitung).
1.2.2 Festplattensysteme Von stetig wachsender Bedeutung als Speichermedium im Videobereich sind Festplatten (HDD, Hard Disk Drive). Magnetisch beschichtete Scheiben rotieren dabei mit hoher Geschwindigkeit unter beweglichen Schreib-/Leseköpfen, die in Sekundenbruchteilen auf jede beliebige Stelle der Festplatte zugreifen können, ohne sie dabei zu berühren. Waren die Geräte vor wenigen Jahren noch zu langsam für TV-Anwendungen oder verfügten über zu geringe Kapazitäten, so sind sie heute den Anforderungen des Fernsehens ohne weiteres gewachsen. Die aus der Welt der Computer bereits seit langem gewohnten Vorteile liegen auf der Hand: Es ist möglich, auf jede beliebige Stelle des gespeicherten Materials jederzeit zuzugreifen; Vor- und Zurückspulen entfällt, Kopien auch von längeren Videos lassen sich in Sekundenschnelle erzeugen, und das Speichermedium selbst ist im Gegensatz zu Bandkassetten praktisch verschleißfrei, so dass man den Inhalt beliebig oft abspielen kann. Zugleich ist eine Festplatte per se ein universelles Datenablagesystem, d.h. es ist zunächst einmal gleichgültig, in welchem Codec oder Containerformat eine Videodatei vorliegt. Diese Eigenschaften haben in mehreren Anwendungsbereichen zu einem schnellen Siegeszug der Festplatten geführt. Besonders stark wirken sich die Vorteile im Bereich der Postproduktion aus, also beim Schnitt und der sonstigen
26
1 Technische Grundlagen
Bearbeitung von Videos. Nachdem alles für eine Sendung oder einen Beitrag benötigte Ausgangsmaterial auf Festplatten überspielt worden ist (Digitalisierung), kann man sehr viel schneller und flexibler arbeiten als an herkömmlichen, auf Kassettenrecordern basierenden Schnittplätzen. So ist es z.B. möglich, auch längere Passagen in Sekundenschnelle aneinander zu schneiden, ohne die Echtzeit-Dauer des entsprechenden Segments abwarten zu müssen. Prinzipiell arbeiten alle solchen nichtlinearen Schnittplätze mit Hilfe von Schnittlisten (EDL, Edit Decision List), d.h. anstatt eine neue Datei mit dem bearbeiteten Video zu erzeugen, speichern sie lediglich, welche Stellen aus welchen Ausgangsmaterialien im Endprodukt auf welche Art und Weise verwendet werden sollen. Spielt man das Ergebnis dann ab, greift das Schnittsystem in Echtzeit auf die entsprechenden Stellen in den Originaldateien zu und führt sie in der richtigen Reihenfolge vor. So wird vermieden, dass das speicherintensive Videomaterial unnötig vervielfältigt wird. Man unterscheidet dabei zwischen Online- und Offline-Schnittsystemen. Online bedeutet, dass das Ausgangsmaterial in voller Qualität digitalisiert und bearbeitet wird. Der fertige Beitrag bzw. die fertige Sendung kann dann auf ein Videoband ausgespielt werden. Manche Systeme – vor allem solche älteren Datums oder semiprofessionelle, PC-basierte Lösungen – verfügen jedoch nicht über die notwendige Kapazität, um in größerem Umfang SDTV- oder HDTVVideo speichern und in Echtzeit verarbeiten zu können. In diesem Fall wird das Rohmaterial in verringerter Auflösung digitalisiert und z.B. als MPEG-1 gespeichert. Der auf dieser Grundlage offline erfolgte Schnitt mündet in einer EDL, die dann wiederum zum Nachschnitt des eigentlichen Sendematerials auf einem konventionellen Schnittplatz oder einem leistungsfähigeren System verwendet wird. Trotz des Umweges kann man auf diese Art viel Zeit und Geld sparen, da man während der gesamten Offline-Bearbeitungsphase jederzeit die bisher getroffenen Entscheidungen rückgängig machen oder modifizieren kann, ohne einen größeren technischen Aufwand zu erzeugen. Zweites wichtiges Anwendungsgebiet für Festplattenspeicher ist die Sendetechnik. In den meisten TV-Sendern kommen mindestens alle diejenigen Programmelemente, die über einen längeren Zeitraum hinweg regelmäßig oder besonders häufig ausgestrahlt werden, von Videoservern, nach einem Markennamen des Herstellers Grass Valley von Technikern auch häufig Profile genannt. Würde etwa ein Werbespot, der ein paar Wochen lang zehnmal am Tag gesendet wird, von Band abgespielt, müsste man die entsprechende Kassette aufgrund des mechanischen Verschleißes regelmäßig austauschen. Des Weiteren erspart man sich durch Server-Lösungen Band-Zugriffszeiten, die durchaus bis zu einer Minute dauern können, wenn erst noch die richtige Kassette gefunden und zur richtigen Stelle gespult werden muss. Dichte Abfolgen von sehr kurzen Werbespots,
1.2 Datenspeicherung
27
wie man sie im Nachtprogramm einiger Anbieter sehen kann, sind durch Videoserver erst möglich geworden. Und schließlich besteht die Option, mit einem Server mehrere Kanäle gleichzeitig zu bedienen. In einer Senderfamilie reicht es daher, Werbespots oder Programmelemente, die auf mehreren verschiedenen Sendern zum Einsatz kommen, zentral auf nur einem Server vorzuhalten, statt für jeden Kanal eine eigene Kopie zu machen. Das funktioniert sogar dann, wenn mehrere Kanäle das selbe Video gleichzeitig oder mit nur minimalem Zeitversatz ausstrahlen. HDD-Serversysteme, auf denen gewöhnlich nach MPEG-2 gespeichert wird, sind daher in den Sendern generell nicht mehr wegzudenken, stellen aber gerade für Nachrichtenkanäle oder Videoclip-Anbieter das Nonplusultra dar. In diesen Fällen können von der Sichtung über den Schnitt, die Vertonung und die Grafik bis hin zur Ausstrahlung alle Arbeitsschritte unter völligem Verzicht auf Bandkassetten erfolgen, zumal das meiste Material ohnehin kurzlebig ist, während der Phase seiner Aktualität aber extrem häufig ausgestrahlt wird. Erst für die langfristige Speicherung ausgewählter Materialien wird dann wieder auf Kassetten zurückgegriffen. Nach dem gleichen Prinzip funktionieren auch die Festplatten-Videorecorder (PVR, Personal Video Recorder) für den Einsatz in Privathaushalten (vgl. Kap. 3.5). Da die meisten aufgezeichneten Sendungen – wenn überhaupt – innerhalb kurzer Zeit nach ihrer Ausstrahlung angesehen werden, spielt die Größe des Speicherplatzes zwar nur eine untergeordnete Rolle. Dafür bieten Videoserver weitaus umfangreichere Komfort-Funktionen als herkömmliche, kassettenbasierte Recorder. Und falls der Platz dann doch knapp wird, kann man ältere Sendungen entweder löschen oder auf DVD archivieren. Für die Langzeit-Archivierung von Videomaterial und Fernsehsendungen jedoch beginnen sich Festplatten-Systeme erst langsam durchzusetzen. Das hängt vor allem mit den gigantischen Datenmengen zusammen, die dabei anfallen. Die teure Anschaffung und der nicht gerade energiesparende Betrieb von so vielen leistungsfähigen Festplatten sind gegenüber der Speicherung auf Kassetten bis auf weiteres überall da unwirtschaftlich, wo es nicht auf extrem kurze OnlineZugriffszeiten ankommt. Bei einigen Sendern wird zwar bereits an der weitgehenden Abschaffung der Videokassetten-Archive gearbeitet, die Alternativlösung sind dort aber nicht umfangreiche Serversysteme, sondern Kombinationen aus HDD-Servern für das jeweils aktuell benötigte Material mit speziellen Datensicherungs-Kassetten. Solche Kassetten, darunter z.B. DLT (Digital Linear Tape) oder SAIT (Super Advanced Intelligent Tape), speichern Daten mit wesentlich höherer Dichte als Videobänder (zur Zeit bis zu 800 GB pro Kassette bei stetig steigender Tendenz) und sind dazu geeignet, von Robotern verwaltet zu werden. Eine Videodatei wird von solchen Systemen automatisch auf einem
28
1 Technische Grundlagen
Band gefunden, zur Ansicht oder Bearbeitung abgerufen und auf einem Server zur Verfügung gestellt. Das dauert dann unter Umständen zwar einige Minuten oder sogar Stunden, spart aber Platz und Arbeitskräfte im Archiv. Solche Lösungen sind vor allem dann sinnvoll, wenn ein Sender, eine Sendergruppe oder eine Produktionsfirma regelmäßig auf große Teile ihres Programmbestandes zugreifen müssen, z.B. bei der Ausstrahlung eines Bouquets von Spartenkanälen, die sich vor allem aus Wiederholungen speisen.
1.2.3 Optische Speichermedien In nennenswertem Umfang halten optische Speichermedien, die Laserstrahlen zum Schreiben und Lesen lichtreflektierender Schichten verwenden, erst seit der Einführung der DVD (Digital Versatile Disc) und vor allem ihrer Nachfolgeformate Blu-Ray Disc und HD-DVD in die professionelle Fernsehproduktion Einzug. Im Consumer-Bereich hat die DVD dagegen eine geradezu revolutionäre Entwicklung schon hinter sich: Aufgrund ihrer guten Handhabbarkeit und hervorragenden Bildqualität übertraf sie die VHS-Kassette als Leih- und Kaufmedium für Filme und Fernsehprogramme innerhalb recht kurzer Zeit und hat sie inzwischen praktisch vollständig abgelöst. Für die Hollywood-Filmindustrie spielen schon heute die Einnahmen aus dem DVD-Geschäft eine größere Rolle als die an den Kinokassen, und im TV-Bereich zeichnet sich eine ähnliche Entwicklung ab, die aber wahrscheinlich in den nächsten Jahren durch den OnlineBereich überholt werden wird. DVDs gibt es in einer Reihe von verschiedenen Konfigurationen und Speicherkapazitäten zwischen 4,7 GB und 17 GB; die Größenordnung hängt davon ab, ob es sich um eine ein- oder mehrschichtige Scheibe handelt und ob sie nur auf einer oder auf beiden Seiten bespielt ist. Die Video-Inhalte werden immer im MPEG-2-Format mit einer langen Group of Pictures gespeichert; kommerziell in einem Presswerk hergestellte DVDs arbeiten dabei mit einer variablen, an den jeweiligen Bildinhalt angepassten Datenrate und können daher pro Schicht (Layer) bzw. Seite bis zu ca. 130 Minuten lange Programme in hoher Qualität speichern. DVD-Recorder für den Privatgebrauch verwenden dagegen meist eine feste Datenrate und kommen daher bei gleicher Speicherkapazität auf kürzere Spieldauern oder schlechtere Bildqualität. Die Datenrate beim Abspielen liegt bei rund 10 Mbit/s. Für die um ein Mehrfaches größeren Datenbestände bei HDTV-Programmen wurden aus der DVD zwei Nachfolge-Formate mit wesentlich höherer Kapazität entwickelt. Hierbei kommen blau-violette Lasterstrahlen zum Einsatz, die man aufgrund ihrer kurzen Wellenlänge besonders stark fokussieren kann, so
1.2 Datenspeicherung
29
dass die Datenspuren feiner sind und näher beieinander liegen können. Hinter beiden Systemen, die nicht miteinander kompatibel sind, stehen jeweils Konsortien aus namhaften Unterhaltungselektronik-Herstellern. Beide Speichermedien, die Blu-Ray Disc (mit 27 GB Kapazität pro Layer und einer Datenrate von bis zu 35 Mbit/s) und die HD-DVD (mit 15 GB bzw. 36 Mbit/s), setzen anstatt der von der DVD bekannten statischen Menüstruktur Software-Lösungen ein, um eine flexible Navigation und die Einbindung von Internet- oder sonstigen interaktiven Funktionalitäten zu ermöglichen. Dabei gilt die HD-DVD als billiger in der Herstellung, während die Blu-Ray Disc bereits einen erfolgreichen Ableger hat, der in der Fernsehproduktion genutzt wird: Die Professional Disc. Diese wiederbeschreibbare Variante ist in erster Linie für die Verwendung in tragbaren Kamera-Recordern konzipiert. Sie arbeitet genau wie der MAZStandard IMX mit einer MPEG-2-Codierung, die ausschließlich I-Frames einsetzt, und verarbeitet 50 Mbit/s. Daher ist sie mit den entsprechenden Bandkassetten, aber auch mit den meisten Videoserver-Systemen uneingeschränkt kompatibel, und das verlustfreie Überspielen der Inhalte von Diskette auf Festplatte geht deutlich schneller als in Echtzeit. Die Professional Disc ist also leicht, kompakt und schnell; vor allem in der Herstellung von aktuellen NachrichtenBeiträgen ist das ein großer Vorteil. Aufgrund ihrer relativ kurzen Spieldauer von 45 Minuten eignet sie sich bisher aber nicht für die langfristige Archivierung von Videomaterial.
1.2.4 Flash-Speicher Dieser Typ von Speichermedien ist in den vergangenen Jahren in vielen Bereichen sehr populär geworden, weil die Technik erhebliche Fortschritte im Hinblick auf Kapazität und Preis gemacht hat. Man findet sie z.B. in USB-Sticks, in den Speicherkarten von digitalen Fotokameras und Mobiltelefonen, aber auch in MP3-Playern, darunter einigen iPod-Modellen von Apple. Flash-Disks, die technisch korrekt als Flash-EEPROM (Electrically Erasable Programmable Read-Only Memory) bezeichnet werden, sind elektronische Chips, die das Speichern und Abrufen von Daten in so hoher Geschwindigkeit ermöglichen, dass es für viele Anwendungen ausreicht. Sie benötigen im Vergleich mit Festplatten nur sehr wenig elektrischen Strom für die Schreib- und Lesevorgänge und behalten die gespeicherten Informationen auch wenn die Versorgungsspannung wegfällt, also das Gerät, an das sie angeschlossen sind, ausgeschaltet wird. Sie sind dabei sehr leicht und kompakt, verfügen über keinerlei mechanische Teile und gelten deshalb als sehr betriebssicher. Wie bei Festplatten ist es beim Flash-Verfahren nicht ohne weiteres möglich, die abgelegten Daten
30
1 Technische Grundlagen
zu ändern; es müssen hier immer ganze Speicherblöcke zuerst gelöscht und dann wieder neu beschrieben werden. Außerdem haben sie eine begrenzte Lebensdauer, die sich an der (allerdings sehr hohen) Anzahl der möglichen Speicher- und Löschvorgänge misst. Aus diesen Gründen sind Flash-Speicher bisher nicht als vollwertiger Ersatz für Festplatten etwa in Notebook-Computern im Einsatz. Sie eignen sich aber hervorragend für die Aufbewahrung von umfangreichen Dateien, die – wie Videodateien – in sich abgeschlossen sind. Flash-Speicher wie die SD-Card verfügen inzwischen über Kapazitäten von mehreren Gigabyte und werden immer leistungsfähiger. Im professionellen Bereich werden vielfach auch mehrere Karten gekoppelt eingesetzt, um das gewünschte Speichervolumen zu erreichen. Wie man bereits an einigen iPodModellen und den Flash-basierten MP3-Playern anderer Hersteller sehen kann, hat die Karriere dieser Technologie als Massenspeicher gerade erst begonnen. Das gilt besonders für mobile Anwendungen aller Art, bei denen es auf die Ersparnis von Gewicht, Platz und Energieverbrauch entscheidend ankommt – von Kameras über Laptops und Mobiltelefone bis hin zu audiovisuellen Empfangsund Abspielgeräten oder Hybridformen aller dieser Anwendungen.
1.3 Datenübertragung Einer der wichtigsten Faktoren des Geschäfts mit Fernsehen und Video ist die Distribution: Wie kommt ein Produkt möglichst kostengünstig, sicher und in der erforderlichen Qualität zu seinen Konsumenten? Verfügt der Endkunde über die technischen Geräte und ggf. das zum Empfang notwendige Know-how? Und wie transparent ist die Distribution für die Verbraucher, d.h. wie leicht kann das Publikum ein Angebot finden, und wie groß ist die Konkurrenz auf den jeweiligen Vertriebswegen? Mit der Erfindung und dem Ausbau des Internets und der digitalen Technologien hat sich für die Distribution von audiovisuellen Inhalten eine Vielzahl neuer Möglichkeiten eröffnet. Dadurch sind zuvor nicht realisierbare Anwendungen und Geschäftsmodelle in Reichweite gerückt, zugleich aber auch neue technische und organisatorische Herausforderungen entstanden. Je nachdem spricht man bei der Datenübertragung auch von Push- oder Pull-Prinzipien: Push bedeutet, dass Informationen ohne Zutun des Empfängers automatisch oder pauschal geliefert werden, Pull steht dagegen für die Datenübermittlung nur auf ausdrückliche Anforderung durch den Nutzer oder dessen Endgerät.
1.3 Datenübertragung
31
1.3.1 Basisverfahren der Distribution Das im Grunde „klassische“ Verfahren multimedialer Distribution ist das Broadcasting, auch als Rundfunk bekannt. Dabei wird von einem zentralen Punkt aus ein Inhalt an eine unbestimmte, beliebig große Anzahl von Empfängern verteilt. Jeder, der ein geeignetes Empfangsgerät bereithält, kann sich beliebig in die Übertragung einschalten, ohne dass diese dadurch gestört oder verbraucht würde. Ein Rückkanal ist dazu nicht erforderlich, denn die Ausstrahlung ist eine Einbahnstraße in Richtung der Empfänger und kann von diesen auch nicht beeinflusst werden. Über welchen Weg und in welcher Form das Signal übertragen wird, ist zunächst einmal gleichgültig; es kann über terrestrische Funksignale (Antennen), Satelliten, Kabel oder andere Leitungen ins Haus kommen. Broadcasting ermöglicht es, große Datenmengen billig zu verteilen, ist aber seiner Natur nach nur dann sinnvoll, wenn die Übertragung auch tatsächlich eine große Masse von Nutzern interessiert – so wie es beispielsweise bei einem Fernsehprogramm meist der Fall ist. Das zweite Prinzip heißt Multicasting, in der Fachsprache der Telekommunikationsbranche auch Gruppenruf genannt. Der etwas veraltete deutsche Begriff macht deutlich, um was es hier geht: Ein und derselbe Inhalt wird simultan an eine begrenzte Menge von Teilnehmern geschickt. Die Definition der berechtigten Empfänger kann auf verschiedene Arten erfolgen. Eine Möglichkeit besteht z.B. darin, ein verschlüsseltes Signal auszustrahlen, das dann zwar beliebig empfangbar ist, aber nur von den Besitzern eines passenden Decoders sinnvoll verwendet werden kann. Musterbeispiel dafür ist der Pay-TV-Anbieter Premiere, der über Kabel und Satellit verbreitet wird, aber nur von seinen zahlenden Abonnenten gesehen werden kann. Alternativ kann die Gruppe der Empfänger auch dadurch zustande kommen, dass die einzelnen Teilnehmer die Übertragung gezielt anfordern, also sich etwa im Internet für das Live-Video von der Hauptversammlung einer Aktiengesellschaft registrieren. Hierfür gibt es ein bestimmtes Verfahren (Protokoll) im Internet, bei dem das Signal von seiner Quelle aus einmal ins Netz eingespeist und dann an den Kreuzungspunkten des Netzes so oft kopiert wird, wie Empfänger angeschlossen sind. Da aber nur wenige Vermittlungsrechner (Router) im Internet diese Technik unterstützen, wird sie in der Praxis bisher nur selten angewendet. Das dritte Prinzip ist der Unicast, der präziser mit dem Begriff der Punktzu-Punkt-Verbindung beschrieben wird. Das ist das Prinzip des klassischen Telefons, bei dem eine exklusive Verbindung zwischen den beiden Endgeräten hergestellt wird. Die Teilnehmer kommunizieren auf direktem Wege miteinander. Die meisten Anwendungen des Internets funktionieren im Grundsatz genauso: Beim Aufrufen einer Website richtet der lokale Computer an den entfernten
32
1 Technische Grundlagen
Netzwerkrechner die Anforderung bestimmter Inhalte und bekommt diese dann gezielt übermittelt. Die Problematik besteht hierbei in der Übertragungskapazität bzw. der von den Teilnehmern beanspruchten Bandbreite. Beim Telefon ist es am einfachsten: Ruft man jemanden an, der bereits telefoniert, hört man lediglich ein Besetztzeichen. Wenn dagegen im Internet viele Nutzer gleichzeitig eine Website aufrufen wollen, reduziert sich zunächst für jeden einzelnen die Geschwindigkeit, mit der die Daten übermittelt werden, und im schlimmsten Fall kommt es zu einer Überforderung des entsprechenden Servers und seines Internetanschlusses. Denn die Bandbreite, die sich auf Seiten der Interessenten (Clients) auf vielleicht 1.000 verschiedene Anschlüsse verteilt, addiert sich beim Anbieter der Inhalte (Server) auf. Normalerweise ist das leicht zu verkraften, weil Internet-Server gewöhnlich mit sehr großen Übertragungskapazitäten ans Netz angebunden sind, aber bei großen Datenmengen und/oder besonders hohen Nutzerzahlen gerät das Netz an seine Grenze. Man kann sich das ungefähr so vorstellen, wie die Trinkwasserversorgung: Das Wasserwerk (Server) speist frisches Wasser ein. So lange nur wenige Haushalte (Clients) gleichzeitig den Hahn aufdrehen, gibt es keine Probleme. Machen jedoch überdurchschnittlich viele Menschen gleichzeitig mit, sinkt zunächst der Druck, bis im schlimmsten Fall irgendwann gar kein Wasser mehr fließt, weil die Kapazität des Wasserwerkes und der Leitungen für dieses Extrem-Szenario nicht ausreichend stark ausgelegt sind. Genau darin besteht das Problem der Übertragung von Videomaterial über das Internet: Im Fernsehen sehen regelmäßig mehrere Millionen Menschen gleichzeitig die selbe Sendung, und das ist ohne weiteres möglich, weil sie nach dem Broadcasting-Verfahren ausgestrahlt wird. Würde die gleiche Anzahl Zuschauer simultan versuchen, das Programm von der Internetseite des Senders herunterzuladen, brächen sowohl der Server als auch das Netz (zumindest bei seiner heutigen Leistungsfähigkeit) zusammen. Doch auch dafür gibt es eine technische Lösung, und zwar die Peer-toPeer-Netzwerke (P2P). Speziell für große Dateien setzt man z.B. das BitTorrentProtokoll ein. Dabei wird die klassische Aufgabenteilung zwischen einem Server und mehreren Clients zugunsten einer gleichberechtigten Struktur aufgegeben: Jedes beteiligte Gerät erhält Daten von anderen Teilnehmern und stellt diesen zugleich Inhalte zur Verfügung. Und dabei kommt es nicht einmal darauf an, dass jedem Teilnehmer die zu verteilende Datei vollständig vorliegt; selbst wenn ein Nutzer erst ein beliebiges Fragment der Datei heruntergeladen hat, steht dieses Fragment unmittelbar allen anderen Interessenten an der Datei zur Verfügung. Auf diese Weise bündelt sich die Belastung des Netzes nicht an einer bestimmten Stelle, sondern verteilt sich gleichmäßig, denn jeder Nutzer kann sich statt nur an einer an einer Vielzahl von Quellen bedienen. Der ursprüngliche
33
1.3 Datenübertragung
Herausgeber der Datei braucht sie nur einmal in Form einer Initialzündung in das Netzwerk gewissermaßen hineinzuwerfen; der Rest geht dann automatisch ohne weiteres Zutun des eigentlichen Lieferanten. Erforderlich ist lediglich, dass eine Mindestzahl von Interessenten mitmachen – eine hohe Download-Geschwindigkeit und Verfügbarkeit ist deshalb nur bei populären Inhalten gegeben. Weniger häufig nachgefragte Inhalte müssen dagegen weiterhin in Form von konventionellen, direkten Downloads verteilt werden. Abbildung 1:
Aufteilung des Internet-Datenverkehrs 2004
VoIP 7%
Rest 5%
Streaming AV 7% WWW 45%
E-Mail 12%
P2P 24%
Quelle: Prometrica 2004, zit. n. c’t Heft 7/2005 P2P-Netzwerke werden zumeist mit illegalen Tauschbörsen für Musikstücke, Computerspiele und Filme assoziiert, doch wird die Technik längst auch für legale Anwendungen genutzt, indem z.B. Software-Hersteller auf diese Weise ihre Produkte vertreiben oder Bands ihre Produkte unabhängig von der Musikindustrie ans Publikum bringen. In Kombination mit einer geeigneten Digitalen Rechteverwaltung (Digital Rights Management, DRM; vgl. Kap. 1.5) und band-
34
1 Technische Grundlagen
breitenstarken Internet-Anschlüssen in den Privathaushalten ist P2P ein sehr aussichtsreiches Distributionsverfahren für Fernsehprogramme, zumindest für solche, bei denen es nicht auf hohe Aktualität (wie bei Nachrichten) oder die simultane Teilnahme der Zuschauer (etwa bei Sendungen mit Telefon-VotingElementen) ankommt, und wird auch bereits für diesen Zweck eingesetzt.
1.3.2 Vermittlungstechniken Die hier beschriebenen Distributionsverfahren korrespondieren mit unterschiedlichen verwendeten Techniken, welche die Kommunikation zwischen Absender und Empfänger bzw. zwischen formell gleichberechtigten Partnern (Peers) gewährleisten. Vor allem vom Telefon ist die Leitungsvermittlung (Circuit Switching) bekannt. Dabei stellt ein Netzwerkbetreiber wie z.B. die Deutsche Telekom eine komplexe Infrastruktur bereit, über die nach Bedarf ein exklusiver Kanal zwischen zwei (oder auch mehreren) Teilnehmern geschaltet wird. Dieser Kanal hat eine konstante Bandbreite und belegt für die Dauer der Verbindung bestimmte technische Ressourcen. Das hat gewisse Effizienznachteile: Am Telefon reden die Gesprächspartner (zumindest theoretisch) nicht gleichzeitig, so dass meist die halbe Leitungskapazität, nämlich der Rückkanal, ungenutzt brachliegt, dabei aber sowohl bezahlt werden muss als auch das Netz beansprucht. Dafür steht die Kapazität der Leitung aber auch jederzeit in vollem Umfang zur Verfügung. Solche Verbindungen sind relativ teuer. Das hängt mit ihrer beschriebenen Exklusivität, aber auch mit dem technischen Aufwand für ihre Schaltung zusammen. Man kann jedoch mit einer anderen Technik die vorhandenen Leitungen bzw. Kabel wesentlich intensiver und flexibler nutzen, und zwar mit der Paketvermittlung (Packet Switching). Die zu übermittelnden digitalen Informationen werden in eine Vielzahl von kleinen Einheiten zerlegt, die jeweils mit der Adresse ihres Ziels versehen sind und dann vom Netzwerk selbständig befördert werden. Das ist genauso wie bei der Post: Wenn man ein Schriftstück auf zwei Briefe an ein und denselben Empfänger aufteilt und einwirft, kann man sich nicht sicher sein, dass beide Umschläge genau auf dem selben Weg befördert werden, auch wenn die Wahrscheinlichkeit dafür spricht. Um ihre Aufgabe zu erfüllen und beide Briefe am nächsten Tag zustellen zu können, handelt die Post selbständig: Je nachdem, was schneller geht oder ökonomisch sinnvoller ist, verlädt sie die Briefe auf Flugzeuge oder Lastwagen, und wenn der Fahrer eines Post-LKWs rechtzeitig erfährt, dass eine bestimmte Autobahn gesperrt ist, fährt er einfach eine Ausweichstrecke.
1.3 Datenübertragung
35
Genau das ist das Funktionsprinzip des Internets und der meisten lokalen (d.h. firmen- oder institutionsinternen) Netzwerke, basierend auf dem TCP/IPProtokoll (Transmission Control Protocol/Internet Protocol). Die einzelnen Datenpakete sind durchnumeriert, und bei verlorenen Datencontainern erhält der Absender keine elektronische Eingangsbestätigung vom Empfänger und schickt die entsprechende Information dann automatisch ein zweites Mal ab. Die einzelnen Pakete können deshalb ohne weiteres völlig verschiedene Wege zum Ziel nehmen und sogar in der falschen Reihenfolge ankommen oder vereinzelt verloren gehen – trotzdem werden sie am Ende immer wieder richtig zusammengesetzt. Damit ist eine hohe Ausfallsicherheit gegeben, denn wenn ein Bestandteil des Netzes defekt ist, werden die Pakete einfach umgeleitet, und zugleich können sich eine Vielzahl von gleichzeitigen Verbindungen die Netzwerk-Ressourcen teilen, ohne einander ins Gehege zu kommen. Mit zunehmender Belastung wird ein TCP/IP-Netz statt zusammenzubrechen erst einmal lediglich langsamer, versucht aber gleichzeitig, schnellere Ausweichstrecken zu finden. So erhalten auch Hin- und Rückkanal jeweils nur die wirklich erforderlichen Kapazitäten zugeteilt. Bei der IP-Telefonie (Voice-over-IP, VoIP) wird Schweigen im Gegensatz zu einem leitungsvermittelten Telefonat nicht übertragen. Erst wenn man tatsächlich das Wort ergreift, machen sich die Datenpakete auf den Weg zu ihrem Empfänger. Aufgrund dieser systembedingten Vorteile in Flexibilität und Effizienz werden zur Zeit die meisten leitungsvermittelten Netze (einschließlich des Telefonnetzes) nach und nach durch paketvermittelte Dienste ersetzt (vgl. Kap. 5.7.2).
1.3.3 Digitale Fernsehausstrahlung Im Bereich des digitalen Fernsehens sind allgemeingültige Normen, die sich sowohl international durchgesetzt haben als auch in verschiedenen technischen Umfeldern Gültigkeit haben, dünn gesät. Ein Standard, auf den das zutrifft, heißt DVB (Digital Video Broadcasting) und ist die digitale Variante des klassischen analogen Fernsehrundfunks. DVB kommt auf allen Verbreitungswegen mit Broadcast-Technik zum Einsatz: In der Terrestrik (über erdgebundene Antennen) als DVB-T, im Kabel als DVB-C, über Satellit als DVB-S bzw. in einer neueren, auf HDTV ausgerichteten Version als DVB-S2, und sogar optimiert auf tragbare Empfangsgeräte wie Mobiltelefone als DVB-H (H für Handheld Devices). Die beiden letztgenannten verwenden heute üblicherweise eine MPEG-4/AVCDatenreduktion, die übrigen begnügen sich bis auf weiteres mit dem weithin etablierten MPEG-2.
36
1 Technische Grundlagen
Aber obwohl alle diese Standards unter dem Etikett DVB firmieren, unterscheiden sie sich in wichtigen technologischen Details voneinander. So muss zum Beispiel die Variante DVB-T darauf Rücksicht nehmen, dass ein Empfänger von den Signalen mehrerer Sendemasten in seiner Umgebung gleichzeitig erreicht wird (was vor allem in Ballungsräumen üblich ist) und dass das Signal z.B. von Gebäuden reflektiert werden kann. Beide Phänomene treten systembedingt weder beim Kabel noch bei der Satellitenausstrahlung auf. Aus ähnlichen Gründen arbeiten alle DVB-Versionen auf unterschiedlichen Frequenzbändern: Damit ein Signal aus dem Weltall, d.h. aus immerhin rund 36.000 km Entfernung, sicher in einem Fernsehhaushalt eintrifft, kommt eine andere Technik zum Einsatz, als wenn nur die wenige Kilometer lange Strecke zwischen Sendemast und Hausantenne überbrückt werden muss. DVB-H wiederum strebt an, dass die Empfangsgeräte möglichst wenig Strom verbrauchen und kalkuliert (wie DVBT) sogar mit ein, dass sich die Empfänger bewegen – im Extremfall auch mit 300 km/h im ICE. In der Konsequenz bedeutet das, dass für jede Sorte von DVB ein eigener, spezialisierter Empfänger (Receiver) erforderlich ist. Theoretisch können zwar alle Empfangsteile zugleich in ein Endgerät, z.B. einen Fernseher oder Videorecorder, eingebaut werden, aber das scheitert bisher sowohl an dem mangelnden Interesse der Hersteller von Unterhaltungselektronik als auch an Überlegungen zur Kosteneffizienz. Denn normalerweise entscheidet sich ein Haushalt einmal für eine bestimmte Empfangstechnik (Empfangsebene) und bleibt dieser dann auf Jahre hinaus treu. Beispielsweise in einem Kabelfernseh-Haushalt sind demnach die beiden anderen Receiver überflüssig, erhöhen aber den Preis des Gerätes. Stattdessen greift man bisher noch üblicherweise zu Set-Top-Boxen, also separaten Receivern für jeweils eine der DVB-Technologien, die dann an den klassischen, analogen Fernseher angeschlossen werden (vgl. Kap. 3.2). Die digitale Ausstrahlung für den Empfang auf mobilen Geräten stellt die Ausnahme zur Regel dar, weil auf diesem Sektor noch keine Einigung auf DVBH erfolgt ist, sondern zwei konkurrierende Systeme parallel weiterentwickelt werden. Der Alternativstandard heißt DMB (Digital Mobile Broadcasting) und nutzt die Kapazitäten, die einst für Distribution von digitalem UKW-Hörfunk vorgesehen waren. Während DVB-H über die selben Frequenzen wie DVB-T gesendet wird und in der Lage ist, mittels des Verfahrens IP Datacast Zusatzinformationen wie Grafiken, Teletext, schriftliche Nachrichten, Zahlenmaterial usw. zu übertragen, verfügt DMB zwar über eigene Übertragungswege, aber geringere Bandbreiten, und vermag zusätzlich zum Video keine weiteren Daten zu transportieren. Ähnlich wie bei der Entscheidung für die nächste Generation von optischen Speichermedien für den Massenmarkt haben wir es auch hier mit zwei rivalisierenden Industrie-Konsortien zu tun, die beide darauf hoffen, den
1.3 Datenübertragung
37
kommenden Standard zu setzen und so vom Verkauf der dazu passenden Geräte und Lizenzen zu profitieren. Die Verknüpfung von DVB mit den MPEG-Verfahren bedeutet, dass die Qualität des übertragenen Video-Materials prinzipiell frei skalierbar ist. Vor allem die Satelliten-Variante des Standards wird auch für professionelle Zwecke genutzt, also z.B. für die Verbindung zwischen einem Übertragungswagen und der Sendezentrale oder für die Einspeisung von Fernsehprogrammen in lokale Sendeanlagen oder Kabelkopfstationen. In erster Linie geht es aber darum, Fernsehen möglichst effizient und kostengünstig in Privathaushalte zu übermitteln. Ein wichtiger Bestandteil dieses Gedankens ist es, die Anzahl der empfangbaren Kanäle zu erhöhen. Das kann sich man besonders gut anhand des Beispiels DVB-T vor Augen führen: DVB-T hat in den Ballungsräumen Deutschlands das analoge Fernsehen über Antenne abgelöst. In der analogen Welt reichten die Kapazitäten für durchschnittlich fünf bis sechs Fernsehkanäle je Region aus: ARD, ZDF, ein bis zwei Dritte Programme und ein bis zwei große Privatsender, in der Regel RTL und/oder SAT.1 – also eine eher kleine, nicht mehr zeitgemäße Programmauswahl, die dazu geführt hat, dass nur noch rund fünf Prozent aller Haushalte diese Empfangsebene nutzen. Mit der digitalen Sendetechnik stehen zwar nicht mehr Frequenzen zur Verfügung, aber jedes Frequenzband, auf dem zuvor ein analoger Fernsehkanal verbreitet werden konnte, kann dank Datenreduktionsverfahren nunmehr vier bis fünf digitale TV-Kanäle transportieren (vgl. Kap 2.1). Denn die rund 7 MHz, die für einen analogen Kanal gebraucht wurden, sind in der Lage, je nach Einstellungen und örtlichen Gegebenheiten zwischen 12 und 20 Mbit/s an digitalen Signalen zu übertragen. Und wird diese Bandbreite nicht (wie in den USA) für die Ausstrahlung eines HDTV-Kanals, sondern (wie in Europa) für ein vielfältiges SDTV-Angebot genutzt, stehen für jedes einzelne Fernsehprogramm im Durchschnitt nur 2-3,5 Mbit/s Bandbreite zur Verfügung. Noch einmal zum Vergleich: Handelsübliche DVDs arbeiten mit rund 10 Mbit/s. Die Bildqualität ist daher bei DVB-T normalerweise erheblich schlechter als beim herkömmlichen analogen Fernsehen; sie entspricht bei ca. 2 Mbit/s ungefähr der Leistungsfähigkeit einer VHS-Aufzeichnung. Bei gutem Empfang wird das von den meisten Fernsehzuschauern als akzeptabel empfunden; kommt aber noch eine schlechte Empfangsqualität hinzu, etwa weil man sich im „Schatten“ eines hohen Gebäudes aufhält oder statt einer Dach- nur eine Zimmerantenne benutzt, wird das Fernsehvergnügen durch Aussetzer und Artefakte empfindlich gestört. Eine besondere Herausforderung an die mit geringen Datenraten ausgestrahlten Kanäle stellen dementsprechend Programme dar, die mit vielen schnellen Bewegungen aufwarten oder besonders reich an bildwichtigen Details sind. Musterbeispiel dafür ist die Übertragung eines Fußballspiels. Sobald die Kamera
38
1 Technische Grundlagen
über das Publikum im Stadion schwenkt, fallen in kurzer Zeit enorme Mengen an Bildinformationen an, die sehr stark datenreduziert werden müssen. Das wäre an sich noch nicht so schlimm, denn kaum jemand will die Gesichter der einzelnen Fußballfans identifizieren oder die Aufschriften ihrer Transparente lesen. Bewegt sich nun aber der Fußball selbst vor dem Hintergrund der Tribüne durch die Luft oder wird er mit besonders hoher Geschwindigkeit geschossen, ist die Lage da: Bei zu geringer Datenrate wird der Ball schlicht unsichtbar. Nicht zuletzt aus diesem Grund werden in den meisten DVB-T-Regionen vollständige Frequenzbänder, die jeweils ein Bouquet von vier bis fünf Fernsehsendern enthalten, soweit möglich an je eine Senderfamilie vergeben. Denn wenn sich vier TV-Kanäle aus dem Hause RTL oder vier Öffentlich-Rechtliche eine gemeinsame Bandbreite teilen, kann die Sendergruppe in Eigenregie die Ressourcen zeitweilig umverteilen: Der Sender, auf dem gerade ein Fußballspiel oder eine wichtige Spielfilm-Premiere läuft, erhält dann vorübergehend auf Kosten der anderen Kanäle mehr Übertragungskapazitäten. Bei der Belegung eines DVB-T-Kanals mit Angeboten verschiedener Medienkonzerne ist dieser Weg dagegen versperrt bzw. erfordert komplizierte Absprachen. Die gleichen Probleme tauchen in ähnlicher Form bei DVB über Kabel und Satellit auf, denn aus Kostengründen hat auch hier jeder Sender das Interesse, nur einen möglichst kleinen Teil der verfügbaren Bandbreite in Anspruch zu nehmen. Allerdings ist die Lage bei diesen Verbreitungstechniken weniger dramatisch, da die Gesamtkapazität dort erheblich größer ist. Aufgrund des für die terrestrische Fernseh-Ausstrahlung verfügbaren, stark limitierten Frequenzspektrums liegt die Obergrenze hier bei rund 30 Programmen, während Kabel und Satellit ohne weiteres Hunderte Sender übertragen können. Diese Verhältnisse spiegeln sich in den Übertragungskosten wider: Einen Fernsehsender in allen bereits auf DVB-T umgestellten Regionen Deutschlands zu verbreiten, kann leicht über drei Millionen Euro pro Jahr kosten (vgl. Kap. 2.4). Im Gegensatz dazu ist ein entsprechender digitaler Satellitenkanal schon für einige Hunderttausend Euro zu bekommen. Noch drastischer wird der Preisunterschied, wenn man sich die jeweilige technische Empfangbarkeit vor Augen hält: Bereits zum Jahresende 2005 waren 6,3 Millionen deutsche Haushalte auf die digitalen Satelliten der marktführenden Astra-Familie eingestellt – bei stetig steigender Tendenz. Mitte 2005 nutzten dagegen lediglich 1,2 Millionen Haushalte DVB-T, und diese Zahl nimmt tendenziell sogar eher noch ab.
1.3 Datenübertragung
39
1.3.4 Alternative Fernsehdistribution Vor allem als Folge neuer technischer Möglichkeiten zeichnet sich eine deutliche Flexibilisierung der Verteilung von Fernsehprogrammen und anderen VideoAngeboten ab. Das wird schon deutlich, wenn man einen Blick auf den Musikmarkt wirft. Aufgrund des recht geringen Bandbreiten- und Speicherplatzbedarfs von Audiodateien (am populärsten im Format MP3) hat sich im vergangenen Jahrzehnt eine Revolution nicht nur der Geschäftsmodelle, sondern auch der Distribution vollzogen. Statt auf physischen Datenträgern (in diesem Falle CDs) wird Musik inzwischen überwiegend per Internet vertrieben, zunehmend aber auch über Mobilfunk-Technologien. Und auch der Hörfunk emanzipiert sich immer stärker vom klassischen Radio über Antenne oder Kabel – stattdessen gibt es immer mehr Internet-Radios und Hör-Beiträge aller Art auf Abruf (Audio-onDemand, Podcast), die aus dem Netz heruntergeladen und dann zu einem beliebigen Zeitpunkt genutzt werden können. Damit sich vergleichbare Anwendungen auch im Bereich des Fernsehens etablieren können, ist ein – verglichen mit dem Audio-Sektor – erheblich leistungsfähigeres Netzwerk erforderlich. So lange die meisten Haushalte mit schmalbandigen Zugängen (Modem, ISDN) ans Internet angeschlossen waren, hatten Video-Nutzungen keine Chance. Wenn es viele Stunden oder sogar Tage dauert, bis eine Datei in akzeptabler Qualität heruntergeladen ist oder man auf briefmarkengroßen Bildern wegen minimaler Auflösung praktisch nichts erkennen kann, ist das Ganze zu teuer und vor allem bei weitem zu unkomfortabel. Mit der weitgehenden Durchsetzung von Breitband-Internetanschlüssen (vor allem DSL, Digital Subsciber Line) in Privathaushalten hat sich das aber geändert. DSL nutzt zwar die herkömmlichen Kupferdraht-Leitungen der Teilnehmeranschlussleitung (TAL) des Telefonnetzes, hat aber darüber hinaus mit dem Telefon nichts zu tun. Sowohl beim Nutzer als auch in der Ortsvermittlungsstelle, an die der Telefonkunde angeschlossen ist, wird das für DSL genutzte analoge Frequenzband um alle Telefonie-Einrichtungen (d.h. das Telefon auf der einen bzw. die für das Schalten von Telefonverbindungen zuständige Vermittlungstechnik auf der anderen Seite) herumgeführt und praktisch direkt ins Internet durchgeleitet. Im Gegensatz zu Modem- oder ISDN-Verbindungen wird auf diese Weise das Telefonnetz als solches nicht beansprucht – und damit ein signifikanter Kostenvorteil erzielt. Und da DSL mit sehr viel höheren Frequenzen arbeitet als das Telefon, kann man auf diesem Weg große Datenmengen übertragen, ohne den Telefon-Service zu beeinträchtigen. Dabei wird die Transportleistung der Kupferkabel ständig verbessert. Der neueste Standard ADSL2+ ist in der Lage, bis zu rund 25 Mbit/s zu übertragen,
40
1 Technische Grundlagen
VDSL bis 50 Mbit/s, und ein Ende ist nicht in Sicht. Für das Jahr 2006 wird erwartet, dass bereits rund ein Viertel aller Haushalte über DSL-Anschlüsse mit Internet-Bandbreiten von einem bis zu sechs Mbit/s verfügen, wobei die Datenraten eine stark steigende Tendenz aufweisen. Es ist also absehbar, dass bereits in wenigen Jahren Privathaushalte von Bandbreiten profitieren, die bisher nur professionellen Anwendern vorbehalten waren, und dementsprechend rücken auch umfangreiche Anwendungen im datenintensiven Video- und Fernsehbereich in den Bereich des Möglichen. Das Stichwort dafür heißt Triple Play, d.h. die Lieferung von Telefonanschluss, Internet-Zugang und Fernsehen über eine einzige Leitung (vgl. Kap. 5.7). Abbildung 2:
Mögliche DSL-Bandbreiten in Privathaushalten in Kbit/s
30000 25600 25000
20000
15000
10000 6144 5000 768
1024
2002
2003
2048
0 2004
2005
2008
Man muss in diesem Bereich zwischen zwei grundsätzlichen Nutzungsmöglichkeiten unterscheiden. Die eine besteht darin, dass Fernsehen oder Video in Echtzeit übertragen wird (Streaming). Dabei wird das Material in der Regel beim Nutzer entweder gar nicht oder nur für sehr kurze Zeit während des Abspielvorgangs gespeichert; es kann sich um ein herkömmliches, lineares Fernsehprogramm handeln, in das sich der Nutzer via Internet einschaltet (Internet Protocol Television, IPTV), aber auch um speziell aus einem Archiv angeforderte Inhalte (Video-on-Demand, VoD). In diesem Fall sind stabile, hohe Bandbreiten erforderlich, d.h. Fernsehen über Internet ist in seiner SDTV-Variante ab ca. 4 Mbit/s möglich, und HDTV erfordert Datenraten von 8 Mbit/s an aufwärts, sonst kann es zwischendurch zu Stockungen kommen oder es treten andere Bildfehler auf.
1.3 Datenübertragung
41
Will man den vom Broadcast-Fernsehen gewohnten Komfort genießen, z.B. ein Programm sehen und gleichzeitig ein zweites aufzeichnen, oder existieren im Haushalt mehrere Geräte, auf denen parallel unterschiedliche Angebote genutzt werden, benötigt man einen Anschluss mit zweistelliger Megabit-Rate. Streaming wird außer bei Live-Events vor allem dann eingesetzt, wenn dem Zuschauer aus urheberrechtlichen oder kommerziellen Gründen die Speicherung des Videomaterials unmöglich gemacht oder zumindest erschwert werden soll. Die Alternative stellen Nutzungen dar, bei denen die Übertragung des Materials nicht zeitsynchron erfolgt, sondern das Video zuerst vollständig heruntergeladen und dann erst zu einem späteren Zeitpunkt angesehen wird. Dabei ist es – abgesehen vielleicht von der eventuellen Ungeduld des Nutzers – im Grunde gleichgültig, wie lange die Übertragung dauert, wie groß die entsprechende Datei ist oder ob es sich um klassisches Fernsehen oder HDTV handelt; es kommt lediglich darauf an, dass der Breitband-Anschluss beliebig lange genutzt werden kann (also gewöhnlich per Flatrate pauschal bezahlt wird). Diese Variante stellt wesentlich geringere Anforderungen sowohl an die Leistungsfähigkeit des privaten Anschlusses wie auch an die Ressourcen des Netzes insgesamt und des Servers, von dem die Dateien geladen werden. Während beim IPTV alle Nutzer gleichzeitig auf den selben Server zugreifen müssen, verteilt sich hier der Abruf der entsprechenden Inhalte wesentlich gleichmäßiger. Mit dieser Problematik haben es letztlich alle Distributionstechniken zu tun, die nicht nach dem Broadcasting-Prinzip arbeiten, aber auf eine zentrale Datenquelle zugreifen müssen: Zwar ist die Internet-Infrastruktur für gewaltige Anforderungen gerüstet (Branchenbeobachter gehen davon aus, dass zur Zeit nur etwa ein Drittel der Kapazitäten tatsächlich ausgeschöpft werden, und es wäre möglich, das Netz noch weiter auszubauen), aber dennoch existieren stets zwei Nadelöhre – einerseits der Anschluss des jeweiligen Benutzers, dem es ggf. an Bandbreite mangelt, andererseits der Anschluss und die technischen Kapazitäten des Inhalte-Lieferanten, der stets eine bestimmte Obergrenze für gleichzeitige Zugriffe hat. Hinzu kommt, dass auf der Seite des Anbieters hohe Kosten für das ins Netz hineingepumpte Datenvolumen anfallen. Dadurch wird diese Distributionsform leicht entweder technisch unmöglich und/oder ökonomisch unrentabel – jedenfalls, so lange es sich um Free-TV handelt. Ein möglicher Ausweg ist der Aufbau einer dezentralen Verteilungsstruktur, vergleichbar mit dem Multicasting (vgl. Kap. 1.3.1). Dabei fungieren eine Vielzahl von Servern (proxies), die in der Netz-Struktur den Haushalten der Endverbraucher möglichst nahe liegen, als eine Art Zwischenlager (cache) für die Inhalte. Der ursprüngliche Server, der die Daten bereitstellt, benötigt also beispielsweise nur Verbindungen zu ein paar Dutzend Proxy-Servern, deren jeder wiederum einige Hundert oder Tausend Haushalte beliefert. Diese Strategie
42
1 Technische Grundlagen
erfordert aber hohe Investitionen und ist nur für solche Anbieter sinnvoll umzusetzen, die über eine weit verzweigte eigene Infrastruktur verfügen, wie z.B. die Deutsche Telekom oder die Betreiber der Fernseh-Kabelnetze, oder solche, die mit dem Verkauf massenattraktiver Inhalte sehr hohe Summen verdienen können, etwa Hollywood-Studios.
1.3.5 Funktechniken Für alle mobilen bzw. funk-basierten Übertragungstechniken gelten grundsätzlich die gleichen Aussagen wie für Internet-Verbindungen, denn sie alle sind – genau wie DSL – lediglich Zugangstechnologien zu Telekommunikationsnetzen, die selbst prinzipiell nach dem gleichen Muster funktionieren wie das paketvermittelte Internet oder leitungsvermittelte Telefonnetze. Das wichtigste differenzierende Merkmal besteht jedoch darin, dass die meisten Funkverfahren verglichen mit kabelgebundenen Übertragungswegen über geringere Bandbreiten verfügen und aufgrund dessen und wegen des höheren technischen Aufwandes teurer sind. Trotzdem lohnt ein kurzer Blick auf die verschiedenen Normen und ihre Anwendbarkeit auf digitale Fernsehdienste. Mit Mobiltelefonen nach dem GSM-Standard (Global System for Mobile Communications) ist es noch unmöglich, Video sinnvoll zu übertragen, denn der dabei für die Datenübermittlung eingesetzte Standard GPRS (General Packet Radio Service) kommt selbst unter den besten denkbaren Voraussetzungen auf maximal 80 Kbit/s. Das reicht zum Abrufen von E-Mails oder zum Versand von Fotos, aber nicht für bewegte Bilder. Erst durch UMTS (Universal Mobile Telecommunications System), das international in seiner Eigenschaft als Mobilfunk der dritten Generation oft auch mit der Abkürzung 3G bezeichnet wird, werden theoretisch Datenraten von bis zu 2 Mbit/s, im konkreten Ausbau der deutschen Netze aber höchstens 384 Kbit/s erreicht. Durch Codierung mit MPEG-4 und die Beschränkung der Auflösung auf kleine Handy-Bildschirme sind auf diesem Weg tatsächlich Video-Anwendungen möglich. Der Haken: Abgesehen von den immer noch recht teuren Übertragungskosten ist der Stromverbrauch der Endgeräte sehr hoch, und je mehr Benutzer gleichzeitig an einer Basisstation angemeldet sind, desto geringer wird die Leistung, die für jeden einzelnen Kunden zur Verfügung steht. Aus diesem Grund gewinnen die wesentlich effizienteren Broadcasting-Technologien DVB-H und DMB für mobiles Video an Attraktivität. Für etwaige interaktive Angebote, z.B. Ratespiele, Online-Bestellungen und dergleichen, werden GPRS oder UMTS dann nur als Rückkanal verwendet (vgl. Kap. 3.6).
1.4 Bildauflösung und Fernsehnormen
43
Für die Praxis sehr viel interessanter sind dagegen die Funk-Netzwerklösungen WLAN (Wireless Local Area Network) und WiMAX (Wordwide Interoperability for Microwave Access). WLAN mit bis zu 54 Mbit/s und einer Reichweite von maximal 300 Metern wird vorzugsweise zur kabellosen Vernetzung in Haushalten und Firmen, aber auch für den Internet-Zugang an öffentlichen Orten wie Flughäfen, Bahnhöfen oder Gaststätten genutzt (Hot Spots), während WiMAX mit bis zu 108 Mbit/s aufgrund seiner Reichweite von im günstigsten Fall 50 Kilometern eine Alternative zu kabelgebundenen DSL-Internet-Zugängen bietet. Damit ist WiMAX vor allem eine Möglichkeit zur Verbesserung der Infrastruktur in ländlichen Gebieten, deren geringe Bevölkerungsdichte die Installation von DSL unrentabel macht, aber durchaus auch eine Alternative zum teuren und vergleichsweise bandbreitenschwachen UMTS. Da sich aber auch hier alle gleichzeitig angemeldeten Nutzer die Bandbreite teilen, ist die Leistungsfähigkeit gegenüber Kabelanschlüssen geringer bzw. nicht ohne weiteres steigerbar.
1.4 Bildauflösung und Fernsehnormen 1.4.1 PAL und NTSC In der analogen Fernsehwelt war die Sache noch relativ einfach: Es existierten im wesentlichen zwei verschiedene (Farb-)Fernsehnormen: Der europäische Standard PAL (Phase Alternating Line) mit 625 Bildzeilen und 25 Frames pro Sekunde, sowie die US-amerikanische Norm NTSC (benannt nach dem National Television Standards Committee), die mit 525 Zeilen und 30 Frames je Sekunde arbeitet. Es sind allerdings in beiden Fällen immer nur rund 100 Zeilen weniger tatsächlich sichtbar, da der Rest aus technischen Gründen (Austastlücke) bei der Übertragung keine Bildinhalte enthalten kann, sondern allenfalls z.B. den Teletext, und die meisten Fernsehgeräte außerdem nur einen Ausschnitt aus dem Gesamtbild zeigen (Overscan), um den Konsumenten die Fein-Einstellung ihrer Apparate zu erleichtern. Im Prinzip wird für konventionelles Fernsehen weltweit eines dieser Verfahren eingesetzt, hinzu kommt lediglich die abgespeckte PALVariante SECAM. Diese Übertragungstechniken orientieren sich mit ihrer jeweiligen Bildrate an der Frequenz des örtlichen Wechselstromnetzes mit 50 Hz (Europa) bzw. 60 Hz (USA), sind für die terrestrische Übertragung von Fernsehsignalen entwickelt worden und mussten mit den existierenden SchwarzweißGeräten kompatibel sein. PAL ist mit einem technischen Trick besser als NTSC gegen atmosphärische Störungen und andere elektrische Interferenzen geschützt und weist daher eine höhere Wiedergabetreue auf.
44
1 Technische Grundlagen
Will man die Formate in einander umwandeln, stellt jedoch nicht ihr unterschiedlicher Umgang mit der Farbe das Haupt-Hindernis dar, sondern die unterschiedliche Frame-Anzahl pro Sekunde. Würde man NTSC mit PAL-Geschwindigkeit abspielen, liefe das Video entsprechend langsamer und umgekehrt. Bei der Normwandlung werden deshalb entweder künstlich zusätzliche Frames und Zeilen hinzugerechnet oder entfernt – mit entsprechenden Qualitätseinbußen. Besonders wertvolle und exportgeeignete Fernsehprogramme, also z.B. Serien und TV-Movies, werden in den USA deshalb traditionell und sogar in vielen Fällen heute noch auf 16- und 35mm-Kinofilm produziert, der dann verlustfrei direkt in beiden Normen vom Filmmaterial abgetastet und langfristig archiviert werden kann. Zudem eignet sich Film auch als Grundlage für HDTV-Sendungen. PAL und NTSC arbeiten mit dem Zeilensprungverfahren (Interlacing). Das bedeutet, dass jeder der 25 bzw. 30 Frames pro Sekunde aus zwei sogenannten Halbbildern (Fields) besteht, die unmittelbar nacheinander angezeigt werden. Doch stellt nicht etwa das erste Halbbild die obere Hälfte des Frames dar und das zweite die untere, sondern beide Fields umfassen jeweils das gesamte Bild, lassen aber jede zweite Zeile aus, so dass beide Halbbilder kamm-artig in einander passen. Das hat zwei Vorteile: Zum einen erhöht sich die tatsächliche Bildfrequenz auf 50 bzw. 60 pro Sekunde, was für das menschliche Auge einen angenehmeren, weniger stark flimmernden Eindruck ergibt. Zum zweiten wird so die Darstellung von Bewegungen verbessert, weil die je zwei Halbbilder mit einem Sekundenbruchteil an Zeitunterschied aufgenommen und wiedergegeben werden und demnach einen kürzeren Abstand voneinander haben als vollständige Frames. Deshalb ist dieses Verfahren bandbreitensparend: Obwohl man nur die einfache Menge an Informationen überträgt, wird ein deutlich besserer Bildeindruck erzielt. Das Gegenstück hierzu ist die progressive Abtastung (Progressive Scan), die immer ein vollständiges Bild mit allen Zeilen gleichzeitig verwendet. Auf diesem Weg wird die optische Qualität des einzelnen Frames verbessert und es entsteht ein Look, der dem Kinofilm ähnlicher ist, aber dafür wird die Auflösung von Bewegungen schlechter. Und um den Flimmer-Effekt zu vermeiden, setzt der Progressiv-Scan ein Wiedergabegerät voraus, das in der Lage ist, die einzelnen Frames zwischenzuspeichern und so die Bildfrequenz selbsttätig mindestens zu verdoppeln. Herkömmliche Röhrenfernseher sind nicht in der Lage, progressive Frames darzustellen, Flachbildschirme arbeiten bauartbedingt immer mit progressiver Abtastung, d.h. sie müssen Bilder mit Zeilensprung erst auf komplizierte Weise umrechnen (De-Interlacing; vgl. Kap. 3.4.2). Im digitalen Fernsehen spielen solche universellen Normen rein technisch gesehen keine so große Rolle mehr. Da die digitale Bildverarbeitung immer
1.4 Bildauflösung und Fernsehnormen
45
etwas mit Rechnen und Computerleistung zu tun hat, und Computer bzw. elektronische Chips in der Regel nicht auf eine einzige, bestimmte Aufgabe festgelegt sind, sondern viele verschiedene Dinge können, ist die verwendete Elektronik oftmals in der Lage, die unterschiedlichsten Bildformate zu übertragen und darzustellen. Vom winzigen Handy-Bildschirm bis zur Kino-Großprojektion: Alle Endgeräte und Verwendungszwecke können mit dem jeweils passenden Format versorgt werden – und sei es nur, indem existierendes Bildmaterial unter Inkaufnahme von Qualitätsverlusten umgerechnet wird. So lange es sich aber bei den zu übertragenden Videoprogrammen der Idee nach um Fernsehen (im Gegensatz beispielsweise zu bewegten Bildern auf WebSeiten) handelt, müssen sie mit den vorhandenen bzw. handelsüblichen Geräten in den Wohnzimmern der Privathaushalte kompatibel sein. Dementsprechend verwendet DVB für die Übertragung von SDTV im traditionellen Bildseitenverhältnis 4:3 ungefähr die gleiche Zeilenanzahl wie PAL bzw. NTSC und das Zeilensprungverfahren, so dass die angeschlossenen Geräte mit ihrer nativen Anzahl von Bildpunkten (Picture Elements, kurz: Pixel) beliefert werden können, also rund 540 Zeilen zu je 720 Bildpunkten bzw. insgesamt etwa 390.000 Pixeln.
1.4.2 HDTV Das hochauflösende Fernsehen HDTV arbeitet dagegen mit einem Vielfachen dieser Pixelzahl, nämlich bis zu 2,1 Millionen. Sein Ziel ist es, ein brillantes, kinoähnliches Fernseherlebnis zu ermöglichen. Man kann sich das Prinzip so vorstellen, wie man es von den Computer-Monitoren gewöhnt ist. Menschen wählen intuitiv einen Betrachtungsabstand vom Bildschirm, der dazu führt, dass sie die nicht die einzelnen Bildpunkte wahrnehmen, sondern dass das Auge den Eindruck eines scharfen, kohärenten Bildes hat. Nach einer Faustregel besteht dieser Abstand bei herkömmlichen SDTV-Fernsehgeräten im Sechsfachen der Bildschirmhöhe. Moderne Computer-Monitore haben eine Höhe von etwa 30 cm, d.h. gegenüber einem 540-Zeilen-Fernseher der gleichen Größe würde man rund 1,80 m Abstand halten. Dem PC rückt man aber wesentlich näher, nämlich auf rund 60 cm bzw. die doppelte Bildschirmhöhe, denn er bringt auf den gleichen 30 cm fast die doppelte Zeilenzahl (standardmäßig 1.024) unter. Der PCMonitor mit seinen kleineren Pixeln nimmt in diesem Fall also einen erheblich größeren Teil unseres Blickfeldes ein als der Fernseher. Auf diesen Effekt setzt auch HDTV, das seine Vorzüge vor allem dann richtig ausspielen kann, wenn die Zuschauer relativ nah vor dem Schirm sitzen; hier geht man von der dreifachen Bildschirmhöhe aus. Ebenfalls aus wahrnehmungspsychologischen Gründen verwendet HDTV grundsätzlich Bilder mit einem
46
1 Technische Grundlagen
Seitenverhältnis von 16:9. Da das natürliche menschliche Gesichtsfeld wesentlich breiter als hoch ist, entsteht so bei geeignetem Betrachtungsabstand ein besonders eindrucksvolles Seherlebnis. Aus dem gleichen Grund haben sich auch die Breitwandformate im Kino entwickelt. Nach einem langen internationalen Streit um die weiteren Spezifikationen von HDTV haben sich inzwischen zwei Standards etabliert: Der europäische arbeitet mit 1.080 sichtbaren Zeilen mit je 1.920 Bildpunkten, der amerikanischjapanische mit 720 Zeilen à 1.280 Pixel. Zwar gibt es damit erneut – wie schon in der PAL vs. NTSC-Ära – in verschiedenen Weltgegenden unterschiedliche Normen, aber die Werte stehen zumindest in einfachen mathematischen Relationen zueinander, die eine rechnerische Umwandlung erleichtern: Das USjapanische Format entspricht in Höhe und Breite jeweils genau zwei Dritteln der entsprechenden europäischen Werte. Und da die Qualitätsverluste bei der Umrechnung einer hohen Pixelanzahl auf eine niedrigere Auflösung geringer sind als umgekehrt, hat man sich auf die Euro-Variante als übergreifenden Produktionsstandard geeinigt. In diesem HDTV-CIF (Common Image Format) stellen also auch Amerikaner und Japaner ihre export-geeigneten Sendungen her, auch wenn sie diese im Inland nach einem anderen Verfahren ausstrahlen. Abbildung 3:
Größenrelationen SDTV/HDTV
Beachtet werden muss ferner das schiere Datenvolumen, das gespeichert und übertragen wird. Die europäische Auflösung mit über zwei Millionen Pixeln
1.4 Bildauflösung und Fernsehnormen
47
scheitert auch heute noch leicht an den Kapazitäten der Geräte, während das Format 720 mit nur gut 900.000 Bildpunkten erheblich leichter zu bewältigen ist. Doch alleine mit der Pixelanzahl ist ein digitales Bild noch lange nicht vollständig definiert, sondern es müssen ferner noch die Bildfrequenz (Anzahl der Bilder pro Sekunde) und die Frage des Zeilensprungs geklärt werden. Prinzipiell sind viele verschiedene Kombinationen technisch möglich. Die Entscheidung für oder gegen eine progressive Abtastung der einzelnen Frames hängt dabei einerseits von ästhetischen Erwägungen ab – Stichwort Kinofilm-Look –, und andererseits vom Verwendungszweck. Strebt man eine Kompatibilität zu herkömmlichen TV-Broadcasting-Techniken an und will man für die Übertragung von bewegungsintensiven Inhalten (vor allem im Sport-Bereich) besonders gut gerüstet sein, bietet sich die Interlacing-Technik an; für die Ausstrahlung von auf Kinofilm hergestellten Programmen und eine möglichst gute Bildqualität im Hinblick auf Schärfe und Brillanz liegt dagegen der Progressive Scan näher. Das gleiche gilt auch für Videomaterial, das in erster Linie für die Distribution im Internet und/oder die Wiedergabe auf Flachbildschirmen gedacht ist, da auf diese Weise ein qualitätsmindernder Konvertierungsaufwand eingespart wird (vgl. Kap. 3.4.2). Die Bildfrequenz wiederum orientiert sich aus praktischen Gründen an den tradierten Werten, die von PAL und NTSC bzw. vom Kinofilm (24 Frames pro Sekunde) bekannt sind, d.h. gebräuchlich sind 24, 25 und 30 Hz in der progressiven Abtastung sowie 50 und 60 Hz wahlweise progressiv oder (häufiger) mit Zeilensprung. Die Europäer räumen dem Standard 1.080i (interlaced) mit 50 Hz Priorität ein, in Japan und den Vereinigten Staaten wird dagegen 720p (progressive) bei 24 und 60 Hz bevorzugt. Welche Variante von den Zuschauern als besser empfunden wird, ist umstritten; das US-japanische Format kann aber für sich in Anspruch nehmen, dass sich die objektiv niedrigere Auflösung im subjektiven Seh-Eindruck kaum von dem europäischen Gegenstück unterscheidet und dass es selbst bei 60 Frames pro Sekunde, also unter optimaler Bewegungsauflösung, nur ungefähr die gleichen Übertragungs- und Speicherkapazitäten beansprucht wie das Euro-System. Die meisten Endgeräte sind aber ohnehin bereits so ausgelegt, dass sie beide Standards verarbeiten können. Ungeachtet dessen ist HDTV auf dem alten Kontinent zwar als Produktionsstandard bereits gut etabliert, aber noch ein gutes Stück von seiner Durchsetzung als Fernsehformat für normale Zuschauer entfernt. Das hat sowohl technische als auch finanzielle Gründe. Im Gegensatz zu den Vereinigten Staaten, die für die Distribution MPEG-2 einsetzen, hat man sich hierzulande gleich für die fortschrittlichere und effizientere Datenreduktion nach MPEG-4/AVC entschieden. Das ist zwar zukunftsweisend, steht aber vor dem Problem, dass erst sehr wenige der für den Empfang benötigten, besonders leistungsfähigen Geräte auf
48
1 Technische Grundlagen
dem Markt sind. Während MPEG-2-Decoder inzwischen schon als etablierte Technik gelten können und auch in der HDTV-Variante in den USA massenhaft verkauft werden, bewegen sich die Europäer am vorderen Ende der technischen Entwicklung. Neben den üblichen „Kinderkrankheiten“ neuer Technologien bedeutet das vor allem, dass die Geräte noch sehr teuer sind. Allein die erforderlichen schnellen Prozessoren können schon mehrere hundert Euro kosten. Dass immer mehr Haushalte über HDTV-fähige Flachbildschirme verfügen, heißt daher noch lange nicht, dass sie auch zum Empfang von hochauflösendem Fernsehen in der Lage sind. Voraussichtlich werden erst die Markt-Durchsetzung der DVD-Nachfolgeformate und die Online-Distribution diesen Zustand nachhaltig verändern. Zum anderen scheuen aber auch die Fernsehveranstalter vor den mit HDTV verbundenen Zusatzkosten zurück. Da HDTV das herkömmliche Fernsehen bis auf weiteres nicht ersetzt, sondern lediglich als ergänzendes Angebot für besonders hochwertige Programmformen wie Spielfilme und Sportübertragungen in Frage kommt, müssen zusätzliche Verbreitungswege über Kabel und Satellit erschlossen und bezahlt werden. Aufgrund des hohen Bandbreitenbedarfs sind diese dann auch noch deutlich kostspieliger als digitale SDTV-Kanäle.
1.4.3 Metadaten Metadaten sind eigentlich ein ganz altes und im Grunde triviales Konzept: Die Metadaten eines Buches sind z.B. die Angaben über Autor, Titel, Verlag, Preis, Klappentext usw., mithin lauter Merkmale, die den eigentlichen Inhalt des Buches beschreiben. Und diese Zusatzinformationen sind nicht etwa irgendwo im Text versteckt, sondern sehr viel leichter zugänglich: Die meisten von ihnen stehen außen auf dem Buchdeckel, sind also mit dem Buch fest verbunden. Sie erscheinen aber auch völlig unabhängig von dem eigentlichen Produkt in Verlagsprospekten, Bibliothekskatalogen, Zeitschriftenartikeln, Fußnoten oder dem Verzeichnis lieferbarer Bücher. Dadurch bieten sie in vielfacher Hinsicht Orientierung – sie identifizieren das Buch, geben Auskunft über sein Thema, und der Ruf des Autors oder Verlages gestattet vielleicht sogar schon eine Vermutung über die Qualität des Werkes. Aber natürlich dienen sie auch dazu, das Buch zu kaufen, weil man es mit Hilfe der Metadaten beim Buchhändler bestellen kann. Dieses noch sehr grundsätzliche Konzept lässt sich leicht sinnvoll ergänzen, z.B. durch Kategorien oder Schlagwörter. Auf diese Weise können auch diejenigen potentiellen Leser das Buch finden, die noch nie von ihm gehört haben, sich aber für sein Thema oder bestimmte inhaltliche Aspekte interessieren, denn statt nach dem spezifischen Titel können sie nach globalen Begriffen suchen und
1.4 Bildauflösung und Fernsehnormen
49
dann zunehmend eingrenzen, welche Bücher für sie in Frage kommen. Wiederum einen Schritt weiter kann man gehen, indem man Inhaltsverzeichnis oder Stichwortregister des Werkes konsultiert, denn dabei handelt es sich um recht genaue Metadaten zu Aufbau und Struktur des Textes. Metadaten im elektronischen Kontext funktionieren nach dem gleichen Muster. Sie beschreiben Inhalte in mehr oder weniger ausführlicher Form. Aber das Besondere an ihnen ist, dass sie maschinenlesbar sind, also von Computern, Fernsehgeräten, Mobiltelefonen, Software-Programmen usw. verstanden werden. Das hat vor allem zwei Vorteile: Erstens können Maschinen meist sehr große Datenmengen verarbeiten, ohne überfordert zu werden. Man stelle sich nur das aktuelle Fernsehprogramm vor. Entweder ignoriert man die meisten der in der Zeitschrift abgedruckten Kanäle und konzentriert sich beim Lesen auf die Sender, die man ohnehin am meisten schaut, oder man orientiert sich an den Empfehlungen der Redaktion, welche die Masse des Angebots bereits auf die wichtigsten Sendungen hin durchgesiebt hat. Kaum jemand nimmt sich die Zeit, alle Programmspalten zu lesen, und dadurch verpasst der Zuschauer vielleicht doch ab und zu eine interessante Sendung. Maschinen dagegen kennen dieses Aufmerksamkeitsproblem nicht, sondern sind in der Lage, jederzeit in hoher Geschwindigkeit das gesamte TV-Programmangebot zu durchforsten. Und das ist das Stichwort für den zweiten Vorteil maschinenlesbarer Metadaten: Da die menschliche Wahrnehmung leicht überfordert wird und bei aufgeräumter Präsentation von Inhalten am besten funktioniert, kann man viele hilfreiche und beschreibende Informationen einfach unsichtbar machen. Ihre Wirkung entfalten sie aber trotzdem, da sie von der Maschine sehr wohl erfasst und beachtet werden. Das ist so ähnlich wie der Strichcode auf Büchern und fast allen anderen Waren: Man beachtet ihn als Leser kaum noch, da er überall vorkommt und zugleich für die menschliche Wahrnehmung keinen Sinn ergibt, aber er ist eine Schnittstelle zwischen Buch und Maschine wie z.B. dem Scanner an der Buchhandlungskasse. Die Komplexität dieses Themas kann man beim Blick in die Spezifikationen des Metadatenstandards MPEG-7 erahnen. Zunächst einmal sieht er eine Reihe von Beschreibungsdimensionen vor, in denen es um die äußerlichen Merkmale des jeweiligen Materials geht: seine Form, d.h. den Codec und die Art der Datei seine Konditionen, d.h. wer ist der Rechteinhaber und zu welchem Preis und unter Einsatz welcher Kontroll- oder Verifikationsmechanismen räumt er welche Nutzungen ein seine Klassifikation nach Kriterien des Jugendschutzes, aber auch nach inhaltlichen Genres und Kategorien (handelt es sich um eine Sportreportage
50
1 Technische Grundlagen
oder um eine Serienepisode; im letzteren Fall: ist es eine Action- oder eine Drama-Serie, spielt sie auf einem Polizeirevier oder im Krankenhaus usw.) seinen Kontext, d.h. um Angaben darüber, wann, wo und in welchem Zusammenhang es entstanden ist (was bei einem Spielfilm nicht so wichtig ist wie z.B. bei einem Nachrichtenbeitrag) seine Beziehung zu anderen Materialien (sei es zu anderen Episoden der gleichen Serie oder Reihe, aber auch zu Datenbanken mit Zusatzinformationen, Presseartikeln etc.) Auf einer zweiten Beschreibungsebene geht es dann gezielt um die inhaltlichen Details, und diese können in einem technischen Metadaten-Umfeld erheblich umfangreicher und tiefgreifender sein als das, was wir konventionell unter redaktionellen Angaben verstehen. Besonders interessant ist dabei, dass einige dieser Kategorien nicht mehr unbedingt von Menschen mit Inhalten gefüllt werden müssen, sondern dass es dafür bereits heute elektronische Analyse-Instrumente gibt; weitere befinden sich in der Entwicklung. Die Kriterien im Einzelnen sind: Kreation und Produktion, d.h. Angaben zu Ursprungsland, Produktionsjahr, Buch, Regie, Kamera und sonstigen Mitwirkenden geplante und bereits erfolgte Verwendung, z.B. Platzierung im Programm eines Fernsehsenders, Ausstrahlungstermine, Aufführungen, Verkauf und Verleih etc. die Art der Speicherung (Codec, verwendete Software usw.) die räumlichen und zeitlichen Komponenten des Inhalts, d.h. im Grunde detaillierte statistische Angaben über die Bildinhalte (vergleichbar der rechnerischen Analyse von Bewegungen und Bildobjekten, die MPEG-4 zwecks Videodaten-Reduktion vornimmt) die feinen Gestaltungsmerkmale des Materials, d.h. seine Farbigkeit, Texturen, Formensprache, Musik und Sounds, Kamerabewegungen, Geschwindigkeit usw. Informationen für die schnelle Navigation innerhalb des Materials mit Hilfe von Kapiteln, Sinnabschnitten und dergleichen das Nutzerverhalten, vor allem auch im Hinblick auf Vorlieben und Abneigungen des Nutzers
1.4.4 Verwendung von Metadaten Alle diese Kriterien sind freilich nicht allein dazu gedacht, Videos zu beschreiben, die mit Fernsehen bzw. anderen unterhaltenden oder informierenden TV-
1.4 Bildauflösung und Fernsehnormen
51
und Filmproduktionen zu tun haben, sondern für alle denkbaren Anwendungsbereiche von bewegten Bildern – angefangen von Überwachungskamera-Aufnahmen über medizinische Diagnose-Werkzeuge bis hin zu Architektur- oder Designsimulationen. Diese große Bandbreite erklärt den sehr weitreichenden Ausbau des MPEG-7-Standards; unter der Bezeichnung TV-Anytime arbeitet eine internationale Arbeitsgruppe von Sendern, Produzenten und Technik-Herstellern an einem mit MPEG-7 verbundenen Metadaten-Standard, der sich – wie der Name schon andeutet – spezifisch an Fernsehen und Unterhaltungselektronik orientiert. Wofür benötigt man also im digitalen Fernsehen und seinen verwandten Erscheinungsformen derart komplexe Datenmengen? Worum es in erster Linie geht, ist die nutzerfreundliche, plattform-unabhängige und zuverlässige Erschließung von Inhalten – ganz gleich, auf welchem Weg sie transportiert oder an welchem Ort sie gespeichert werden. Und das Revolutionäre an diesen modernen Verfahren ist nicht unbedingt ihre Fähigkeit, systematisch in den verschiedensten Datenbeständen auf die Suche zu gehen (denn das kann Google schon lange), sondern den Zugang zu ihnen mit Hilfe von Intuition, Geschmack und anderen ähnlich unscharfen Kriterien zu erlauben. Außerdem können sie die Grundlage für automatische Recherche- und Angebotsvorgänge bilden. Ein Beispiel aus dem Musikbereich illustriert, wie das praktisch funktionieren kann. Das Internet-Radio pandora.com stellt mit Hilfe von Metadaten für jeden Nutzer ein individuelles Musikprogramm zusammen, das sich an den persönlichen Vorlieben genau dieses Nutzers ausrichtet. Der Clou dabei: Die Präferenzen der Hörer werden nicht anhand von Genres oder anderen konventionellen Musikkategorien ermittelt, sondern aufgrund einer genauen inhaltlichen, stilistischen und formalen Analyse der Musik selbst. Das heißt, man nennt der Website ein paar Stücke, die zu den persönlichen Favoriten zählen, und bekommt dann andere Stücke vorgespielt, deren Soundprofile große Verwandtschaft mit den Lieblingsliedern haben, also ähnlich klingen oder sich in anderen wichtigen Eigenschaften (Rhythmus, Tonart, Lautstärke, Gesang, Melodie, Aufbau, Länge, verwendete Instrumente usw.) überschneiden. Diese Stücke kann man wiederum bewerten und damit das Angebot immer besser feineinstellen und auf den eigenen Geschmack hin personalisieren. Das Ergebnis ist tatsächlich oft im positiven Sinne überraschend, denn pandora.com bringt sehr häufig Titel zu Gehör, die der Nutzer zuvor nicht kannte und von deren Interpreten oder Komponisten er noch nie gehört hatte. Was sich also auf den ersten Blick wie eine mögliche Nivellierung der Musikauswahl ausnimmt, erreicht tatsächlich das Gegenteil: Während z.B. Pop-Spartenradios zu jedem gegebenen Zeitpunkt stets nur eine Auswahl aus zwei oder drei Dutzend in den aktuellen Hitlisten platzierten Musikstücken eines bestimmten Gen-
52
1 Technische Grundlagen
res spielen, wird hier die Streuung der Musik, die ein Nutzer hört, größer. Das Wissen um Interpreten, Plattenlabels, Genres oder spezielle Insider-Informationen ist nicht mehr erforderlich, wenn man neue Stücke entdecken möchte, mit denen man unter herkömmlichen Voraussetzungen wahrscheinlich nie in Kontakt gekommen wäre. Und dadurch erhalten z.B. junge Bands oder von Plattenfirmen unabhängige Musiker die gleiche Chance, gehört zu werden, wie TopStars mit gewaltigem Marketing-Budget. Dieses Prinzip lässt sich auch aufs Fernsehen übertragen. Ein Zuschauer ist großer Fan einer bestimmten Serie und möchte gerne weitere Serien sehen, die seinem favorisierten Programm ähnlich sind. Anders als die Profis in den Fernsehunternehmen verfügt er aber nicht über einen Marktüberblick, sondern muss darauf warten, was ihm die TV-Kanäle, die er am meisten nutzt, als nächstes vorsetzen. Dabei entgeht ihm vielleicht, dass ein abgelegener Spartenkanal gerade ein Programm gestartet hat, das ihm mit hoher Wahrscheinlichkeit gefallen würde, und er weiß auch nicht, dass drei passende Serien auf DVD erschienen sind. Nicht einmal die Lektüre der Programmzeitschrift hilft ihm wirklich weiter, denn er schaut möglicherweise nur in der Rubrik der Arztserien nach, während die Redaktion der Zeitschrift die für ihn besonders geeignete Serie als Krimi eingestuft hat. Hinzu kommt die generelle Schwierigkeit, genau zu beschreiben, warum man ein bestimmtes Programm bevorzugt. Zwar spielen natürlich eine Reihe von objektivierbaren Merkmalen eine Rolle, z.B. die beteiligten Schauspieler oder das generelle Thema, doch darüber hinaus fallen auch zahlreiche weniger leicht in Worte zu fassende Kriterien ins Gewicht, darunter Farbdramaturgie, Ausstattung, Kameraführung, Musik und Sounds oder das Tempo der Sendung. Und bildet die polizeiliche Ermittlungsarbeit tatsächlich den Schwerpunkt der Serie, oder sind es vielmehr die zwischenmenschlichen Beziehungen der Protagonisten? Oder wartet man eigentlich die ganze Zeit nur darauf, dass eine bestimmte witzige Randfigur in der Handlung auftaucht? Mit der Hilfe ausführlicher Metadaten ist all das kein Problem mehr. Der Zuschauer kann mit elektronischer Hilfe sogar nach Kriterien suchen, von denen er gar nicht weiß, dass sie existieren. Die Maschinen sind in der Lage, aus seinem bisherigen Verhalten, aus seinen Such-Eingaben und sogar aus den Auswahlentscheidungen anderer Zuschauer Schlussfolgerungen zu ziehen und ihm so auf Anforderung oder automatisch Programme vorzuschlagen. Bei richtigem Einsatz ist es möglich, auf diese Weise eine hohe Markt-Transparenz herzustellen, aber natürlich ist auch Missbrauch denkbar – ganz zu schweigen von den Herausforderungen an den Datenschutz. Es liegt jedenfalls die Vermutung nahe, dass das Metadaten-Marketing in der Film- und Fernsehindustrie eine Reihe von klassischen Marketingmethoden ergänzen und teilweise sogar ablösen wird.
1.5 Digital Rights Management
53
1.5 Digital Rights Management Digital Rights Management (DRM) ist die elektronische Variante des Schutzes und der kommerziellen Auswertung von urheberrechtlich geschützten Produkten. Zum Verständnis der Problematik, die damit verbunden ist, hilft es, sich vor Augen zu führen, wie das Rechtemanagement in der analogen Welt funktioniert.
1.5.1 Klassisches Rechtemanagement Wenn jemand ein Buch kauft, dann stehen ihm im Hinblick auf die Verwendung dieses rechtmäßig erstandenen Exemplars viele Rechte zu: Er darf das Buch so lange behalten und so oft lesen, wie und wo immer er will. Außerdem darf er es im privaten Kreis (jedoch nicht zu kommerziellen Zwecken) verleihen; es ist ihm selbst oder den privaten Entleihern sogar gestattet, in gewissen Grenzen Fotokopien für den eigenen Gebrauch zu machen. Des weiteren darf der Eigentümer das Buch weiterverkaufen oder verschenken; seine Nutzungsrechte an dem konkreten Exemplar gehen dabei auf den Käufer über. Die Ansprüche von Autor und Verlag bleiben dabei auf zweierlei Weise gewahrt: Der ursprüngliche Kaufpreis enthält nicht nur die Druckkosten und die Marge des Buchhändlers, sondern auch ein Honorar für Autor und Verlag. Außerdem werden Fotokopiergeräte sowie kommerzielle, öffentliche und wissenschaftliche Leihbibliotheken per Gesetz mit einer pauschalen Urheberrechtsabgabe belastet, die dann auf Umwegen ebenfalls wieder den Rechteinhabern zugute kommt. Nun sind Fotokopiergeräte und ihre Nutzung im Einzelfall schwer zu kontrollieren, d.h. besonders bei teuren Büchern besteht die Gefahr, dass sie komplett kopiert werden und dadurch weniger Exemplare verkauft werden können, als nach dem vorhandenen Interesse an dem Werk eigentlich zu erwarten ist. Dagegen hat sich die Bücherbranche etwas einfallen lassen: Das Taschenbuch. Taschenbücher sind so preiswert, dass es sich schlicht nicht mehr lohnt, sie zu fotokopieren; es ist billiger und bequemer, sie auf offiziellem Wege zu kaufen. Außerdem spricht ein klarer Komfort-Vorteil für das gebundene Buch, egal ob Hardcover, Paperback oder Taschenbuch, denn es lässt sich sehr viel angenehmer benutzen als eine Sammlung von losen, unhandlichen DIN-A4-Blättern aus dem Copyshop. Auf die technische Herausforderung der seit den sechziger Jahren massenhaft aufgekommenen Kopierapparate hat der Buchmarkt also mit drei erfolgreichen Strategien reagiert: Preis, Benutzerfreundlichkeit und einem System, das es gestattet, selbst für Neben-Nutzungen wie die Ausleihe in Bibliotheken oder das Kopieren von Ausschnitten aus Büchern eine (kleine) Gebühr zu erheben.
54
1 Technische Grundlagen
Ein anderes Beispiel ist das analoge Fernsehen. Es ist zwar an sich flüchtig, d.h. man kann eine Sendung im Augenblick ihrer Ausstrahlung ansehen, aber man kann sie auch mit einem Videorecorder aufzeichnen. Für diesen Mitschnitt gelten dann wieder ähnliche Regeln wie für das Buch: Wie lange er aufbewahrt wird, wie oft man ihn sich anschaut, und ob er an Freunde und Verwandte weitergegeben wird, spielt keine Rolle, so lange keine kommerzielle Nutzung erfolgt und er nicht der Öffentlichkeit zur Verfügung gestellt wird. Im Gegenzug muss sowohl auf Videorecorder als auch auf Leerkassetten eine Urheberrechtsabgabe gezahlt werden, die im Kaufpreis enthalten ist. Eine kommerzielle Ausbaustufe dessen besteht im Verkauf und Verleih von Filmen auf Videokassetten. Bei der VHS-Kaufkassette ist es wieder wie bei einem Buch; man kann den Film auf jedem Gerät, das dem VHS-Standard entspricht, beliebig oft abspielen usw. Dafür ist die Kaufkassette relativ teuer; sie wird also vor allem dann erworben, wenn der Benutzer auf die Bequemlichkeit wert legt, sie behalten und öfters zu beliebigen Uhrzeiten ansehen zu können. Bei den meisten Filmen geht es einem aber auf Video genau so wie beim Kinobesuch – das einmalige Ansehen reicht aus; nachdem man ihn kennt, wird der Film uninteressant. Dieses Bedürfnis wird durch Leih-Videotheken befriedigt. Für einen sehr viel geringeren Preis als beim Kauf erhält der Kunde für ein paar Stunden das Recht eingeräumt, sich das Programm anzusehen. Diese niedrigen Kosten werden aber durch Komforteinbußen bezahlt – die Kassette muss abgeholt und wieder zurückgebracht werden, und falls nach ein paar Wochen oder Monaten dann doch der Wunsch aufkommt, den Film noch einmal anzusehen, wiederholt sich der ganze Ablauf einschließlich nochmaliger Bezahlung der Leihgebühr. Im Prinzip kann der Entleiher die Videokassette auch kopieren, aber dagegen spricht, dass das den Besitz eines zweiten Videorecorders erfordert, unbequem ist, und außerdem die Kopie eine merklich schlechtere Qualität hat als das Original, denn verlustfreie Kopien sind in der analogen Welt der extrem kostspieligen Profi-Technik vorbehalten. Auch hier gilt also im Normalfall: Der rechtmäßige Erwerb erlaubt dem Kunden zu günstigen Kosten einen komfortablen, auf seine Bedürfnisse abstimmbaren, qualitativ hochwertigen Genuss des Inhalts. Und noch ein weiterer Punkt muss in diesem Zusammenhang angesprochen werden: Der Jugendschutz. Beim Kauf oder Entleihen eines Videos kann unmittelbar persönlich kontrolliert werden, an wen es abgegeben wird. Dadurch ist zumindest eine gewisse Zuverlässigkeit gegeben, auch wenn man nicht vollständig ausschließen kann, dass das Produkt anschließend in die falschen Hände weitergegeben wird.
1.5 Digital Rights Management
55
1.5.2 Digitale Verfügbarkeit Die digitale Technologie macht alle diese Zusammenhänge wesentlich komplizierter. Exemplarisch kann man das an der Entwicklung der Musikindustrie seit Mitte der neunziger Jahre beobachten. Mit der Compact Disc (CD) hatte ein digitales Format die analogen Trägermedien Schallplatte und Audio-Kassette als Distributionsmedium für Musik abgelöst. Die Gründe für den Systemwechsel leuchteten fast allen Kunden unmittelbar ein: Die CD bietet eine sehr gute Klangqualität, man kann in ihr komfortabel navigieren, sie nimmt nicht viel Platz weg und ist relativ unempfindlich; selbst wenn sie verkratzt oder schmutzig wird, lässt sie sich zumeist trotzdem noch abspielen. Und die CD ist ein weltweit gültiger, einheitlicher Standard. Der erste Schlag kam mit der Durchsetzung der CD-Brenner in Privathaushalten, der es gestattete, CDs völlig verlustfrei zu kopieren. Zwar sieht der Datenträger anders aus als seine Vorlage, aber der musikalische Inhalt ist vollkommen identisch. Trotz der Urheberrechtsabgabe auf CD-Brenner und Rohlinge ist das im Vergleich mit den Musik-CD-Verkaufspreisen extrem viel billiger, als das Originalprodukt zu kaufen, und der Vervielfältigungsvorgang kann bequem und schnell zu Hause erledigt werden. Und so lange man nur mit Freunden und Bekannten im privaten Umfeld Musik austauscht, sind die meisten dieser Kopien sogar durch das Urheberrecht gedeckt. Anders als die Bücherbranche mit dem Taschenbuch machte die Musikindustrie die offiziellen CDs aber nicht substantiell billiger; der Absatz brach katastrophal ein. Aber es kam noch schlimmer: Der zweite Schlag ereilte die Branche durch die Kombination von neuentwickelten digitalen Datenreduktionstechniken (vor allem MP3 aus der Familie der MPEG-Standards) mit dem Internet, denn nun löste sich auch noch die bis dahin unumgängliche Verbindung zwischen Musik und dem physischen Datenträger CD auf. Statt ganzer Alben wurden nunmehr einzelne Musikstücke jederzeit und überall in guter Hörqualität schnell verfügbar. In nach dem Peer-to-Peer-Prinzip funktionierenden Online-Tauschbörsen wie Napster begannen die ehemaligen CD-Käufer damit, in großem Stil Musiktitel kostenlos untereinander auszutauschen – diesmal freilich in der Regel unter illegaler Umgehung der urheberrechtlichen Bestimmungen. Zu dem Kostenvorteil tritt auch in diesem Fall wieder ein Bequemlichkeitsgewinn hinzu: Statt im Plattengeschäft auf einem teuren Album auch Stücke mitkaufen zu müssen, die ihn gar nicht interessieren, kann der Nutzer zu Hause am PC gezielt seine Lieblingsstücke herunterladen und mit den Dateien dann sehr flexibel umgehen. Die Musik kann auf herkömmliche CDs gebrannt oder auf mobile Abspielgeräte kopiert werden, und der Nutzer ist in der Lage, sich individuelle Musikpro-
56
1 Technische Grundlagen
gramme zusammenzustellen, ohne zwischendurch das Trägermedium wechseln zu müssen. Der Musikindustrie fiel als Gegenstrategie zunächst nur ein, juristisch gegen illegale Tauschbörsen vorzugehen. Das ist zwar zweifellos berechtigt, kuriert aber lediglich an den Symptomen herum, statt die Ursache zu bekämpfen. In erster Linie steht die Branche aber vor der Herausforderung, neue Geschäftsmodelle zu entwickeln, die mit der technischen Entwicklung und den Bedürfnissen der Kunden Schritt halten. Wie sich die Musikbranche in den vergangenen Jahren verhalten hat, ist ein wenig so, als würden die Fernsehsender bis heute weiterhin grundsätzlich alle Sendungen in Schwarzweiß ausstrahlen, obwohl die Haushalte längst Farbfernseher besitzen, und diejenigen juristisch verfolgen, die sich Videokassetten oder DVDs mit farbigen Inhalten besorgen. Ungeachtet dessen haben die Urheber, Produzenten und Vertriebsorganisationen audiovisueller Inhalte selbstverständlich ein berechtigtes Interesse daran, für ihre jeweiligen Leistungen bezahlt zu werden. Aus dem gleichen Grund müssen sie verhindern, dass die Programme zu einem beliebig kostenlos verfügbaren Allgemeingut werden. Um mit dieser Strategie erfolgreich zu sein, ist es aber erforderlich, die Kundenbedürfnisse von Beginn an mitzudenken, d.h. die Flexibilität der digitalen Welt positiv zu nutzen. Die Mittel dazu kann das Digital Rights Management bereitstellen.
1.5.3 Hardwarebasiertes DRM DRM-Systeme funktionieren im Wesentlichen auf zwei Arten, nämlich in Form von Software-Lösungen oder mit Hilfe von bestimmten Hardware-Eigenschaften. Ein Beispiel dafür sind viele Kopierschutzverfahren, die auf Musik-CDs angewendet werden. Sie basieren darauf, dass die jeweilige CD absichtlich von den technischen Normen abweicht, die eigentlich für sie gelten, indem z.B. bestimmte Datenspuren mit technisch falschen Inhalten bespielt werden. Regelrechte, klassische CD-Player haben damit in der Regel kein Problem, da sie ohnehin nur die eigentlichen Musikspuren auslesen und eine starke Fehlertoleranz eingebaut haben. Computer-Laufwerke verhalten sich aber anders, da sie eine CD nach den gleichen Kriterien wie jedes andere Speichermedium verarbeiten, d.h. etwa eine Dateizuordnungstabelle verwenden, um die Inhalte der CD aufzufinden, oder mit mathematischen Verfahren die Vollständigkeit der enthaltenen Daten prüfen. Kopiergeschützte Datenträger werden von CD-ROM-Laufwerken daher vielfach als defekt eingestuft und lassen sich folglich auch nicht kopieren. Da viele Hersteller von Autoradios und tragbaren CD-Playern für ihre Geräte aus Kosten- und Flexibilitätsgründen solche CD-ROM-Laufwerke aus dem PC-
1.5 Digital Rights Management
57
Bereich verwenden, treten dort mit gekauften Originalprodukten oft Schwierigkeiten bei der Wiedergabe auf. Eine andere Form von hardwarebasiertem DRM und Kopierschutz besteht darin, dass die Geräte, wie Videorecorder, DVD-Brenner und dergleichen, von vornherein so konstruiert werden, dass bestimmte digitale Kopiervorgänge mit ihnen nicht möglich sind. Ein gutes Beispiel dafür sind digitale Videokameras für den Amateurbereich: Sie geben zwar die mit der Kamera aufgezeichneten Bilder über eine digitale Schnittstelle heraus, der umgekehrte Weg ist aber meist versperrt. Die Industrie versucht auf diese Weise zu verhindern, dass alle Besitzer solcher nach dem semiprofessionellen DV-Standard arbeitenden Camcorder die Möglichkeit bekommen, beliebige Inhalte nahezu verlustfrei auf digitale Kassetten zu überspielen. Ähnlich funktioniert es bei den meisten heute erhältlichen Festplatten-Videorecordern mit eingebautem DVD-Recorder: Von Festplatte in Richtung DVD funktioniert der Kopiervorgang, damit der Nutzer die Gelegenheit zum Archivieren von Programmen bekommt. Die DVD-Inhalte kann man dagegen nicht auf die Festplatte übertragen – selbst dann nicht, wenn es sich nur selbstgemachte Urlaubsvideos handelt. Auch hier würde sonst ein einfacher Weg zur Vervielfältigung von DVDs geöffnet. Aus dem gleichen Grund geizen die Hersteller von digitaler Unterhaltungselektronik mit Schnittstellen zum PC oder Netzwerkanschlüssen, obwohl diese technisch einfach zu realisieren wären und eigentlich als zusätzlicher Service auch nahe liegen würden.
1.5.4 Kopierschutz für HDTV Die meisten modernen DRM-Systeme arbeiten jedoch entweder allein auf Software-Basis oder kombinieren Software-Lösungen mit bestimmten HardwareKomponenten. Ein viel diskutiertes Beispiel für letzteres ist HDCP (High Bandwidth Digital Content Protection). Dieses Verfahren soll sicherstellen, dass HDTV-Programme nicht gespeichert oder kopiert werden können, und ist Bestandteil der Spezifikation HD ready, mit der die Industrie die nach offizieller Lesart für HDTV tauglichen Bildschirme und Empfangsgeräte (Set-Top-Boxen) kennzeichnet. HDCP sorgt dafür, dass das Videomaterial auf dem Weg zwischen Sender und Empfänger, aber auch zwischen allen Komponenten im Haushalt des Zuschauers verschlüsselt wird. In der Praxis funktioniert das so: Sowohl der Satellitenreceiver bzw. die Set-Top-Box oder der Fernsehtuner als auch der Bildschirm sind mit einem speziellen Chip ausgestattet. Nur wenn sich der Bildschirm gegenüber dem Empfangsgerät auf elektronischem Wege als berechtigt ausweist, bekommt er das Signal geliefert und erhält das Recht, es zu entschlüsseln und dann darzustellen.
58
1 Technische Grundlagen
Damit wird sichergestellt, dass in einem Privathaushalt z.B. nur Bildschirme in der Lage sind, HDTV-Sendungen zu verarbeiten; verfügt dagegen ein angeschlossenes Gerät nicht über einen HDCP-Chip oder gibt es sich mit Hilfe dieses Chips als Videorecorder oder Computer zu erkennen, kann die Übertragung blockiert werden. Das bedeutet, dass HDTV-Programme zwar in Echtzeit im Fernsehen gesehen werden können, dass es aber unmöglich ist, sie aufzuzeichnen, wenn die Rechteinhaber das so eingestellt haben. Der Kopierschutz von HDCP geht aber sogar noch weiter. Die meisten bisher üblichen Verfahren suchten nur die verlustfreie digitale Vervielfältigung zu verhindern. D.h. digitale Geräte wie CD-Player, Satellitenreceiver und Festplatten-Videorecorder haben stets unverschlüsselte analoge Schnittstellen, die es gestatten, ein beliebiges weiteres Gerät anzuschließen. Falls es sich bei diesem Gerät wieder um ein digitales handelt, müssen die Analog-Daten erneut digitalisiert werden, während analoge Apparate wie z.B. Fernseher und Videorecorder den Inhalt ohne weiteres verarbeiten können. Mit HDCP ist die Industrie aber in der Lage, auch diese analogen Anschlüsse zu blockieren und so die Wiedergabe und Speicherung von HDTV-Inhalten sogar in der geringeren Qualität des herkömmlichen Fernsehens zu verhindern. In Haushalten, die ältere Geräte besitzen, bleibt der Bildschirm also schwarz – selbst dann, wenn sie auf die hochwertige digitale Wiedergabe verzichten wollen. Der Konsument hat demnach nur die Wahl, entweder durchgehend mit HDCP ausgestattete Geräte zu kaufen und sich dann vollständig den von der Unterhaltungsindustrie gewollten Beschränkungen auszuliefern, oder mit dem Verzicht auf eine HDCP-kompatible Ausstattung zugleich auch generell von den damit geschützten Inhalten – der Idee nach hochauflösendes Digitalfernsehen, aber auch Leih- und Kaufmedien im HD-DVD- oder Blu-Ray-Standard – Abstand zu nehmen.
1.5.5 Softwarebasiertes DRM Die Bezeichnung Rechte-Management im engeren Sinne trifft auf die meisten softwarebasierten Verfahren zu, unter denen das Windows Media DRM von Microsoft und FairPlay von Apple die verbreitetsten sind. Diese Systeme arbeiten im Regelfall mit Lizenzen, die von der Datei, in welcher der Inhalt gespeichert ist, unabhängig sind. Die so geschützten Inhalte sind verschlüsselt, man kann sie aber nach Belieben speichern, kopieren oder verschicken. Spätestens sobald man die Dateien jedoch öffnen – sprich: abspielen – möchte, muss die passende Lizenz gekauft oder auch (bei Gratis-Angeboten oder MarketingAktionen) kostenfrei zugeteilt werden. Bei Online-Medien funktioniert das mit
1.5 Digital Rights Management
59
Hilfe eines zentralen Servers, auf dem der jeweilige Rechteinhaber seine Lizenzen kontrolliert. Der Client, d.h. das Abspielgerät, ganz gleich ob Computer, Videorecorder oder MP3-Player, erfragt dort beim ersten Öffnen einer geschützten Datei den Schlüssel zur Decodierung. Dieser wird herausgegeben, sofern alle Voraussetzungen gegeben sind, also im Normalfall, wenn der gewünschte Inhalt einzeln oder im Rahmen eines Abonnements oder einer Flatrate bezahlt worden ist. Die so erworbene Lizenz wird dann gewöhnlich auf dem Client gespeichert und überwacht von dort aus die weitere Verwendung des Programms. Dabei ist die Lizenz zumeist nur so lange gültig, wie eine bestimmte Kombination aus Benutzer, Gerät und Inhalte-Datei vorliegt. Ein Video kann dann z.B. nur auf einem ganz bestimmten PC abgespielt werden; wenn man es auf eine DVD oder einen Videorecorder kopiert, ist es dort zunächst wieder nicht entschlüsselbar, es sei denn, man bezieht eine weitere Lizenz (direkter Lizenzerwerb) oder die ursprünglich erworbenen Rechte lassen Überspielungen ausdrücklich zu. In diesem Fall wird die gültige Lizenz mitkopiert und zugleich an das neue Gerät angepasst (indirekter Lizenzerwerb). Die mit einer solchen elektronischen Lizenz verknüpften Nutzungsbedingungen können sehr vielgestaltig sein. In Form eines Abonnements erhält der Nutzer z.B. für alle Inhalte, die er von einem bestimmten Dienst bezogen hat, zeitlich befristete Lizenzen für den jeweils bezahlten Abo-Zeitraum. Wird das Abonnement fortgesetzt, verlängern sich die Nutzungsrechte durch ein Feedback mit dem Lizenzserver; läuft der Vertrag dagegen aus, werden die Inhalte für die weitere Verwendung gesperrt. Dabei ist es durchaus möglich, das Abo einige Zeit ruhen zu lassen und danach wieder aufzunehmen; in diesem Fall müssen nicht alle Dateien nochmals heruntergeladen, sondern lediglich die Lizenzen erneuert werden. Beim Einkauf von einzelnen Titeln sind die Optionen ganz ähnlich: Die Häufigkeit und der Zeitraum der Nutzung können im Grunde beliebig eingestellt werden – vom einmaligen Ansehen einer Live-Übertragung über zwei oder drei Abspielvorgänge innerhalb von 24 Stunden (etwa bei einem Leih-Video) bis hin zu unendlichen und mengenmäßig unbeschränkten Rechten. Diese Bedingungen werden gewöhnlich mit Hardware-Einschränkungen versehen. Das kann bedeuten, dass ein Inhalt zu jedem beliebigen Zeitpunkt immer nur auf genau einem, frei wählbaren Gerät zur Verfügung steht, oder dass man ihn gleichzeitig auf fünf oder zehn Endgeräten verwenden darf. Außerdem ist konfigurierbar, ob und wie oft die Datei auf CD oder DVD gebrannt werden darf und ob die gültige Lizenz von einem Gerät auf ein anderes übertragen werden kann. Dabei werden die Nutzungsrechte sinnvollerweise nach der Art des jeweiligen Inhaltes, nach dem Preis, den der Kunde zu zahlen bereit ist, und Marketing-
60
1 Technische Grundlagen
Gesichtspunkten skaliert. Eine Sendung mit aktuellem Inhalt, wie eine SportÜbertragung, wird kaum jemand langfristig speichern wollen, und bei einem Top-Ten-Hit reichen vielen Musikfreunden vielleicht drei Monate mit unbegrenzter Nutzung, weil sie des Titels danach überdrüssig sind. Eine Serienfolge oder einen Spielfilm will die Mehrheit der Zuschauer nur ein- oder zweimal sehen; die besonderen Fans erhalten dagegen für einen Aufpreis die dauerhaften Zugriffsrechte. Oder der Rechteinhaber gibt die erste Viertelstunde eines Films zum beliebig häufigen Anschauen frei, damit das Publikum sich ein Bild vom Inhalt machen kann, und erst der Rest muss bei entsprechendem Interesse schließlich bezahlt werden. Und Musikstücke können für die ersten drei oder fünf Abspielvorgänge frei sein, um die Beliebtheit des Titels zu erhöhen, während erst der dauerhafte Konsum eine kostenpflichtige Lizenz erfordert.
1.5.6 Risiken von DRM Doch alle diese DRM-Maßnahmen sind mit diversen Problemen verknüpft. Ähnlich wie bei HDCP können auch software-basierte Rechtemanagementsysteme dazu beitragen, dass rechtmäßig gekaufte Hard- und Software von ihren Eigentümern nicht mehr ohne weiteres bestimmungsgemäß verwendet werden kann. Verlangen beispielsweise alle auf einem Computer installierten Media-Player zum Funktionieren zwingend das Vorliegen einer Lizenz, ist es unter Umständen nicht mehr möglich, lizenzfreie oder auch ältere Medien aus der Zeit vor der Durchsetzung von DRM abzuspielen. Das erstreckt sich mitunter sogar auf Geräte aus der Unterhaltungselektronik, wie DVD-Player oder Videorecorder: Einige DRM-Systeme unterstützen sogenannte Widerrufslisten (Revocation Lists), auf denen Geräte stehen, die sich aus der Sicht des Rechteinhabers nachträglich als nicht geeignet oder unzuverlässig herausgestellt haben, und die dann durch das DRM gesperrt, d.h. unbrauchbar gemacht werden können. Und diese Prüfung braucht sich nicht unbedingt nur auf das aktuelle Wiedergabegerät zu beziehen, sondern forscht mitunter auch in der Historie einer Datei nach, ob diese irgendwann einmal auf einem unzulässigen Endgerät genutzt wurde. Im Extremfall wird so ein Konsument bestraft, der zufällig ein baugleiches Gerät besitzt, mit dem ein anderer in den Verdacht der Piraterie gekommen ist. Und was geschieht, wenn der Rechteinhaber unvermittelt seine Politik ändert oder in Insolvenz geht? Ob eine Produktionsfirma nach dem Verkauf einer DVD weiter existiert, ist heute für die Nutzung des Inhalts unerheblich, aber im DRM-Zeitalter kann sich das durchaus ändern. Rechtmäßig erworbene Inhalte werden auf diese Weise unter Umständen unbrauchbar. Auch die Notwendigkeit von Online-Verbindungen mit dem Lizenzserver wirkt sich unter bestimmten
1.5 Digital Rights Management
61
Bedingungen negativ aus – nämlich dann, wenn zum Zeitpunkt einer erforderlichen Lizenzerneuerung oder -überprüfung gerade keine Verbindung besteht. Ein Nutzer befindet sich z.B. mit einem tragbaren Videoplayer auf Reisen, um sich die Wartezeiten auf Flughäfen oder lange Bahnfahrten zu verkürzen. Wenn unterwegs die Lizenzen auslaufen, kann er sie möglicherweise nicht gleich online verlängern. Ungünstig kann sich ferner der Wechsel von technologischen Standards auswirken. Vielleicht bringen Apple oder Microsoft oder auch Chip-Hersteller wie AMD und Intel in ein paar Jahren revolutionäre neue Betriebssysteme und Prozessoren heraus, auf denen alte Software einfach nicht mehr lauffähig ist. Unter Umständen können dann auch die mit überholten DRM-Systemen erworbenen Lizenzen nicht mehr verwendet werden. Wer garantiert, dass die heute meist übliche Abwärtskompatibilität von Software auch in Zukunft immer gewährleistet bleibt? Ein 15 Jahre altes Textverarbeitungs-Dokument mit einer aktuellen Version des gleichen Programms zu öffnen, ist schon nicht unkompliziert; dementsprechend größere Schwierigkeiten sind angesichts der für DRM typischen Vermengung von Hard- und Software-Eigenschaften zu befürchten. Und schließlich stellt es sowohl unter Vermarktungsgesichtpunkten als auch aus der Perspektive des Konsumenten ein Problem dar, dass Endgeräte vielfach mit einem bestimmten DRM-System gekoppelt sind. Dadurch wird der Kunde auf einen oder mehrere bestimmte Inhalte-Lieferanten festgelegt, so wie die Besitzer von iPods DRM-geschützte Musik nur beim Apple-eigenen OnlineDienst iTunes Store kaufen und umgekehrt Eigentümer von MP3-Playern mit Microsoft-DRM keine bei Apple gekauften Titel abspielen können. Der enorme Erfolg der Hardware hat in diesem Fall Apple zugleich zum Marktführer für legale Musik-Downloads gemacht. Wenn sich die Konsumenten beim Kauf eines Fernsehers oder Videorecorders zukünftig zwischen Geräten entscheiden müssen, die jeweils nur eines oder eine Auswahl der gängigen DRM-Systeme unterstützen, ist ihnen damit der Zugriff auf einen Teil des Inhalte-Marktes versperrt. Gleichzeitig haben Anbieter, die sich den verbreiteten RechtemanagementVerfahren nicht anschließen wollen, geringere Aussichten, ihre Inhalte zu verkaufen. Ein weiteres Problemfeld ist der Datenschutz. Während im analogen Fernsehen niemand feststellen kann, welcher Kanal wie lange genutzt wird (mit Ausnahme der Haushalte, die freiwillig am Panel zur Ermittlung der Einschaltquoten teilnehmen), kann das Nutzerverhalten bei den digitalen Medien leicht völlig transparent gemacht werden. Dies ist per se bei allen Punkt-zu-Punkt-Verbindungen der Fall, bei denen der Inhalt stets auf Anforderung an einen konkreten Konsumenten geliefert wird, kommt aber auch bei Broad- oder MulticastTechniken, ja unter Umständen sogar beim Abspielen von gekauften CDs oder
62
1 Technische Grundlagen
DVDs vor, sobald diese mit einem DRM-System arbeiten, das online Lizenzen vergibt. Dadurch lässt sich nachvollziehen, wann, wie oft, mit welchem Benutzernamen und sogar mit welchen Geräten ein bestimmtes Programm genutzt wurde. Auf diese Weise können Benutzerprofile erstellt werden, die dann zu Marketing-Zwecken oder der Ausforschung der Konsumenten dienen.
1.5.7 Jugendschutz Ein Nebenaspekt des Bereichs Rechtemanagement ist der Jugendschutz. Da im Gegensatz zum Ladenverkauf oder -verleih keine Gesichtskontrolle bei der Übergabe gemacht werden kann, sind bei Mediendiensten elektronische Kontrollverfahren erforderlich. Mediendienste dürfen im Gegensatz zum Fernsehen auch als stark jugendgefährdend eingestufte Inhalte, vor allem Pornografie, anbieten. Sie sind auch nicht an bestimmte Uhrzeitbeschränkungen gebunden; während im Fernsehen Programme, die erst ab 18 Jahren zugelassen sind, nur zwischen 23.00 Uhr und 06.00 Uhr gesendet werden dürfen, können Mediendienste auch jugendschutzrelevante Beiträge jederzeit liefern. Die von der zuständigen Kommission für Jugendmedienschutz (KJM), einem Organ der Landesmedienanstalten, vorgeschriebenen Anforderungen an die Altersverifikation werden von den meisten entsprechenden Systemen mit Hilfe von drei Komponenten erfüllt. Am Anfang steht immer zwingend eine einmalige persönliche Überprüfung, bei der sich der Kunde am Postschalter oder in einem Ladengeschäft identifizieren muss. Danach erhält der Konsument in der Regel einen Hardware-Schlüssel, z.B. eine Chipkarte, und eine Geheimnummer. Nur wenn die Chipkarte im Empfangsgerät steckt und bei jedem einzelnen Bestelloder Abrufvorgang die PIN eingegeben wird, werden die Inhalte freigeschaltet.
2.1 Frequenzen
63
2 Distribution und Empfangswege
2.1 Frequenzen Allen digitalen Broadcast-Techniken ist zunächst einmal eines gemein: Sie nutzen zur Übertragung der Signale analoge Frequenzen. Das hängt schon damit zusammen, dass sie physikalische Kommunikationskanäle benutzen, nämlich elektromagnetische Schwingungen, die entweder über Kupferkabel oder durch den freien Raum (früher gerne als „Äther“ bezeichnet) übertragen werden. Dabei werden die Inhalte, die gesendet werden sollen, gewissermaßen auf ein Trägermedium geschrieben – genau wie bei einem Blatt Papier (Träger), das zwecks Kommunikation sowohl mit Schriftzeichen als auch bei Bedarf mit einer Zeichnung, einem Foto oder Braille beschrieben oder sogar gelocht sein kann. Die geschriebenen Inhalte verändern den physikalischen Zustand des vorher noch leeren Papiers, denn es wird Tinte aufgetragen, Material herausgestanzt oder eine Form hineingeprägt. Das Papier wird also verwandelt, in der Sprache der Techniker: moduliert. Der Träger ist bei allen elektronischen Übertragungsverfahren eine Welle – entweder eine elektromagnetische (bei Metallkabeln und im Äther) oder eine optische (bei Glasfaserverbindungen). Jede Welle kann man mit zwei Hauptkriterien beschreiben: Der Höhe ihres Ausschlags (Amplitude) und der Wellenlänge, d.h. dem Abstand zwischen zwei aufeinander folgenden Wellenbergen oder -tälern. Der Geschwindigkeit, mit der sie ihre Wellenbewegungen innerhalb eines bestimmten Zeitraums vollzieht, ist die in Hertz (Hz) gemessene Frequenz; ein Hertz entspricht einer Schwingung pro Sekunde. Man kann sich das am ehesten anhand eines Schwimmbeckens vorstellen: Springt man als erster Schwimmer in ein noch ruhiges Becken mit unbewegter Wasseroberfläche, breiten sich von dem Eintrittspunkt ins Wasser Wellen in alle Richtungen aus. Angenommen, die Wellen sind drei Zentimeter hoch, vier Zentimeter lang und treffen im Abstand von einer halben Sekunde auf den Beckenrand, dann ist ihre Amplitude 3 cm und die Wellenlänge 4 cm bei einer Frequenz von 2 Hz. Springen nun aber zwei Schwimmer gleichzeitig ins Becken, treffen die Wellen zwischen ihnen frontal aufeinander. Optisch kann man nun die beiden einzelnen Wellen nicht mehr unterscheiden, weil die Wasseroberfläche unruhig erscheint: Die beiden Wellen haben unterschiedliche Phasen; teilweise neutralisieren sie einander, teilweise verstärken sie sich gegenseitig. Mit Hilfe eines Messgerätes könnte man sie immer noch genau auseinander halten.
64
2 Distribution und Empfangswege
Möchte man eine Welle zum Transport von Informationen verwenden, stehen dafür drei verschiedene Basismethoden zur Verfügung, die Frequenzmodulation (FM), die Amplitudenmodulation (AM) und die Phasenmodulation (PM). AM ist technisch gesehen das älteste und einfachste Verfahren, bei dem die Schwingungshöhe der Trägerfrequenz verändert wird. Es ist relativ störanfällig und hat keinen guten Wirkungsgrad, wie sich jeder überzeugen kann, der ein Mittelwellen-Radio besitzt. Die Tonqualität ist jener im UKW-Bereich, der mit FM arbeitet, weit unterlegen. Die Frequenzmodulation wiederum beeinflusst bei gleichbleibender Amplitude die Anzahl der Schwingungen pro Sekunde und ist gegen Störungen vergleichsweise unempfindlich. Zur Übermittlung von Informationen benötigt man also mehrere, dicht beieinander liegende Frequenzen, ein Frequenzband. Der Umfang und damit auch die Leistungsfähigkeit eines Frequenzbandes wird mit seiner Bandbreite angegeben; ein Fernsehkanal hat z.B. eine Bandbreite von 7 MHz (7 Megahertz bzw. 7 Mio. Hz). Reicht er beispielsweise von 174 bis 181 MHz, können alle Frequenzen zwischen diesen beiden Grenzwerten zur Aufmodulierung von Informationen benutzt werden. Abbildung 4:
Modulationsverfahren AM, FM und PM
Quelle: Wikipedia
65
2.1 Frequenzen
Die Phasenmodulation ist schließlich die dritte und neueste Methode, eine Schwingung mit Daten zu beladen. Dabei werden Wellenberge und -täler gegeneinander versetzt. Wo bei unmoduliertem Verlauf der Schwingung auf einen Wellenberg jeweils ein Wellental folgt, können bei einer Phasenverschiebung z.B. zwei Wellenberge direkt aneinander stoßen. Je nach dem Wellen-Versatz, der in Grad angegeben wird, sind die verschiedensten Zwischenstadien möglich; das Ergebnis kann dann eine Schwingung mit scheinbar ungleichmäßigem Verlauf sein, die unter Umständen so ähnlich aussieht wie der Pulsschlag auf einem Herzmonitor. Ein bekanntes Beispiel für Phasenmodulation ist die Übertragung von Faxen über das Telefonnetz; das Rauschen oder Pfeifen, das man an vielen Faxgeräten und analogen Modems während des Verbindungsaufbaus hören kann, ist der akustische Ausdruck dieser Technik. Zur Maximierung der Informationsdichte, die man auf einem Frequenzband übertragen kann, verwenden moderne Übertragungsverfahren oft auch Kombinationen aus mehreren Modulationstechniken, so z.B. die Quadraturamplitudenmodulation (QAM) oder QPSK (Quadrature Phase Shift Keying), die unter anderem beim digitalen terrestrischen Fernsehen zum Einsatz kommen. Es gilt die Faustregel, dass mit steigender Frequenz auf einer Schwingung desto mehr Informationen übertragen werden können. Denn wenn pro Sekunde nur 1.000 Schwingungen (Kilohertz, KHz) zur Verfügung stehen, gibt es weniger Gelegenheiten, die Welle zu modulieren, als wenn eine Milliarde Schwingungen (Gigahertz, GHz) verwendet werden können. Andererseits erhöht sich mit der Hertz-Anzahl die Störungsanfälligkeit eines Signals; hochfrequente Übertragungen funktionieren daher am besten bei kurzen Wegen zwischen Sender und Empfänger und im Raum (z.B. bei Mobilfunk und Satelliten). Tabelle 2: Frequenzbereiche (Auswahl) in MHz DSL Fernsehen (Terrestrik/Kabel) GSM
0,138-12 47-854 824-1.990
UMTS
1.900-2.170
WLAN/Bluetooth
2.402-2.480
Satelliten-TV Licht
10.700-12.750 462 Mio.-714 Mio.
66
2 Distribution und Empfangswege
Für die Trägerschwingung ist es zunächst einmal gleichgültig, ob sie mit analogen oder digitalen Signalen moduliert wird; sie ist im Prinzip immer die gleiche. Im Digitalbereich besteht die Information statt aus einer Art Abbildung der Wirklichkeit lediglich aus Nullen und Einsen. Die Anzahl der zur Signalübertragung geeigneten Frequenzen kann auch nicht beliebig gesteigert werden. Zwar erlauben empfindlichere Empfangsgeräte und verbesserte Übertragungstechniken immer wieder den Vorstoß in neue Frequenzbereiche, aber dieser Expansion sind technische und organisatorische Grenzen gesetzt. Bestimmte Frequenzbänder sind z.B. für spezielle Anwendungen wie Polizeifunk, Militär, Flugsicherung, Navigationssysteme oder Mobiltelefonie reserviert; außerdem müssen Störungen aller Art vermieden werden. Das gilt sowohl für verschiedene Datenübertragungstechniken untereinander (Interferenzen) als auch für den Einfluss von elektromagnetischen Wellen auf andere elektronische Geräte (daher das HandyVerbot in Flugzeugen und Krankenhäusern) und natürlich auf die Gesundheit des Menschen (Elektrosmog). Besonders knapp sind Funkfrequenzen aller Art, da diese naturgemäß im Gegensatz zu kabelgebundenen Verfahren nicht ohne weiteres von ihrer Umgebung abgeschirmt werden können. Dadurch dringen sie innerhalb ihrer Reichweite praktisch überall hin vor, und es besteht außerdem die Gefahr, dass sie sich mit den Signalen benachbarter Sendeanlagen überlappen. Aus diesen Gründen werden Frequenzbereiche von staatlichen Stellen vergeben (man erinnere sich nur an die Versteigerung der deutschen UMTS-Frequenzen im Jahr 2000) und von der International Telecommunication Union (ITU) zwischen den Nationen abgestimmt. Funksignale auf der Kurzwelle werden von bestimmten Atmosphäreschichten reflektiert und können deshalb auf der ganzen Welt empfangen werden, und die Ausleuchtzonen (Footprints) von Satelliten erreichen oft mehrere Kontinente auf einmal. Ultrakurz- und Mikrowellenanwendungen benötigen dagegen eine – zumindest virtuelle – Sichtverbindung zwischen Sender und Empfänger; ihre Reichweite endet abhängig von der jeweiligen Sende-Energie spätestens an dem von der Antenne aus sichtbaren Horizont. Der Zugewinn an Kanälen, den digitales Fernsehen ermöglicht, ist demnach keineswegs hauptsächlich in einer Erweiterung der verfügbaren Frequenzen begründet, sondern durch den Einsatz von zwei Techniken: Zum einen der digitalen Datenreduktion, und zum anderen dem Multiplexing. Dazu nimmt man ein existierendes Frequenzband, z.B. einen 7 MHz breiten analogen terrestrischen Fernsehkanal, und moduliert ihn statt mit analogen nunmehr mit digitalen Informationen. Auf diese Weise kann auf den 7 MHz je nach örtlichen Bedingungen und eingestellten Parametern eine Datenrate von 12 bis 20 Mbit/s übertragen werden. In dieses breitbandige Signal werden nun mehrere verschiedene, voneinander unabhängige Datenströme, sprich: mehrere TV-Programme gleichzei-
2.2 Satellit
67
tig, hineingepackt. Im TV-Bereich ist dabei das Frequenzmultiplex-Verfahren gebräuchlich, bei dem ein breites Frequenzband in mehrere schmale aufgeteilt wird, ähnlich den Fahrstreifen auf einer mehrspurigen Straße. Eine Alternative dazu ist der Zeitmultiplex, der vor allem bei Video-Übertragungen an mobile Endgeräte (z.B. DVB-H) verwendet wird. Bei dieser Technik werden die verschiedenen Datenströme auf einem gemeinsamen Frequenzband in schneller Reihenfolge abwechselnd gesendet. Damit ist auf Sender- wie auch auf Empfängerseite ein technischer Zusatzaufwand verbunden. Die Programme müssen zunächst mit einem Multiplexer (auch kurz Muxer genannt) ineinander verschachtelt werden, um dann am Ziel mit einem Demultiplexer wieder voneinander getrennt zu werden. Somit werden beim digitalen Fernsehen auf einer eingestellten Frequenz in aller Regel mehrere Sender gleichzeitig empfangen, von denen die Elektronik wiederum einen herausfiltert und auf dem Bildschirm darstellt bzw. aufzeichnet. Besonders leistungsfähige Geräte mit schnellen Prozessoren sind aber sogar in der Lage, alle Datenströme eines bestimmten Multiplexes gleichzeitig voneinander zu isolieren und auszugeben. Damit reicht ein Empfangsgerät aus, um vier oder mehr Sender gleichzeitig zu sehen – z.B. auf mehreren Fernsehern oder zur simultanen Aufzeichnung. Die Plattform-Betreiber vergeben häufig einen Multiplex komplett an einen Betreiber, d.h. eine Sendergruppe, damit diese bei Bedarf die Datenraten ihrer verschieden Programmangebote anpassen (Bitratenmanagement; vgl. Kap.1.3.3) und ggf. selber die Einspeisung des gesamten Transportsignals übernehmen kann.
2.2 Satellit Fernsehsatelliten übernehmen die unterschiedlichsten Aufgaben. Sie dienen der Übermittlung von TV-Beiträgen oder Live-Sendungen zwischen Fernsehunternehmen, überbrücken den Weg vom Übertragungswagen in die Sendezentrale und werden zur Einspeisung von Fernsehsendern in Kabelnetze eingesetzt. Ihre größte kommerzielle Bedeutung für den TV-Bereich erhalten sie jedoch als Distributionsmedium für Fernsehprogramme unmittelbar an die Privathaushalte (Direct-to-Household, DTH). Für den Konsumentenmarkt sind unbedingt geostationäre Satelliten erforderlich, die einen festen Platz an der immer gleichen Stelle in knapp 36.000 km Höhe über dem Äquator einnehmen, denn nur diese eignen sich für den Empfang mit einer fest installierten Parabolantenne; bei anders positionierten Satelliten muss die Antenne der Flugbahn ständig nachgeführt werden. Das führt dazu, dass die Zahl geeigneter Positionen in der Erdumlaufbahn durchaus begrenzt ist. Durch eine Gradzahl wird angegeben, wo genau sich der Satellit
68
2 Distribution und Empfangswege
befindet. Der Wert 19,2° Ost, die Position vieler Satelliten der in Europa marktführenden Astra-Familie, drückt aus, dass sich der künstliche Flugkörper über dem Kongo befindet, nämlich in einem Winkel von 19,2 Grad östlich vom NullLängengrad, der durch das nahe Londons gelegene Greenwich verläuft – von Frankfurt am Main aus findet man ihn also in süd-südöstlicher Richtung (Blickrichtung München) in einem Winkel von knapp 32 Grad Höhe. Die Satellitenantennen müssen dementsprechend recht genau ausgerichtet werden. Je weiter südlich, desto steiler blicken die Schüsseln in den Himmel, im Norden stehen sie dagegen in einem flacheren Winkel. Satelliten verwenden zur Übertragung sogenannte Transponder (kurz für Transmitter und Responder), d.h. Geräte, die ein von der Erde aus zugeliefertes Signal (Uplink) empfangen und wieder zurückstrahlen (Downlink). Pro Transponder steht gewöhnlich eine Bandbreite von 27-36 MHz zur Verfügung, die für ein analoges Fernsehprogramm oder einen digitalen Multiplex mit im Schnitt acht bis zehn, im Extremfall bis zu 20 SDTV-Kanälen ausreicht. Diese Bündelung von Fernsehprogrammen bringt ein logistisches Problem mit sich: Sofern ein Fernsehveranstalter einen vollständigen Transponder gemietet hat, ist er prinzipiell in der Lage, das Uplink selbst zu betreiben, also direkt am Senderstandort eine Parabolantenne auf den Satelliten auszurichten und seine Programme direkt einzuspeisen. Wenn aber der Transponder unter mehreren TVUnternehmen aufgeteilt wird, ist ein zentrales Uplink erforderlich. Da der Satellitenkanal trotz seines vielfältigen Inhaltes aus einem einzigen Datenstrom besteht, müssen alle zugelieferten Einzelsignale durch einen gemeinsamen Multiplexer aufbereitet werden; es ist unmöglich, verschiedene Teilbereiche eines Transponders von unterschiedlichen Orten aus ins All zu schicken. Aus diesem Grund betreiben die Satelliten-Anbieter jeweils eigene Uplink-Plattformen, an denen sie Fernsehkanäle sammeln und ausstrahlen. Astra hat solche Uplink-Standorte (auch Erdfunkstellen genannt) z.B. am Firmensitz im luxemburgischen Betzdorf und in München-Unterföhring, die Deutsche Telekom im hessischen Usingen und Eutelsat in Rambouillet bei Paris. Das bedeutet, dass Fernsehsender, die nicht in der Nähe des für sie geeigneten Uplinks angesiedelt sind, ihr Sendesignal unter Umständen über Hunderte Kilometer per Leitung anliefern müssen. Technisch bereitet das keine Schwierigkeiten, ist aber mit zusätzlichen Kosten verbunden. Für die Wahl des Transponders kann daher auch der Unternehmenssitz bzw. die nächste erreichbare Erdfunkstelle von Bedeutung sein. Der für den DTH-Bereich wichtigste Satellitenbetreiber ist die bereits erwähnte SES-Astra in Luxemburg, die mit ihren derzeit zehn geostationären Astra-Satelliten unangefochtener Marktführer ist. Dafür gibt es mehrere Gründe: Nachdem die Fernsehsatellitentechnik ursprünglich vor allem für professionelle Anwendungen konzipiert worden war, gehörte Astra zu den ersten, die Mitte der
2.2 Satellit
69
achtziger Jahre das Potential des Fernsehdirektempfangs aus dem All erkannten. Als Konsequenz daraus setzte das Unternehmen auf relativ hohe Sendeleistungen, so dass in Mitteleuropa schon kleine Parabolantennen mit nur 50 cm Durchmesser zum Empfang ausreichten. Außerdem gelang es frühzeitig, die wichtigsten britischen und deutschen Privatsender unter Vertrag zu nehmen – mit dem entsprechenden Nachzieh-Effekt für kleinere Veranstalter. Wichtigster Konkurrent ist der französische Anbieter Eutelsat, dessen unter den Namen Hotbird und Eurobird firmierende Satellitenfamilie aber – zumindest auf dem deutschen Markt – weniger für den Direktempfang als für die Einspeisung in Kabelkopfstationen eine Rolle spielt. Unangefochten die Nummer eins sind Fernsehsatelliten im Hinblick auf die Programmauswahl; aus dem Orbit können tatsächlich mehrere tausend TVKanäle empfangen werden, von denen die überwiegende Mehrheit freilich für das deutsche Publikum irrelevant ist, da es sich um Fremdsprachen-Angebote, ausländisches Pay-TV und firmeninterne Sendungen handelt. Gleichwohl sprechen gute Gründe für die Anschaffung einer SAT-Anlage in Privathaushalten: In ländlichen Regionen, in denen sich der Aufbau einer Kabelnetz-Infrastruktur nicht lohnt, kann man nur auf diesem Wege an der modernen Kanalvielfalt teilhaben und praktisch alle relevanten Sender empfangen. Selbst ein Anbieter wie kabel eins, der, wie der Name schon andeutet, zunächst als reines Kabelfernsehen gestartet war, hat sich schon nach sehr kurzer Zeit auch über Satellit verbreiten lassen. Außerdem fallen nach dem Anschaffungspreis für die laufende Nutzung im Gegensatz zum Kabel bis dato keine oder zumindest nur geringere weitere Kosten an. 39,9 Prozent aller deutschen Fernsehhaushalte hatten sich daher am Stichtag 1. Januar 2006 für diese Technik entschieden, bei weiterhin leicht steigender Tendenz (Quelle: AGF). Der Satellitenempfang ersetzt dabei in erster Linie das Fernsehen über Antenne, während er dem Kabel kaum Marktanteile abnehmen kann. Zu den Nachteilen des Satellitenfernsehens gehört, dass es die Installation einer Parabolantenne an einer geeigneten Stelle mit freier Sicht auf den südlichen Himmel erfordert. Aufgrund von baulichen Gegebenheiten oder Eigenschaften der Landschaft ist das mitunter schwierig – vor allem in Städten und in TalLagen. Vermieter von ans Kabel angeschlossenen Wohnungen gestatten die Montage einer Schüssel meist nicht, und Wettereinflüsse können die Bildqualität mitunter beeinträchtigen. Besonders unpraktisch ist für die Haushalte aber eine spezielle technische Eigenschaft des Satellitenfernsehens. Bei Kabel und Antenne sind auf der jeweiligen hausinternen Anschlussleitung stets alle empfangbaren Programme gleichzeitig vorhanden und man kann prinzipiell beliebig viele Endgeräte anschließen. Das bedeutet, es ist z.B. möglich, einen Sender anzusehen, während gleichzeitig ein zweiter mit dem Videorecorder aufgezeichnet wird. Bei
70
2 Distribution und Empfangswege
entsprechender Verkabelung können unabhängig davon weitere Endgeräte im Kinder- oder Schlafzimmer betrieben werden. Bei der Satellitentechnik ist das anders. Aufgrund ihrer großen Entfernung zur Erde und des riesigen Gebietes, das sie bestrahlen, kommt von Satelliten nur ein äußerst schwaches Signal beim Nutzer an. Um dennoch eine zuverlässige Qualität mit möglichst geringen atmosphärischen Störungen zu erreichen, senden die künstlichen Erdtrabanten im Mikrowellen-Bereich zwischen 10 und 13 GHz. Für so hohe Frequenzen ist ein normales Kupferkabel jedoch aus physikalischen Gründen ungeeignet. Um also das Signal von der Schüssel überhaupt zum Empfangsgerät transportieren zu können, muss es deshalb sofort in eine weitaus niedrigere sogenannte Zwischenfrequenz (ZF) umgewandelt werden. Das geschieht mit dem LNB (Low Noise Block Converter), der im Brennpunkt der Parabolantenne montiert wird. Aufgrund der gewaltigen Bandbreite, die für SAT-Übertragungen genutzt wird, ist es technisch aber sehr aufwändig und zum Teil unmöglich, das gesamte Frequenzspektrum gleichzeitig zu konvertieren. Im Gegensatz zu den anderen Empfangstechniken, bei denen erst der Receiver selbst aus der Menge aller verfügbaren Sender den richtigen herausfiltert, findet bei der Satellitentechnik die Auswahl eines Ausschnittes aus allen verfügbaren Frequenzen bereits im LNB statt, der vom angeschlossenen Receiver gewissermaßen ferngesteuert wird. Aus diesem Grund benötigt jedes Endgerät einen eigenen, direkten Anschluss an die Schüssel. Die Verkabelung innerhalb eines Haushaltes wird dadurch erheblich aufwändiger. Anstelle einer Baum-Topologie wie beim analogen Kabelfernsehen benötigt man eine sternförmige Struktur. Ein weiteres Problem besteht darin, dass es nur sehr wenige Endgeräte, d.h. vor allem Fernseher und Videorecorder, mit eingebautem Satellitentuner gibt. Dadurch ist man gezwungen, für jedes TV-Gerät und jeden Recorder einen separaten SAT-Receiver anzuschaffen. Allerdings setzen sich neuerdings Receiver mit eingebautem Festplatten-Videorecorder durch, so dass der Gerätepark langsam wieder kleiner werden kann. Aus der Sicht der Fernsehunternehmen ist die Distribution über Satellit aufgrund des großen Zuschauerpotentials unverzichtbar und zudem preisgünstig. Im Idealfall belegt ein Sender im Simulcast-Betrieb sowohl einen analogen Transponder als auch einen digitalen Slot, um alle SAT-Haushalte zu erreichen. Weil sie auf dem Satelliten so viel Platz exklusiv belegt, ist die analoge Ausstrahlung mit 3-6 Mio. Euro pro Jahr nicht ganz billig, erreicht dafür aber immer noch rund 60 Prozent der insgesamt rund 14 Mio. deutschen Haushalte mit SatellitenDirektempfang. Das hängt damit zusammen, dass Digitalreceiver erst seit dem Jahr 2000 begonnen haben, sich durchzusetzen; Haushalte, die vorher eingestiegen sind und deren Altgeräte noch funktionieren, stellen erst nach und nach auf die neue Technik um. Spätestens seit 2003 sind analoge Receiver praktisch völ-
2.3 Kabelfernsehen
71
lig vom Markt verschwunden, d.h. alle Haushalte, die neu dazukommen oder modernisieren, empfangen automatisch digital. Auf diese Weise verlieren die analogen Transponder schrittweise ihre Zuschauerschaft und werden wahrscheinlich spätestens im Jahr 2010 völlig abgeschaltet. Die Investition in einen digitalen Slot innerhalb eines Multiplexes ist daher für die Sender besonders lohnend: Er kostet nur rund 10-20 Prozent des analogen Preises, und eine sukzessive Vergrößerung des Publikums ist praktisch eingebaut. Pro erreichtem Haushalt ergeben sich auf heutigem Stand im analogen Bereich Kosten von ca. 40 Cent pro Jahr, beim Digitalempfang sind es dagegen lediglich um die 14-20 Cent, und das Verhältnis verschiebt sich laufend zugunsten der Digital-Distribution. Der genaue Preis hängt davon ab, welche Datenrate ein Sender beansprucht. Die Abrechnung erfolgt nämlich nach dem Platz, den ein TV-Kanal innerhalb eines Multiplexes belegt – Ausstrahlungen, bei denen es auf besonders hohe Bildqualität ankommt (z.B. aktuelle Spielfilme oder Sportübertragungen) oder die in HDTV vorgenommen werden, sind teurer, einfachere Angebote (z.B. Cartoons, Filmklassiker, Nachrichtenkanäle) entsprechend billiger.
2.3 Kabelfernsehen Das Kabelfernsehen war noch vor der Satellitentechnik ausschlaggebend für die Einführung von privatem Fernsehen in Deutschland. Nachdem bereits ab Ende der siebziger Jahre der politische Wille spürbar war, das Medium auch kommerziell zu nutzen, scheiterte das Vorhaben zunächst vor allem am Engpass der Antennenfrequenzen, da das kleine verfügbare Spektrum, das im Durchschnitt lediglich vier bis sechs analoge Programme zuließ, bereits mehr oder weniger vollständig von den öffentlich-rechtlichen Anstalten belegt war. Es musste also erst einmal eine geeignete Infrastruktur für die TV-Distribution geschaffen werden. DTH-Satelliten waren noch nicht erfunden, und selbst professionelle Fernsehanwendungen über Satellit waren erst gegen Ende der achtziger Jahre völlig ausgereift. An digitale Übertragung, mit der man die terrestrischen Kapazitäten hätte erweitern können, war nicht einmal zu denken, denn dafür benötigte Basistechnologien befanden sich noch in den Kinderschuhen: Der PC begann sich erst ab 1981 langsam auf den Markt durchzusetzen, und das Internet war sogar noch bis in die Mitte der neunziger Jahre hinein bestenfalls ein technisches und wissenschaftliches Kommunikationsmittel, aber kein Massenmedium. Die heute selbstverständliche Browser-Technologie, die komfortable Benutzeroberfläche für das World Wide Web, wurde erst 1989 entwickelt – zunächst ebenfalls eher zu wissenschaftlichen Zwecken.
72
2 Distribution und Empfangswege
Die erprobte Technologie jedoch, die unter anderem in den USA bereits seit langer Zeit im Einsatz war, hieß Kabelfernsehen. Die Deutsche Bundespost, seinerzeit noch eine staatliche Behörde mit dem Monopol für Post und Paketdienste, Telefon, Funk und alle sonstigen Telekommunikationsverfahren, erhielt den Auftrag, innerhalb eines Jahrzehnts möglichst allen Haushalten Westdeutschlands die Option eines TV-Kabel-Anschlusses zu verschaffen. Die Kosten wurden damals auf 50 Mrd. DM geschätzt (Quelle: Hickethier 1998), was eine eher konservative Annahme gewesen sein dürfte. Die heute üblichen Internet-Zugänge nutzen überwiegend die vorhandene Infrastruktur des Telefonnetzes, so dass ein Netzausbau nur auf Seiten des Backbones erforderlich ist, d.h. der bandbreitenstarken Leitung, welche die Daten vieler Nutzer von der Ortsvermittlungsstelle ins Internet zusammenfaßt. An der „letzten Meile“, d.h. der Teilnehmeranschlussleitung (TAL) von der Ortsvermittlungsstelle in den Haushalt, die praktisch überall vorhanden ist, braucht dazu nichts verändert zu werden. Nicht zuletzt aus diesem Grund sind InternetAnschlüsse für Privatpersonen recht preiswert zu haben. Anders beim Fernsehkabel: Im Grunde wurde parallel zum Telefonnetz eine komplettes zweites Netzwerk aufgebaut, dessen Verlegung Bauarbeiten auf der Straße und in den Haushalten erforderlich machte. Der finanzielle und organisatorische Aufwand war so hoch, dass selbst bis heute nur dicht besiedelte Regionen über Kabelfernsehen verfügen. Auch Vermieter und Bevölkerung reagierten zunächst sehr zögerlich, weil sie die nötigen Umbaumaßnahmen scheuten und dem noch ungewohnten Privatfernsehen skeptisch gegenüberstanden. Dennoch trieb die Bundespost den Netzausbau zügig voran. Finanziert wurde das Ganze zum Teil durch einen Aufschlag auf die Rundfunkgebühren, den „Kabelgroschen“ in Höhe von 20 Pfennig, aber auch durch die Monopolgewinne der Post. Das ist ein sehr wichtiger und interessanter Umstand: Die vermutlich rund 100-120 Mrd. DM, die in den achtziger und frühen neunziger Jahren insgesamt für die Verkabelung der Republik ausgegeben worden sind, wurden von der Öffentlichkeit finanziert, nicht etwa durch private Investoren. Es handelt sich mithin um eine gewaltige Infrastruktur-Subvention für die gesamte Privatfernseh-Branche, für die auf diesem Wege überhaupt erst eine Geschäftsgrundlage geschaffen wurde. Und noch eine zweite Hypothek, die bis heute weiter lastet, wurde damals aufgenommen, nämlich die Trennung der Netzebenen (NE) im Kabel. Die NE 1 und 2 beschreiben dabei die Verteilung eines Broadcast-Signals von seiner Produktion bis zu den Kabelkopfstationen. Netzebene 3 wiederum überträgt von dort aus bis an die Grundstücksgrenze eines Kabelkunden, während auf der NE 4 die Weiterleitung innerhalb eines Hauses bzw. eines Wohnblocks erfolgt. Die Einführung des Kabelfernsehens rief nämlich zwei Branchen auf den Plan, die
73
2.3 Kabelfernsehen
sich von dem neuen Transportmedium bedroht sahen bzw. an seiner Implementierung mitverdienen wollten: Antennenbauer und Wohnungswirtschaft. In der Folge gestand die Post diesen Interessengruppen zu, dass sie die Netzebene 4 nur auf ausdrücklichen Wunsch des jeweiligen Grundstückseigentümers bedienen würde; in allen anderen Fällen konnten Vermieter, Hausgemeinschaften, lokale Elektriker und andere kleine und mittelständische Betriebe in eigener Regie arbeiten. Die Post, später dann deren privatisierter Nachfolger, die Deutsche Telekom AG, trat in diesen Fällen lediglich als eine Art Großhändler für Fernsehprogramme auf, während die direkten Kundenbeziehungen bei den örtlichen NE-4-Betreibern angesiedelt wurden. Zugleich waren diese als Erbauer und Betreiber der „letzten Meile“ auch deren Eigentümer. Aus kartellrechtlichen Gründen, aber auch zum Abbau ihrer Schulden, musste die Deutsche Telekom ab 1999 ihr Fernsehkabelnetz an private Investoren verkaufen. Heute existieren drei große, überregionale NE-3-Betreiber, die jeweils ein Gebietsmonopol haben und 17,4 Mio. Haushalte direkt oder indirekt mit Fernsehen versorgen: Unity Media in Nordrhein-Westfalen und Hessen, Kabel BW in Baden-Württemberg und die Kabel Deutschland GmbH (KDG) im Rest der Nation. Diese Giganten haben aber nur zu rund einem Drittel der von ihnen belieferten Haushalte direkte Kundenbeziehungen, während die übrigen von eigenständigen NE-4-Betreibern bedient werden. Hinzu kommen noch etwa 3,5 Mio. weitere Kabelkunden, deren Provider die Fernsehprogramme unabhängig von den NE-3-Betreibern beziehen, d.h. in der Regel über Satellit. Abbildung 5:
Struktur des deutschen Kabelfernsehnetzes 2004
NE-3-Betreiber (KDG, Unity, Kabel BW): 17,4 Mio. HH
Direktkunden der NE-3-Betreiber: 5,7 Mio. HH
Wohnungswirtschaft: 7,3 Mio. HH
NE-4Betreiberfirmen: 4,4, Mio. HH
NE-4Betreiber mit unabh. Signalzuführung: 3,5 Mio. HH
Quelle: Solon Management Consulting Der Aufbau des konventionellen Kabelnetzes folgt einer Baumstruktur: Vom Einspeisungspunkt, der Kabelkopfstation, verzweigt sich das Netz immer weiter bis in die Privathaushalte; auf dem Weg müssen lediglich Verstärker zwischen-
74
2 Distribution und Empfangswege
geschaltet werden. Als Breitbandverteilnetz ist es eine Einbahnstraße: Die Signale fließen auf einem Kupferkoaxialkabel vom Sender zum Empfänger. Wie viele Programme gleichzeitig übertragen werden können, hängt dabei vor allem von den verwendeten Endgeräten ab. Während der Einführung des Kabelfernsehens waren alle TV-Geräte jeweils nur mit Tunern für den terrestrischen Empfang ausgestattet, so dass sie Programme auf Sonderkanälen, also Frequenzbändern, die für das per Funk übertragene Fernsehen gesperrt sind, nicht verarbeiten konnten. Sehr bald kamen jedoch kabeltaugliche Endgeräte auf den Markt, die für das bis heute gebräuchliche Spektrum zwischen 47 und 470 MHz (Hyperband) geeignet sind. Damit ist es möglich, neben einer Vielzahl von Radiosendern rund 35 Fernsehprogramme auf jeweils 7 MHz breiten Kanälen analog auszustrahlen. Bis in die Gegenwart besteht die Standardausstattung von Fernsehern und Videorecordern aus Tunern, die auf dieses Spektrum ausgelegt sind. Selbstverständlich eignet sich das Hyperband-Kabel auch für digitale Multiplexe – aber eben nur um den Preis der Abschaltung von analogen Programmangeboten. Daran haben aber zu Zeit noch weder die Konsumenten, noch die Sender oder die Kabelnetzbetreiber ein Interesse, denn am Jahresanfang 2006 empfingen 55,5 Prozent aller Haushalte ihr TV-Programm über das Kabel (Quelle: AGF) – und zwar beinahe ausschließlich im analogen Bereich. Nach heutigem Stand der Dinge würde ein Sender bei Verlust seines Kabelplatzes also mit einem Schlag mehr als die Hälfte seines Publikums und damit in der Regel auch seiner Werbeerlöse verlieren. Die Vorteile des Kabels liegen auf der Hand: Zwar ist die Kanalauswahl kleiner als beim Satelliten, wird aber vom größten Teil des Publikums als durchaus ausreichend empfunden. Außerdem können sämtliche vorhandenen Geräte problemlos genutzt werden; an einen Anschluss lassen sich ohne weiteres mehrere Empfänger anschließen, die jeweils auf verschiedene Programme eingestellt sind. Dadurch ist es möglich, in einem Haushalt gleichzeitig verschiedene Sender anzusehen bzw. aufzuzeichnen. Die Bildqualität im Kabel ist im allgemeinen sehr gut und wenig anfällig für Störungen. Da ferner im Gegensatz zum SATEmpfang keine weiteren Installationen erforderlich sind und die Vermieter in den Städten das Kabelfernsehen unterstützen, fallen die laufenden Gebühren nicht so entscheidend ins Gewicht. Pro Haushalt fallen monatlich zwischen 5 und 20 Euro an, wobei die genaue Höhe davon abhängt, ob es sich um einen Einzelanschluss (z.B. für ein Einfamilienhaus) oder um eine Wohnanlage mit vielen angeschlossenen Einheiten handelt. Oftmals wird das Kabelfernsehen in Mietwohnungen ohnehin über die Nebenkosten abgerechnet, so dass die Gebühren einerseits eher unauffällig entrichtet werden (zumindest ohne dass der Mieter selbst die Initiative ergreifen muss) und die Bewohner zugleich automatisch auf die Empfangsebene Kabel festgelegt sind. Der Wechsel auf eine andere Platt-
2.3 Kabelfernsehen
75
form ist dann fast unmöglich, und die Kundenbasis des Kabels wird auf diese Weise stabilisiert. Für die Fernsehunternehmen stellt das analoge Kabel folglich bislang die wichtigste Verbreitungsplattform dar, bei dem die Nachfrage der Sender regelmäßig das Angebot übersteigt und die Landesmedienanstalten deshalb regulierend eingreifen müssen. Denn im Kabel ist das einzelne TV-Programm zwar einer durchaus starken, aber immerhin überschaubaren Konkurrenz ausgesetzt und dringt in die Mehrheit aller Haushalte vor. Dafür sind jedoch nicht nur monatliche Nutzungsgebühren der Konsumenten, sondern auch Einspeisungsentgelte der Sender fällig: Die bundesweite Distribution kostet pro Kanal zwischen 4 und 5 Mio. Euro pro Jahr. Umgerechnet auf den einzelnen Empfangshaushalt sind das rund 20 Cent jährlich – also etwa das Preisniveau der digitalen Satelliten. Auch aus der Perspektive der Kabelbetreiber ist die baldige komplette oder teilweise Abschaltung der analogen Ausstrahlung derzeit noch keine sinnvolle Option – nicht nur müssten sie auf die entsprechenden Einnahmen von den Sendern verzichten, sondern das Kabel würde auch für die Verbraucher an Attraktivität verlieren. Ohnehin ist bei der Akzeptanz dieser Plattform bestenfalls eine Stagnation zu erkennen; seinen Scheitelpunkt hat das Kabelfernsehen bereits 1996 überschritten, als es 59,6 Prozent der Haushalte mit Fernsehen versorgte (Quelle: AGF). Die Kabelnetz-Provider haben sich daher vier Ziele auf die Fahnen geschrieben: Erstens möchten sie prinzipiell die Nachfrage aller zahlungswilligen Sender nach Distribution befriedigen. Zweitens versuchen sie die Konsumenten schrittweise an das Digitalfernsehen heranzuführen, unter anderem indem sie – drittens – neue inhaltliche Angebote lancieren, die das Kabel besonders attraktiv machen. Und viertens schließlich streben sie an, mit ihrem bestehenden Netz zusätzliche Erlösquellen zu erschließen.
2.3.1 Kabelnetz-Infrastruktur Die erste dazu geeignete Maßnahme ist die Aufrüstung der Netz-Infrastruktur. Dazu gibt es zwei grundlegende Optionen: Es ist möglich, einfach nur die Übertragungskapazität des Breitbandverteilnetzes zu erhöhen, also die Einbahnstraßen-Topologie beizubehalten. Die im Kabel möglichen Frequenzen reichen bis zu maximal 862 MHz, was fast einer Verdoppelung des bisherigen Übertragungspotentials entspricht. Wenn man nun die dadurch neu verfügbaren Kanäle gar nicht erst für analoge Programme freigibt, sondern gleich für digitale reserviert, eröffnet sich ein dreistelliges Potential für zusätzliche Sender, ohne dass der Empfang der eingefahrenen analogen Angebote dadurch beeinträchtigt wür-
76
2 Distribution und Empfangswege
de. Nach dem in der Zukunft irgendwann anstehenden völligen Verzicht auf analoge Ausstrahlung öffnen sich dann weitere Slots, welche die Gesamtkapazität des Kabels auf bis zu 500 Programme erhöhen. Dieser Ausbau ist für die Netzbetreiber relativ preiswert zu haben, weil dafür keine grundlegende bauliche und technische Veränderung der Infrastruktur erforderlich ist, sondern nur die Aufrüstung der Verteiler- und Verstärkertechnik. Die Investitionen halten sich also auf beiden Netzebenen in Grenzen, so dass auch kleine NE-4-Betreiber finanziell nicht überfordert werden. Die andere Option entspricht schon eher den Zukunftsvisionen der KabelProvider, ist aber wesentlich aufwändiger: Der Umbau zu einem Breitbandvermittlungsnetz, d.h. zu einem Kommunikationsnetz mit Rückkanal, vergleichbar dem Telefonnetz. Nur mit Hilfe einer solchen Infrastruktur ist Triple Play möglich, nämlich das Angebot von Fernsehen, Telefonie und Internetzugang aus einer Hand. Nur in einem solchen Netz ist auch echtes Video-on-Demand realisierbar, bei dem der Kunde einen Film oder ein anderes TV-Programmangebot zu jedem beliebigen Zeitpunkt individuell bestellen kann und zur Verfügung gestellt bekommt. Eine solche Strategie setzt darauf, langfristig einen wesentlich höheren Umsatz pro Kunden (ARPU, Average Revenue per Unit) zu erzielen, weil mehr und höherwertige Leistungen angeboten werden können. Die Schwierigkeit besteht aber darin, dass mehr oder weniger die gesamte technische Ausstattung des vorhandenen Netzes umgekrempelt werden muss. Denn nun sind nicht nur völlig andere elektronische Apparaturen in den Kabelkopfstationen und lokalen Netzknoten erforderlich, sondern es drohen auch technologisch bedingte Kapazitätsengpässe. Das konventionelle Kabelnetz hat eine Übertragungskapazität von rund 40 Mbit/s. So lange es sich um ein Einwegverfahren handelt, kommt in jedem angeschlossenen Haushalt immer die gesamte Bandbreite an, und der Kunde kann sich mit seinem jeweiligen Tuner oder Receiver die ihn interessierenden Angebote herausfiltern. Dabei ist es im Grunde gleichgültig, ob analog oder digital gesendet wird; der einzige Unterschied besteht in der potentiell höheren Anzahl von Digitalprogrammen. Da es sich um ein Broadcast-Verfahren handelt, ist die Bandbreite von der Zahl der angeschlossenen Haushalte unabhängig. Werden neue Einheiten angeschlossen, braucht das Signal nur verstärkt zu werden. Rückkanalfähigkeit bedeutet aber, dass ein Nutzer unabhängig von allen anderen Kunden in seinem Anschlussbereich Dienste in Anspruch nehmen kann, d.h. einen Teil der Bandbreite exklusiv belegt. Wenn nun also z.B. zehn Kabelkunden gleichzeitig mit je 4 Mbit/s einen Spielfilm herunterladen, ist die verfügbare Kapazität bereits erschöpft – und zwar auf der gesamten Strecke zwischen dem Haushalt und der Kabelkopfstation. Alle übrigen an das selbe Head-End ange-
2.3 Kabelfernsehen
77
schlossenen Nutzer, deren Zahl bei der klassischen Infrastruktur durchaus in die Zehn- oder sogar Hunderttausende gehen kann, gehen leer aus. Folglich müssen zunächst zwei wesentliche Faktoren verändert werden: Die Kapazität der Leitungen an sich und die Größe der Cluster, d.h. die Anzahl der Einheiten, die von einem Netzknoten aus bedient werden. Wo man zuvor an eine Kabelkopfstation beliebig viele Haushalte anbinden konnte, müssen jetzt zwischen Head-End und Kunden zahlreiche Zwischenverteiler eingerichtet werden, damit sich immer nur eine begrenzte Anzahl von Haushalten die verfügbare Leistung teilt. Genau wie beim Telefonnetz und seinen DSL-Internetzugängen wird die „letzte Meile“ durch das nur begrenzt leistungsfähige Kupferkabel überbrückt, während von der lokalen Verteilstelle aus ein Glasfaserkabel mit einem Vielfachen der Übertragungskapazität die Daten weiterleitet. Der Fachbegriff dafür ist Hybrid-Fibre-Coax-Netz (kurz: HFC-Netz), also eine Struktur, die Glasfaser- und Kupferleitungen zusammenführt. Das Teure daran ist, dass die Netzknoten in der Regel neu gebaut bzw. eingerichtet und mit entsprechenden Routern ausgestattet werden müssen. Außerdem ist es erforderlich, sie mit Glasfaserkabeln an die Kopfstation und das Internet anzuschließen; auch diese Verbindungen müssen neu verlegt werden. Doch damit nicht genug: Es sind zusätzlich Installations- und Umbauarbeiten auf der Netzebene 4 erforderlich. Viele ältere hausinterne Verkabelungen halten den modernen Ansprüchen nicht mehr stand und müssen ersetzt werden, denn von jeder Wohnung bzw. jedem Anschluss aus geht nun – wie beim Telefon – eine eigene, exklusive Kabelleitung zum zuständigen Netzknoten. Das bedeutet, dass die NE-4-Betreiber in noch weitaus stärkerem Umfang als bei einer bloßen Erweiterung der Senderauswahl mitspielen müssen. Da in den meisten Fällen die Zuständigkeit der großen NE-3-Provider an der Grundstücksgrenze endet, lasten die Investitionen in die letzte Meile zum großen Teil auf der Wohnungswirtschaft und den kleinen Kabelfirmen. Oftmals haben diese jedoch entweder kein Interesse, dafür Geld auszugeben, oder verfügen schlicht nicht über das Kapital, mit der Entwicklung Schritt zu halten. Außerdem möchte die NE 4, wenn denn erst einmal die technischen Voraussetzungen geschaffen sind, an den neuen Angeboten mitverdienen, denn schließlich verfügt sie ja über die Endkundenbeziehung und kann daher nicht ohne weiteres umgangen werden. Wie man sich leicht vorstellen kann, macht das die praktische Abwicklung nicht unbedingt einfacher: Von der Ausstattung mit geeigneten Endgeräten über die Abrechnung von Abonnements und Einzeldienstleistungen – überall müssen Regelungen gefunden werden, wie alle beteiligten Parteien in die organisatorischen Abläufe und Zahlungsflüsse eingebunden werden können.
78
2 Distribution und Empfangswege
Tabelle 3: Rückkanalfähiger Ausbau der Kabelnetze Ende 2005 rückkanalfähige HH NE-3-Betreiber KDG
versorgte HH
Anzahl
Anteil
10,0 Mio.
3,7 Mio.
37%
Kabel BW
2,3 Mio.
1,0 Mio.
43%
Unity
7,8 Mio.
1,74 Mio.
22%
20,1 Mio.
6,44 Mio.
32%
gesamt
Quelle: Betreiberangaben und eigene Berechnungen
2.3.2 Bedingungen für die Kabeleinspeisung von TV-Programmen Die gleichen Rahmenbedingungen bei der Zusammenarbeit zwischen den Netzebenen gelten auch für die dritte Maßnahme zur Verbesserung der geschäftlichen Möglichkeiten des Fernsehkabels: Das Angebot von Pay-TV durch die Kabelfernsehunternehmen. Obgleich sie Privatunternehmen sind, dürfen die Provider jedoch nicht völlig frei über ihre eigenen Übertragungskapazitäten im Bereich des Fernsehens entscheiden. Die Vorschriften für den analogen Bereich sind dabei sehr restriktiv. Hier als typisches Beispiel die für Nordrhein-Westfalen geltenden Regelungen (§§ 18-21 LMG NW): Die für das jeweilige Bundesland bestimmten oder bundesweiten öffentlich-rechtlichen Analog-Programme (ARD, ZDF, Drittes Programm, 3sat, Phoenix, arte, Ki.Ka) müssen auf jeden Fall eingespeist werden. Für weitere 17 verfügbare Kanäle bestimmt die zuständige Landesmedienanstalt im Rahmen einer sogenannten Vorrangentscheidung, welche Sender darauf zu sehen sind (Must Carry), und erst der danach verbleibende Restbestand von rund zehn Kanälen steht zur freien Vergabe zur Verfügung. Auf dem digitalen Sektor ist die Flexibilität größer. Zwar müssen auch hier die oben genannten öffentlich-rechtlichen Angebote zuzüglich der für die bundesweite Verbreitung gedachten Digitalbouquets ARD digital und ZDF vision zwingend verbreitet werden (vgl. Kap. 5.3). Für den Rest der Kapazitäten verfügt der Kabelnetzbetreiber aber über recht weitreichende Entscheidungsbefugnisse. Lediglich ein Drittel des gesamten Spektrums soll nach Kriterien der Vielfalt belegt werden, d.h. eine sinnvolle Auswahl von Vollprogrammen, Spartenkanälen, Fremdsprachenangeboten und Mediendiensten beinhalten, wobei zwar nicht alle, aber die meisten dieser Programme in den Bereich des Pay-TV fallen dürfen. Die
2.3 Kabelfernsehen
79
verbleibenden Übertragungskapazitäten, d.h. gut die Hälfte des Gesamtvolumens, stehen dem Provider zur freien Verfügung. Im Klartext heißt das Folgendes: So lange mindestens 24 analoge Kanäle mit dem Segen der Landesmedienanstalt ausgestrahlt werden, steht der Kabelbetreiber in keiner Verpflichtung, außer den Öffentlich-Rechtlichen irgendeinen bestimmten weiteren Sender digital zu verbreiten. Die geforderte Vielfalt kann er im digitalen Bereich theoretisch auch durch ein Sammelsurium obskurer Kanäle herstellen; auf die RTL-Gruppe oder die ProSiebenSAT.1-Senderfamilie ist er nicht unbedingt angewiesen. Und wenn wenigstens einzelne Programme frei empfangbar sind, darf er den ganzen Rest gegen Extra-Bezahlung anbieten.
2.3.3 Pay-TV im Kabel Das bedeutet, dass sich der TV-Anteil des Geschäftsmodells der Kabelfirmen auf drei Dimensionen erweitert: Erlöse aus Einspeisungsentgelten der Sender, Gebühren der Privathaushalte für den Kabelanschluss an sich und Einnahmen aus dem Verkauf der in eigener Verantwortung zusammengestellten Pay-TVBouquets. Premiere, der alteingesessene Marktführer im deutschen Pay-TVGeschäft, ist bei den Kabelgesellschaften lediglich Kunde für digitale Übertragungsdienstleistungen, hat jedoch eigene Kundenbeziehungen mit seinen Abonnenten. Doch gestaltet es sich nicht so ganz einfach, das Publikum von den Vorteilen des Bezahlfernsehens zu überzeugen – zumal es sich um einen Betrag handelt, der noch zusätzlich zu den GEZ-Gebühren und den Kosten für den Kabelanschluss regelmäßig ausgegeben werden muss. Damit beträgt das TVBudget eines Haushaltes schon per se zwischen 30 und 40 Euro monatlich. Premiere kennt diese Problematik nur zu gut: Im Jahr 2004, immerhin in seinem 14. Sendejahr, hat das Unternehmen unter den knapp 35 Mio. deutschen Fernsehhaushalten durchschnittlich 3 Mio. Abonnenten (Quelle: Premiere) gewinnen können, was einer Marktdurchdringung von 8,5 Prozent entspricht. Dieser Wert ist verhältnismäßig niedrig, vor allem wenn man bedenkt, dass der Sender stets ein hochattraktives Programmangebot hatte, zu dem fast alle aktuellen Spielfilme kurz nach ihrer Kinoauswertung und viele relevante Sportereignisse von Fußball bis Formel 1 gehören. Außerdem ist Premiere eins der Medienunternehmen mit dem größten Marketingaufwand und kann auf einen sehr hohen Bekanntheitsgrad in der Bevölkerung verweisen. Und im Gegensatz zu den Angeboten, welche die Kabelfirmen schnüren können, ist Premiere auch über Satellit, also in fast jedem Haushalt empfangbar. Trotzdem haben sich noch nicht mehr Abonnenten überzeugen lassen.
80
2 Distribution und Empfangswege
Die Ursachen dafür sind mehrschichtig. Der wichtigste Faktor ist sicherlich das ausgesprochen umfangreiche Free-TV-Angebot in Deutschland. Dank dieser großen, ohne Zusatzkosten empfangbaren Vielfalt bleiben nur wenige Wünsche des Publikums unbefriedigt, und wenn doch, bedeutet das noch lange nicht, dass es deshalb bereit ist, jeden Monat zusätzlich ab rund 20 Euro aufwärts für eines oder mehrere umfangreiche Premiere-Pakete zu zahlen. Ein weiteres Hemmnis besteht darin, dass man für Premiere – wie für alles Digitalfernsehen – einen separaten Receiver benötigt. Integrierte Geräte sind nach wie vor Mangelware. Dieser Receiver muss gekauft oder gemietet werden und bestimmte technische Anforderungen erfüllen (vgl. Kap. 3.2). Abgesehen davon, dass sich viele Nutzer von der zusätzlichen Technik abschrecken lassen, ist damit eine weitere Unbequemlichkeit verbunden: Zapping zwischen analogen und digitalen Kanälen erfordert einen Wechsel der Fernbedienung, geht also nicht so nahtlos, wie es die Zuschauer vom konventionellen Fernsehen gewöhnt sind. Die Konsequenz: Entscheidet sich ein Nutzer, nachdem er vor dem TV-Gerät Platz genommen hat, erst einmal für eine der beiden Welten, so sinkt die Wahrscheinlichkeit, dass er den Sprung in die jeweils andere Dimension macht. Im Falle von Premiere wirkt sich das eher günstig für den Sender aus, da die meisten Zuschauer mit hoher Wahrscheinlichkeit innerhalb des Premiere-Bouquets fündig werden, also nur ein geringes Bedürfnis haben dürften, zum analogen Free-TV zu wechseln. Bei den Bezahlfernseh-Angeboten der Kabelnetzbetreiber ist das aber nicht unbedingt der Fall. So lange sie nämlich noch keine attraktiven Programminhalte in hoher Dichte präsentieren können (vgl. Kap. 5.7.1), müssen sie daran interessiert sein, die Schwelle für Zapper möglichst niedrig zu halten, denn wer im Laufe eines normalen Fernsehabends leicht auch zu den kostenpflichtigen Programmen vorstößt, wird nachhaltig auf sie aufmerksam und ist dann vielleicht eher geneigt, sie zu abonnieren. Dazu ist es notwendig, dass möglichst viele Haushalte über kabeltaugliche Receiver verfügen, die auch für den Empfang von Pay-TV ausgerüstet sind. Aber nur wenige Zuschauer sind allein durch die zunächst angebotenen digitalen Spartenkanäle zum Einstieg ins digitale Kabelfernsehen zu bewegen; die meisten der Sender sind entweder auf relativ kleine Zielgruppen ausgerichtet oder bieten gegenüber den frei empfangbaren Programmen nur einen geringen Mehrwert. Was also tun, um das neue Geschäftsmodell zu fördern?
2.3.4 Grundverschlüsselung Eine Maßnahme liegt auf der Hand: Je umfangreicher und vielfältiger die inhaltliche Auswahl unter den digitalen Kanälen, desto höher ist die Wahrscheinlich-
2.3 Kabelfernsehen
81
keit, dass jeder potentielle Kunde einen oder mehrere Sender findet, die ihn besonders stark interessieren und somit einen Anreiz zum Kauf eines Abonnements bieten. Die zweite Maßnahme besteht darin, die digitale Welt so komfortabel zu machen, dass der Zuschauer das analoge Fernsehen gar nicht vermisst und mit einer Fernbedienung bzw. einem Receiver auskommt. Dazu müssen alle relevanten analogen Privatsender, darunter vor allem die der beiden großen Senderfamilien, auch im Digital-Bereich verfügbar sein (Simulcast). Außerdem müssen die Kabelkunden davon abgehalten werden, sich eine billige Zapping-Box zuzulegen, d.h. einen Receiver, der nur für Free-TV taugt. Denn erst wenn sie alle eine hochwertige Set-Top-Box (vgl. Kap. 3.2) mit eingebauter Fähigkeit zum Entschlüsseln zu Hause stehen haben, sind sie auch für die Welt des Pay-TV gerüstet. Daher streben die Netz-Provider eine Grundverschlüsselung auch der GratisKanäle an. Auf diese Weise zwingen sie ihre Kunden dazu, sich für das Digitalfernsehen ausdrücklich anzumelden und eine direkte Geschäftsbeziehung mit ihnen aufzubauen. Das Ziel: Die technischen Hürden für den Zuschauer, das Gratis-Abonnement bei sich bietender Gelegenheit in ein kostenpflichtiges umzuwandeln, sollen möglichst niedrig sein. Und frei empfangbare Sender lassen sich – falls nötig oder gewollt – quasi per Knopfdruck in Pay-Kanäle verwandeln. Ein weiterer, von den Betreibern sehr erwünschter Nebeneffekt der Grundverschlüsselung besteht in der Adressierbarkeit des Empfangsgerätes. Der Kunde erhält eine eindeutige Kennung, meist in Form einer scheckkartengroßen Smartcard, die in das Gerät eingeschoben wird. Diese Identifikation verleiht den Sendern oder Distributionsdienstleistern indirekt Zugriff auf die Empfangsmöglichkeit des Nutzers, denn sie können dann z.B. ein Signal mitsenden, das gezielt nur eine ganz bestimmte Smartcard außer Betrieb setzt, von allen anderen aber ignoriert wird, oder auch den Besitzer der Karte nach Abschluss eines Abonnements für zusätzliche Dienste freischalten, ohne dass die Karte selbst ausgetauscht oder verändert werden müsste. Das ist sehr komfortabel, denn da die Steuerungsinformationen einfach mit dem ganz normalen Sendesignal überall hin ausgestrahlt werden, braucht man nicht einmal zu wissen, wo sich die Smartcard genau befindet. Die SIM-Karte (Subscriber Identity Module) in Mobiltelefonen funktioniert ganz ähnlich: Sie ist der gewissermaßen Ausweis des Handys gegenüber dem Netz und kann – z.B. bei Verlust oder Diebstahl – vom Netzbetreiber gesperrt werden, ist aber von der Telefonnummer des Kunden unabhängig. Die Grundverschlüsselung war lange Zeit äußerst umstritten. Die öffentlichrechtlichen Anstalten weigern sich prinzipiell, dabei mitzumachen, denn sie sehen es – durchaus nachvollziehbar – als ihre Verpflichtung gegenüber den Gebührenzahlern an, mit dem geringsten möglichen Aufwand empfangbar zu sein. Und da ihnen die benötigten Übertragungskapazitäten qua Gesetz zustehen,
82
2 Distribution und Empfangswege
befinden sie sich gegenüber den Kabelgesellschaften in einer praktisch unangreifbaren Position. Aber auch die großen Privatsender waren erst einmal nicht interessiert: Als vorrangig werbefinanzierte Medien kommt es auch ihnen darauf an, dass sie von einem Maximum an Zuschauern ohne einschränkende technische Bedingungen gesehen werden können. Außerdem schneiden sie sich mit dem Einstieg in die digitale Verbreitung ohnehin unter Umständen ins eigene Fleisch – warum sollten sie sich freiwillig aus der relativ komfortablen Konkurrenzsituation mit 35 Kanälen im analogen Kabel in den Wettbewerb mit potenziell Hunderten von Sendern begeben? Die meisten kommerziellen Sender der ersten und zweiten Generation gehören außerdem zu dem exklusiven Kreis derer, die von den Landesmedienanstalten dank der Vorrangentscheidungen im Grunde eine Verbreitungsgarantie im Analog-Kabel besitzen. Je mehr sich die gesamte Fernsehnutzung in den wesentlich liberaler geregelten Digital-Bereich verschiebt, desto mehr müssen sie um diese komfortable Position fürchten und sich stattdessen wie ganz normale Geschäftspartner mit den Kabelgesellschaften einigen. Die Details der Kompromisslinie, die zum Jahreswechsel 2005/2006 gefunden wurde, sind nicht öffentlich bekannt. Man darf aber annehmen, dass sich die beiden großen Sendergruppen ihre Zustimmung zur grundverschlüsselten digitalen Ausstrahlung bei Kabel Deutschland und Unity Media auf die eine oder andere Art finanziell haben ausgleichen lassen. Denkbar ist z.B. eine Beteiligung an dem einmaligen Preis für die digitale Freischaltung eines Haushalts, den die Kabel-Provider verlangen, oder ein Nachlass auf die Einspeisungskosten, die freilich im digitalen Kabel ohnehin nur im einstelligen Cent-Bereich je Haushalt liegen. Vielleicht wurden auch günstige Konditionen für die von den Senderfamilien geplanten weiteren Sparten- und Pay-TV-Kanäle vereinbart. Und wenn auch noch nicht 2006, so wären die analogen Sender doch früher oder später ohnehin in die Defensive gekommen: Je mehr Haushalte – aus welcher Motivation auch immer – auf digitales Fernsehen umsteigen, desto mehr von ihnen bewegen sich dann auch ausschließlich auf dieser Ebene und beginnen, das analoge Angebot zunehmend zu ignorieren. Dadurch drohen den großen TV-Unternehmen unter Umständen schwerere Marktanteilseinbußen als durch die vielfältigere Konkurrenz in der digitalen Welt. Einzig bei Kabel BW sind die Free-TV-Sender auch digital unverschlüsselt zu empfangen; das Unternehmen verfolgt eine etwas andere Strategie als seine Schwesterfirmen im restlichen Bundesgebiet, indem es darauf setzt, dass sein Angebot so attraktiv ist, dass es sich auch ohne Grundverschlüsselung beim Publikum durchsetzen wird. Hier geht es darum, die Hürden abzusenken und dadurch eine schnelle Durchsetzung des Digi-Kabels zu fördern.
2.4 Digitalfernsehen über Antenne (DVB-T)
83
So kann man nun davon ausgehen, dass bis spätestens Ende 2006 alle analog empfangbaren Kanäle auch digital verbreitet werden und damit auch auf dieser Plattform, deren Digitalisierung im Gegensatz zu Satellit und Terrestrik bislang schleppend verlaufen ist, immer mehr Haushalte auf die neue Technik umsteigen. Das von der Bundesregierung ausgegebene Ziel, im Jahr 2010 alle analogen Distributionswege für das Fernsehen überflüssig zu machen, ist somit wieder ein großes Stück näher gerückt. Voraussetzung für den Erfolg ist aber auch hier, dass sich Sender und Kabel-Provider um einen guten Qualitätsstandard, also ausreichend hohe Datenraten verständigen. Noch erscheint das analog übertragene Bild häufig wesentlich brillanter und störungsfreier als eines, das unter maximaler Ausnutzung der Kapazitäten über Antenne, Kabel oder Satellit digital ausgestrahlt wird.
2.4 Digitalfernsehen über Antenne (DVB-T) Eine terrestrische Distribution von Fernsehprogrammen ist, seit es die Alternativ-Verfahren Kabel und Satellit gibt, unter den Broadcast-Technologien die teuerste Art, Sendungen zu ihrem Publikum zu transportieren, denn am Stichtag 1. Januar 2006 waren nur noch 4,6 Prozent aller Haushalte Kunden des Antennenfernsehens (Quelle: AGF) – bei stetig weiter fallender Tendenz. Anfang 2002, bevor die Umrüstung der Ballungsräume auf DVB-T begann, waren es noch fast doppelt so viele gewesen. Trotz der schwindenden Akzeptanz ist es aber erforderlich, für diese rund 1,6 Mio. Wohneinheiten eine bundesweit flächendeckende Infrastruktur von Sendeanlagen aufrecht zu erhalten – das schreibt schon der Grundversorgungsauftrag der öffentlich-rechtlichen Anstalten vor. Auch demjenigen Teil des Publikums, der aus praktischen oder finanziellen Gründen keine Möglichkeit hat, am Satelliten- oder Kabelfernsehen teilzunehmen, muss die Gelegenheit zum Fernsehen gegeben werden. Der Zugewinn an Programmvielfalt ist auf den ersten Blick sehr eindrucksvoll: Aus vier bis sechs analogen Kanälen werden bis zu 30 digital empfangbare Fernsehsender. Technisch gesehen ist das jedoch recht aufwändig. Bei der analogen Ausstrahlung reichte noch ein vergleichsweise grobmaschiges Sendernetz aus, da die Reichweite eines einzelnen Sendemasten bei günstiger Platzierung bis zu 100 oder mehr Kilometer betragen konnte. Zusätzlich sind aber auch bei diesem Verfahren zahlreiche regionale und lokale Füllsender erforderlich, die etwa TalLagen oder andere gegenüber den großen Sendeanlagen abgeschattete Regionen versorgen. Auch programmliche Erwägungen haben eine zunehmende Kleinteiligkeit des Netzes gefördert, darunter vor allem Lokal- und Regionalfenster bei den Öffentlich-Rechtlichen Programmen und regional begrenzte kommerzielle
84
2 Distribution und Empfangswege
Angebote. Das hat dazu geführt, dass beispielsweise für Düsseldorf, das sein Drittes Programm ohne weiteres auch vom nahe gelegenen Köln aus hätte beziehen können, ein eigenes Frequenzband belegt werden musste. Mit der Einführung von DVB-T wird diese Struktur noch feinmaschiger, weil sein Empfang mit besonders geringem Antennenaufwand möglich sein soll. Dementsprechend sind die Kosten sehr hoch: Allein die Versorgung der 2005 bereits umgestellten Ballungsräume mit etwa 1,3 Mio. terrestrischen Haushalten kostet pro Sender rund 3,6 Mio. Euro jährlich – und damit fast 3 Euro pro Haushalt und Jahr und damit ein Vielfaches des entsprechenden Aufwandes über Kabel oder Satellit. Eine Begleitstudie von ARD und ZDF zur Umstellung von Berlin-Brandenburg auf DVB-T (abgedruckt in Media Perspektiven, Heft 12/2003), deren Ergebnisse auch von Untersuchungen aus dem Jahr 2005 unterstützt werden, vermittelt Einblick in die durch das digitale Antennenfernsehen ausgelöste Dynamik. Demnach sind fast die Hälfte (47,5 Prozent) der zuvor terrestrischen Haushalte im Zuge der Umstellung zu den konkurrierenden Empfangsebenen Kabel und Satellit abgewandert. Zugleich handelt es sich bei diesen Wechslern um den aus der Sicht des Privatfernsehens besonders wichtigen Teil der Antennen-Haushalte, denn bei den Umrüstern von analogem zu digitalem Antennenempfang dominiert die Zielgruppe 65 Jahre und älter mit unterdurchschnittlichem Einkommen. Die Zielgruppe der 14-39jährigen hat dagegen ihren Anteil an den Terrestrikern halbiert. Dieses Ergebnis überrascht nicht, wenn man fragt, welche Haushalte denn in der aktuellen Medienlandschaft selbst vor der Umrüstung überhaupt noch bereit waren, sich mit dem analogen Fernsehen über Antenne abzufinden. Während sich auf allen anderen Empfangsebenen längst eine große Auswahl von populären, mainstream-orientierten TV-Kanälen durchgesetzt hat und diese Angebotsvielfalt fester Bestandteil der öffentlichen Meinung ist (man denke nur an die fernsehbezogenen Titelschlagzeilen der BILD-Zeitung), konnten und können die analogen Terrestriker lediglich ARD, ZDF, ein oder zwei Dritte Programme sowie in wenigen Regionen einen oder zwei Privatkanäle sehen, also rund ein Zehntel des heute als selbstverständlich geltenden Angebots. Zwar handelt es sich bei einem Teil dieser Haushalte um Selektivseher, d.h. solche, die generell sehr wenig fernsehen und ihr Informations- und Unterhaltungsbedürfnis mit Hilfe der Printmedien und anderer Aktivitäten befriedigen. Die große Mehrheit aber dürften konservative Zuschauer mit geringem Einkommen, niedrigem formalen Bildungsniveau und einer skeptischen Haltung gegenüber neuer Technik sein, die ohnedies gewissermaßen den Anschluss an das Zeitgeschehen verloren haben. Die meisten anderen würden die Teilhabe an der TV-Vielfalt vermissen und hätten sich schon vor Jahren nach neuen Empfangsmöglichkeiten umgesehen – und sei es nur, um endlich mitreden zu können.
2.4 Digitalfernsehen über Antenne (DVB-T)
85
Kurz: Schon vor der Umstellung hatte sich die Terrestrik zu einer Empfangsebene für einen unterprivilegierten Teil der Bevölkerung entwickelt. Dementsprechend weist auch die ARD/ZDF-Studie aus, dass das Motiv derjenigen, die im Zuge der Digitalisierung beim Antennenfernsehen geblieben sind, in erster Linie die Bestandswahrung war – entweder es wird ein geeigneter Receiver angeschafft, oder der Bildschirm bleibt in Zukunft dunkel. Das Mehr an Programmauswahl spielte nur für gut ein Viertel (28 Prozent) dieser Haushalte eine Rolle, während die neuen technischen Möglichkeiten von DVB-T wie Mobilität und Electronic Program Guides (EPG) erwartungsgemäß als völlig nebensächlich eingestuft werden. Stattdessen empfinden diese Zuschauer im Gegenteil die Nachteile gegenüber dem gewohnten analogen Fernsehen besonders stark, d.h. die Erfordernis einer zusätzlichen Fernbedienung und die Notwendigkeit, für jedes Zweitgerät und den Videorecorder eine separate Set-Top-Box anschaffen zu müssen. Daher wichen im Studienzeitraum auch immerhin gut ein Fünftel (21 Prozent) der Analog-Seher in den DVB-T-Regionen auf den Overspill analoger Sender aus der noch nicht umgestellten ländlichen Umgebung aus. Überraschend klein ist der Anteil der Haushalte, die zwar auf ihrem meistgenutzten Fernsehgerät (in der Regel im Wohnzimmer) Kabel- oder Satellitenempfang haben, die Einführung von DVB-T aber dazu nutzen, nichtverkabelte Zweitgeräte im Schlaf- oder Kinderzimmer aufzuwerten: Im Untersuchungszeitraum 2002/2003 waren dies nur 4 Prozent und selbst bis Mitte 2005 lediglich 16 Prozent. Das lässt darauf schließen, dass viele derjenigen Zweitgeräte, die auch in der Vergangenheit nicht an die Kabel- oder Satellitenempfangsanlage angeschlossen waren, für den Fernsehkonsum praktisch keine Rolle spielen und allenfalls für den Videokonsum oder als Spielkonsole genutzt werden. Bessere Aussichten für terrestrische Zweitgeräte wären erst dann abzusehen, wenn in großem Stil tragbare Fernseher mit eingebautem DVB-T-Tuner auf den Markt kommen würden; angesichts der geringen Zahl der Antennen-Haushalte dürfte das aber für die Unterhaltungselektronik-Industrie kein lohnendes Betätigungsfeld sein. Das – vor allem für die Gebührenzahler und die beteiligten Privatsender – sehr teure Projekt DVB-T erhöht also gerade nicht die Relevanz des Fernsehens über Antenne, sondern beschleunigt im Gegenteil gerade den Abstieg der Terrestrik in die völlige Bedeutungslosigkeit. Zugleich werden die verbleibenden Terrestriker aus der Sicht der kommerziellen Sender weiter marginalisiert. In sehr geringem Umfang fördert DVB-T immerhin die Digitalisierung der deutschen Fernsehhaushalte. Eine Abwanderung von Kabel oder Satellit hin zum terrestrischen Digitalempfang findet hingegen praktisch gar nicht statt. Für die Öffentlich-Rechtlichen ist das DVB-T-Engagement durch die Rundfunkgebühren und den Grundversorgungsauftrag abgesichert und sie dürfen pauschal über die Hälfte aller damit verbundenen Übertragungskapazitäten ver-
86
2 Distribution und Empfangswege
fügen. So haben ARD und ZDF die Kosten für die Einführung der Technik auf insgesamt 286,1 Mio. Euro beziffert (Quelle: 14. Bericht der KEF, 2003). Für kommerzielle Sender ist DVB-T mithin als Verbreitungsplattform kaum sinnvoll: Die sehr hohen Kosten stehen in keiner wirtschaftlich vernünftigen Relation zur Zahl und Wirtschaftskraft der damit erreichbaren Zuschauer. Deshalb gibt es Regionen, in denen über DVB-T überhaupt keine Privatsender zu sehen sind. Warum aber beteiligen sich die privaten Fernsehunternehmen dann trotzdem in den meisten der bereits umgestellten Regionen? Die Antwort ist zweigeteilt: Natürlich sind auch die Privaten für politischen Druck empfänglich, und da der Must-Carry-Status eines Senders im analogen Kabel neben anderen Kriterien auch an dessen terrestrische Distribution im jeweiligen Bundesland gekoppelt wird, entsteht ein gewisser Anreiz, mitzumachen. Zum anderen haben die TVAnbieter aber auch finanzielle Subventionen aus den Kassen der Landesmedienanstalten erhalten, die sich wiederum aus einem Anteil an den GEZ-Gebühren finanzieren. Mit den Rundfunkgebühren wird also nicht nur die DVB-T-Ausstrahlung der Öffentlich-Rechtlichen finanziert, sondern sogar die einiger kapitalkräftiger Privatsender-Gruppen. In Berlin standen dafür beispielsweise rund 4 Mio. Euro zur Verfügung, in Nordrhein-Westfalen für vier Jahre etwa 7 Mio. Euro. Das reicht für bis zu 70 Prozent der den Privatsendern im gleichen Zeitraum entstehenden Kosten. Diese Praxis ist inzwischen bereits von der EUKommission als Verstoß gegen das Wettbewerbsrecht beanstandet worden, weil dadurch die Terrestrik (und damit auch die Deutsche Telekom AG als Betreiber der meisten Sendeanlagen) einseitig bevorzugt wird.
2.5 Mobilfunk Wenn also digitales Fernsehen per Broadcast-Funktechnik immer weiter an Bedeutung einbüßt, aber trotzdem viel Geld kostet, wäre es Zeit, über eine alternative Nutzung dieser terrestrischen Frequenzen nachzudenken. Funk spielt seine Stärken immer dann aus, wenn es um eine möglichst große Mobilität von Anwendungen geht, wie man an dem schnellen Boom und der heutigen Marktdurchdringung der Mobiltelefone deutlich sehen kann. Auch Autoradios und Navigationssysteme sind dafür Beispiele. Es wäre also denkbar, einen möglichst großen Teil des Spektrums für DVB-H zu nutzen, d.h. für die Übertragung von Video- und Datendiensten auf mobile Endgeräte wie Handys, Notebook-Computer, PDAs, Systeme in Autos, Eisenbahnzügen usw. Während es beim konventionellen Fernsehen darauf ankommt, das Signal in einer relativ hohen Qualität zu übertragen, damit es auf den großen TV-Bildschirmen genutzt werden kann, braucht die Auflösung von Videos für Mobilanwendungen normalerweise nicht
2.5 Mobilfunk
87
so umfangreich zu sein, da kleinere Displays genutzt werden bzw. das bewegte Bild nur in einem von mehreren Fenstern auf einem Laptop-Monitor zu sehen ist. Anstelle von Datenraten zwischen 2 und 4 Mbit/s für ein DVB-T-Fernsehprogramm reichen unter den meisten Nutzungsbedingungen bis zu 384 Kbit/s aus. Damit können auf einem einzigen 7-MHz-Kanal statt nur vier TV-Programmen zwischen 30 und 50 DVB-H-Dienste übertragen werden, wodurch sich zumindest rechnerisch die Distributionskosten pro Anwendung bei heutiger Netzabdeckung proportional auf rund 72-120.000 Euro im Jahr senken. Die entscheidende Frage für alle mobilen TV-Angebote besteht jedoch in den zu übertragenden Inhalten. Dazu muss man sich die jeweilige Rezeptionssituation vor Augen führen. Variante 1 besteht in der Nutzung unterwegs, d.h. auf dem Weg zur und von der Schule, Arbeit oder sonstigen Erledigungen. Je nach Lebensalter und beruflicher Position können die Bedürfnisse dabei sehr unterschiedlich sein. Wo es dem Einen in erster Linie darauf ankommt, Zeit totzuschlagen, wünscht sich der Andere vielleicht Nachrichten und Börsen-, Verkehrs- oder Wetterinformationen in Echtzeit. Sport-Fans erwarten die LiveTeilhabe an laufenden Wettkämpfen, Musikfreunde Videoclips aus den aktuellen Charts. All das ist prinzipiell machbar, nur müssen sich Programmablauf, Bildästhetik und grafische Aufbereitung an die technischen Bedingungen der Übertragung und des Endgerätes anpassen. Während man sich womöglich vorstellen kann, dass etwa ein Fernseh-Nachrichtensender wie n-tv, CNN oder BBC World gerade noch auf einem scheckkarten- oder bierdeckelgroßen Bildschirm funktioniert, sind Vollprogramme mit Serien, Spielfilmen und anderen längeren Sendungsformen weniger geeignet. Die meisten Unterwegs-Situationen bringen es mit sich, dass der Nutzer zumindest seine visuelle Aufmerksamkeit jeweils nur in kurzen Intervallen auf das Gerät richten kann, was einem klassischen, linearen Programmablauf zuwiderläuft. Abgesehen also von Live-Übertragungen und speziellen Angeboten, die sich z.B. an Bahnreisende oder Rücksitz-Passagiere im Auto richten, verlangen mobile Medien eine inhaltliche Kurzatmigkeit, d.h. entweder viele Beiträge von wenigen Minuten Länge oder einen inhaltlichen Aufbau, der dem Zuschauer jederzeitiges Ein- und Aussteigen erlaubt. Des Weiteren ist an die Bild- und Schnittgestaltung zu denken. Totalen auf ein Fußballfeld oder weite Einstellungen in einem Kinofilm sind z.B. angesichts der geringen Bildschirmgröße wenig aussagekräftig, und auch die Eigenschaften der MPEG-4-Datenreduktion spielen eine Rolle. Gerade kleine, schnell bewegte Objekte können dabei leicht unsichtbar werden – was speziell bei Sportübertragungen kontraproduktiv ist. Optimal sind dagegen Nahaufnahmen, Textfelder und Grafiken. Mit anderen Worten: Es ist nicht ohne weiteres sinnvoll, Programm-Material, das für reguläres Fernsehen produziert wird, in mobile Anwendungen zu übernehmen; stattdessen kann es beispielsweise erforderlich sein, bei
88
2 Distribution und Empfangswege
einem Fußballspiel einen separaten Feed für DVB-H herzustellen. Auch fiktionale Formate werden im Idealfall angepasst bzw. speziell fürs Mobil-TV gedreht. Das ist in gewisser Weise mit den Klingeltönen für Mobiltelefone zu vergleichen, bei denen es sich in der Regel um spezielle Bearbeitungen von Musikstücken handelt. Dabei wird meist sowohl die Musik selbst angepasst, also verkürzt und vereinfacht, als auch der technische Zustand der Musikdatei auf die spezifischen Anforderungen von Handys hin optimiert. Variante 2 ist eine stationäre Nutzung am Arbeitsplatz oder zu Hause, bei der das mobile Endgerät eine komplementäre Funktion zum herkömmlichen Fernseher übernehmen kann (vgl. Kap. 3.6). Auch dabei reicht die Bandbreite von unterhaltungsorientierten bis hin zu beruflichen oder anderen nutzwertorientierten Angeboten. Denkbar wäre z.B., dass zusätzliche Informationen übertragen werden, die dann parallel zu anderen Tätigkeiten genutzt werden können. Im technisch primitivsten Fall könnte das bedeuten, dass eine Sendung im Fernsehen angeschaut wird, während der Teletext zum selben oder auch einem anderen Kanal auf das Mobilteil übertragen wird. So richtig interessant wird DVB-H jedoch, sobald interaktive Elemente eingebaut werden können. Da es sich um ein Broadcast-Medium handelt, verfügt es selbst nicht über einen Rückkanal, kann seine Inhalte aber ohne weiteres an beliebig viele Empfänger verteilen. Handelt es sich nun bei dem Endgerät um ein Handy oder eine zukünftige Weiterentwicklung davon, oder verfügt es über einen Internet-Zugang via WLAN, WiMAX oder UMTS, kann es aber dennoch seine volle Interaktivität ausspielen. Der von DVB-H gelieferte IP Datacast passt nämlich technisch bruchlos mit dem TCP/ IP-Prinzip des Internets zusammen – eine Eigenschaft, die das alternative Sendeverfahren DMB übrigens nicht anbieten kann, denn dabei werden ausschließlich Video-Streams ohne zusätzliche Daten übermittelt. Auf diese Weise eröffnen sich zahlreiche neue wirtschaftliche Optionen: Von der Live-Teilnahme an einem Quiz wie Wer wird Millionär?, bei der das Mobilgerät zur Spielkonsole wird, auf der das Publikum das gleiche sieht wie der Studiokandidat, reicht die Palette bis hin zu verfeinerten Formen des Teleshoppings. Dabei bleibt dann der eigentliche Fernseh-Bildschirm frei für ein reguläres Programm, während die Zuschauer gleichzeitig vom Sofa aus Kommunikationsmöglichkeiten nutzen können, für die sie sich sonst an einen PC hätten setzen müssen. DVB-H ist somit ein hocheffizientes, bandbreitensparendes Mittel zur Verbesserung der Interaktivität von TV-Dienstleistungen – von anderen Mediengattungen ganz zu schweigen. Dem Einfallsreichtum sind dabei kaum Grenzen gesetzt. Hier nur ein Denkbeispiel: Tageszeitungen im Abonnement. Wenn man der Faustregel folgt, dass rund 20 Prozent der Kosten einer Zeitung auf die Distribution per LKW und Boten entfallen und das Abo einer überregionalen Qualitätszeitung knapp 40
2.5 Mobilfunk
89
Euro pro Monat kostet, sind das bei 200.000 Abonnenten mindestens 14 Mio. Euro Vertriebsaufwand jährlich, also ungefähr das 140fache dessen, was ein einziger Vollzeit-Slot im DVB-H kostet. Nimmt man des Weiteren an, dass das elektronische Papier, eine Displaytechnologie, die in Größe und Haptik gewöhnlichem Papier nahe kommt, in wenigen Jahren einsatzbereit ist, kann der physische Vertrieb entfallen. Zugleich wird sogar noch das Übertragungsvolumen des Verlages im Internet massiv reduziert, denn statt dass jeder Abonnent sein Exemplar individuell herunterlädt, bekommt er es im Push-Verfahren automatisch zugestellt. Trotzdem ist die Zeitung am Frühstückstisch genauso lesbar wie auf dem Sofa oder in der Straßenbahn – und all das funktioniert im Inland sogar auf Reisen. Nicht nur bei einem solchen Dienst kommt es DVB-H zugute, dass es auf einem vergleichsweise kleinteiligen Sendernetz basiert, denn man kann auf diese Weise gezielt lokale und regionale Angebote machen. Zur Werbung im Fernsehen werden die Bezugsquellen des Produkts in der Nähe des Zuschauers übertragen, Teleshopping-Bestellungen laufen automatisch beim nächstgelegenen Vertriebszentrum auf, die Regionalnachrichten werden um lokale Informationen ergänzt usw. Demgegenüber sind UMTS und WiMAX im Nachteil, denn deren Nutzer müssen sich die an einem Standort verfügbare Bandbreite immer mit allen anderen gleichzeitigen Nutzern der gleichen Technik aufteilen. Dadurch kommt es leicht zu Kapazitätsengpässen: Wenn etwa in einem Innenstadtbereich auch nur ein paar Tausend Leute gleichzeitig über UMTS ein Fußballspiel verfolgen möchten, bricht das Netz zusammen. Und den Aufbau einer MulticastingInfrastruktur, die ja schon in Festnetzen eine teure Angelegenheit ist, vermag man im Funk schon aufgrund der Mobilität der Teilnehmer nur sehr viel schwieriger zu realisieren. Denn während man recht schnell zuverlässige Erfahrungswerte über die Fernsehnutzung innerhalb eines bestimmten Wohnblocks gewinnen kann, hängt die Bewegungsdynamik von Menschenmengen mit weitaus schwieriger voraussagbaren Parametern wie Wetter, baulichen Gegebenheiten, Gastronomie, Verkehrsmitteln etc. zusammen. Und eine hochleistungsfähige Netztopologie auf den bloßen Verdacht hin zu installieren, wäre äußerst unwirtschaftlich. Alle Punkt-zu-Punkt-Verbindungstechniken im drahtlosen Bereich erscheinen demnach vor allem als Rückkanal für Broadcast-Medien und im Rahmen stark individualisierter oder ausgesprochen bandbreitenschonender Anwendungen sinnvoll. Solange sich die Nutzung ausgewogen verteilt, gibt es keine Schwierigkeiten, sobald aber sehr viele gleichzeitig das Gleiche wollen und die angeforderten Inhalte hohe Datenraten erfordern, gelangen diese Techniken an die Grenzen nicht nur ihrer verfügbaren Kapazität, sondern auch ihrer maxima-
90
2 Distribution und Empfangswege
len Ausbaubarkeit. Denn während man prinzipiell jederzeit zusätzliche oder leistungsfähigere Kabel verlegen kann, stoßen Funk-Frequenzbänder schon systembedingt an feste Grenzen, die lediglich durch technologische Fortschritte nach und nach erweitert werden können.
2.6 Internet Prinzipiell laufen zwar auch die Anschlüsse der Privathaushalte ans Internet und die Backbones des Netzes selbst Gefahr, an ihre Kapazitätsgrenzen zu gelangen, doch sind diese sehr viel weiter gesteckt als bei den Funktechniken und können außerdem weitaus leichter ausgebaut werden. Wenn man über Fernseh-Anwendungen im Internet nachdenkt, steht mithin nicht die Übertragungsleistung an sich im Mittelpunkt, sondern vielmehr die technischen Potentiale und die Kosten jeweils am Ort der Einspeisung eines Signals und im Haushalt des Zuschauers. Die Infrastruktur des World Wide Web wird von zwei Seiten bezahlt: Dem Privatkunden durch seine (heute meist pauschale) Anschlussgebühr und dem Anbieter von Diensten und Inhalten, dessen Kosten sich in der Regel nach dem von seinen Servern ins Netz ausgelieferten Datenvolumen (Traffic) richten. Bei herkömmlichen Internetseiten ist das meist nicht so viel, da diese überwiegend aus Text und kompakten Grafiken bestehen. Sobald aber Video ins Spiel kommt, steigen die Datenmengen exponentiell an – erst recht, wenn HDTV übertragen werden soll. Ein vereinfachtes Rechenbeispiel zeigt die Problematik: Angenommen, ein dreiviertelstündiges Programm, z.B. eine Serienepisode, steht in konventioneller SDTV-Auflösung und in echter DVD-Qualität zum Download bereit. Mit MPEG-2 codiert entspricht das einer Dateigröße von etwa 1,6 GB, in der moderneren MPEG-4-Variante wären es nur 820 MB, also ungefähr die Hälfte. Der Listenpreis für ein Gigabyte Übertragungsvolumen liegt bei einem der größten deutschen Provider bei gut 40 Cent, d.h. ein einzelner Abruf des Videos schlägt mit knapp 33 Cent zu Buche. Eine sehr populäre Fernsehserie kommt heute in einem größeren Fernsehsender auf vier Mio. Zuschauer. Würde jetzt auch nur ein Viertel der Serienfans nicht auf die Free-TV-Ausstrahlung warten wollen, sondern die neue Episode vorab aus dem Internet ziehen, beliefen sich allein die Übertragungskosten auf 330.000 Euro. Hinzu kommen für den Anbieter des Videos ferner der Aufwand für das Encoding, für den benötigten Speicherplatz und den Betrieb des hochleistungsfähigen Online-Servers, die Lizenz für das verwendete Streaming- und Player-System, und die Kosten für das Digital Rights Management. Selbstverständlich sind viele dieser Posten skalierbar. Ein Großkunde erhält günstigere Konditionen für Datenvolumen und Serverbetrieb, und es ist durchaus
2.6 Internet
91
möglich, die Dateigröße des Programmbeitrags noch weiter zu reduzieren, ohne dass die Zuschauer allzu große sichtbare Qualitätseinbußen hinnehmen müssten, aber andererseits steigen mit den modernen Flachbildschirmen auch die Ansprüche der Verbraucher. Trotzdem einmal der Vergleich: Ein Fernsehsender, der das gesamte Spektrum der analogen und digitalen Broadcast-Distribution über Satellit, Kabel und DVB-T ausschöpft, gibt dafür höchstens 10 Mio. Euro im Jahr aus, was pro Dreiviertelstunde einem Übertragungspreis von gut 850 Euro entspricht. Während im Broadcast mithin die Distribution im Verhältnis zu den Produktionskosten der Sendung praktisch nicht ins Gewicht schlägt und in der digitalen Welt sogar noch merklich billiger wird, entspricht sie im Internet leicht einem signifikanten Anteil der Herstellungs- oder Lizenzkosten des Programms. Abgesehen davon bleibt bei allen IP-basierten Übertragungsverfahren das Flaschenhals-Problem bestehen: Es ist technisch schlichtweg unmöglich, die erwähnte Million Serien-Fans gleichzeitig von einer Datenquelle aus zu bedienen, weil dafür ein Datenstrom im Bereich von Terabit pro Sekunde (TBit/s) erforderlich wäre. Damit sind heute selbst die leistungsfähigsten Server und Kabel überfordert. Das bedeutet, man muss den Netzwerk-Traffic dosieren oder verteilen – sei es durch wie auch immer definierte Zugangsbeschränkungen (z.B. nach Region oder einer Prioritätenliste), durch den ebenfalls teuren Aufbau einer Multicasting-Struktur, oder auch durch Peer-to-Peer-Netzwerke. Mit P2P lässt sich eine Superdistribution erreichen: Alle Bezieher des Programms werden zugleich automatisch auch zu dessen Weiterverteilern, so dass sich ein Netzwerkeffekt einstellt, bei dem auch Menschen erreicht werden, die eigentlich gar nicht zu den regulären Kunden oder Nutzern eines Anbieters zählen (vgl. Kap. 1.3.1). Dieses Verfahren verlangt zwar vom Konsumenten etwas mehr Geduld, dafür entfällt aber der größte Teil der Distributionskosten für den Programmlieferanten, und außerdem regeln sich alle Schwierigkeiten mit der Übertragungskapazität von allein. Für sämtliche Inhalte, die als neue Produktionen oder Repertoire mit einem höheren Beliebtheitsgrad bei den Zuschauern einzustufen sind, kann P2P als geradezu ideales Verteilungsprinzip eingestuft werden. Der eigentliche Rechteinhaber braucht, nachdem er sein Produkt einmal ins Netz entlassen hat, technisch kaum noch etwas zu tun, außer sein DRMSystem up-to-date zu halten. Andererseits verteilen sich die Download-Anfragen beim Repertoire in der Regel von alleine so gleichmäßig, dass Belastungsspitzen auf der Serverseite recht unwahrscheinlich sind. Für IPTV, d.h. die Durchleitung von zeitgleichen Fernsehprogrammen im Internet, taugt dieses Prinzip freilich nicht. Es ist daher kein Zufall, dass dieses Thema besonders intensiv von Unternehmen angegangen wird, die über eigene Netze verfügen, so wie in Deutschland vor allem die Deutsche Telekom und
92
2 Distribution und Empfangswege
Arcor sowie einige regionale Anbieter. Nur diese sind in der Lage, die erforderliche Infrastruktur zu vertretbaren Kosten aufzubauen.
3.1 Endgerätekonvergenz und -durchsetzung
93
3 Endgeräte und Medienkonsum
3.1 Endgerätekonvergenz und -durchsetzung Digitales Fernsehen ist ein Musterbeispiel für die Medienkonvergenz, d.h. das Zusammenwachsen ehemals getrennter Technologien und Nutzungsweisen zu einem universellen Medium. Das gilt ganz besonders für seine Transportwege zum Zuschauer und die für seinen Konsum erforderlichen Endgeräte. Grundvoraussetzung für Konvergenz ist der Computer bzw. der Prozessorchip. Klassische Endgeräte bestehen gewöhnlich aus einer spezialisierten Elektronik, die genau und ausschließlich für die Verarbeitung von Daten in einer bestimmten Form konzipiert ist – seien es Fernsehsendungen, auf einer Bandkassette oder DVD gespeicherte Videos, Radio oder Musik-CDs. Diese Spezialisierung hat gewisse Vorteile: Die Geräte sind meist billig, sehr zuverlässig, einfach zu bedienen und arbeiten in Echtzeit. Drückt man auf einen Knopf der TVFernbedienung, schaltet der Fernseher sofort auf ein anderes Programm um, und legt man eine VHS-Kassette ein, kann man sich deren Inhalt unmittelbar ansehen – einschließlich praktischer Zusatzfunktionen wie z.B. dem schnellen Vorspulen. Manche dieser Maschinen arbeiten bereits an der Grenze zwischen der analogen und der digitalen Welt, wie z.B. CD- und DVD-Player. Diese Geräte nehmen die digital gespeicherten Daten und wandeln sie in analoge Signale um, die dann wiederum von konventionellen Verstärkern, Lautsprechern und Fernsehapparaten verstanden werden. Auch das geht recht schnell, da das Format, in dem die Daten angeliefert werden, fest normiert ist; es müssen nur eine eng begrenzte Menge von immer gleichen Arbeitsschritten ausgeführt werden – wie am Fließband. Und in den meisten Fällen brauchen die Signale nirgendwo zwischengespeichert zu werden, sondern werden einfach hintereinander, so wie sie anfallen, über Lautsprecher oder einen Bildschirm wiedergegeben. Dadurch kann es nicht zu Stauungen oder anderen Verzögerungen kommen. Im Bereich des Digitalfernsehens werden alle diese Zusammenhänge potentiell erheblich komplizierter. Zunächst einmal kann das Programm auf den unterschiedlichsten Wegen und in verschiedenen Formaten bei einem Endgerät ankommen. Das ist abhängig vom jeweiligen Verbreitungsmedium (Antenne, Kabel, Satellit, Internet-Protokoll), aber auch von seiner Codierung (MPEG-2 oder MPEG-4) und Auflösung (SDTV, HDTV). Ebenso wichtig ist die Frage, was mit dem Material geschehen soll. Auf welcher Art von Bildschirm wird es dargestellt und/oder auf welchem Medium (Festplatte, DVD, Bandkassette) wird
94
3 Endgeräte und Medienkonsum
es in welcher Qualität gespeichert? Drittens schließlich spielen die mitgelieferten Metadaten, Steuerungsinformationen und interaktiven Optionen eine wichtige Rolle: Ist die Menüführung in das Programm integriert oder wird sie von dem Endgerät selbst erzeugt? Welchen Umfang haben die Metadaten und wie sollen sie verwendet werden? Handelt es sich vielleicht um Signale, die erst noch entschlüsselt werden müssen? Für alle diese Aufgaben werden leistungsfähige Computerchips benötigt – je komplexer und fortgeschrittener die Anforderungen und je höher aufgelöst das zu verarbeitende Videomaterial, desto größere Ansprüche werden an die Leistungsfähigkeit der Hardware gestellt. Doch damit nicht genug: Sobald das Gerät mit einer Vielzahl verschiedener möglicher Aufgaben zurechtkommen muss, von denen manche gleichzeitig ausgeführt werden, während andere nur ab und zu anstehen, benötigt es eine Software, welche die Arbeitseinteilung vornimmt und die Kommunikation des Apparates mit der Außenwelt regelt, also ein Betriebssystem. Und so unterscheidet es sich kaum noch von einem PC – allenfalls steckt die Technik in einem Gehäuse, das sich äußerlich nicht von dem Aussehen gewohnter HiFi-Komponenten, Videorecorder, MP3-Player oder Mobiltelefone unterscheidet, oder das Gerät ist auf einen bestimmten Verwendungszweck als Receiver, PVR oder Videoserver spezialisiert. Das wichtigste Merkmal: Geräte der Unterhaltungselektronik werden nicht (oder zumindest nicht primär) mit Tastatur und Maus bedient, sondern mit der Fernbedienung oder einigen einfachen Tasten an ihrer Frontseite. Aus diesem Grund nähert sich die Industrie dem Thema Digitalfernsehen von zwei Seiten: Während die Computer- und Softwarebranche daran arbeitet, ihre PCs und Betriebssysteme optisch ansprechender, leichter bedienbar und betriebssicherer zu machen, versehen einige Unterhaltungselektronik-Hersteller ihre Produkte mit immer mehr technischer Intelligenz. Hochwertige Apparate sind jedoch auf beiden Seiten kostspielig – der preisliche Vergleichsmaßstab sind eben nicht mehr konventionelle Geräte wie Satellitenempfänger oder VHSRecorder, sondern leistungsstarke PCs, bei denen der Prozessor (Central Processing Unit, CPU) zu den teuersten Bestandteilen gehört. Das gilt erst recht für den Bereich HDTV, der geradezu extreme Anforderungen an die Gerätekapazität mit sich bringt. Man versuche nur einmal, auf einem handelsüblichen PC oder Notebook-Computer ein Video in 1080p-Auflösung abzuspielen – wenn man nicht gerade über ein absolutes Spitzengerät mit extrem schneller CPU und teurer Grafikkarte verfügt, kann von Bewegtbild keine Rede sein; die Maschine muss so viel rechnen, dass sie jeweils nur eine Abfolge einzelne Standbilder darzustellen vermag. Auf der Seite der Distributionstechniken und Kommunikationsnetze sind die Voraussetzungen für eine weitreichende Konvergenz von Fernseh-Anwen-
95
3.1 Endgerätekonvergenz und -durchsetzung
dungen entweder bereits gegeben oder befinden sich in einem zügigen Aufbau. Mindestens genauso wichtig sind aber die Geräte, welche der Konsument dazu benutzt, die medialen Inhalte anzusehen und zu -hören. Denn an dieser Stelle wird entschieden, ob sich Privathaushalte die neue Technik überhaupt leisten können bzw. ob sie sich vom potentiell teuren Upgrade auf die nächste Maschinengeneration einen tatsächlichen Zugewinn an Nutzen und/oder Genuss versprechen. Und dieser Zugewinn hängt einerseits in beträchtlichem Maße von der Usability ab, also der Frage, wie benutzerfreundlich die Geräte sind und wie einfach man ihre Bedienung erlernen kann, und andererseits von den neuen Funktionalitäten an sich. Wie schnell so etwas gehen kann, wenn denn nur die Bedingungen günstig sind, kann man am Beispiel der Mobiltelefone ablesen. Abbildung 6:
Mobilfunkteilnehmer in Prozent der Gesamtbevölkerung
100 89,8 86,4
90 78,5
80 71,6 68,1
70 58,6
60 50 40 28,5
30 17,0
20 10,1 10 0,3
0,7
1,2
2,2
3,0
1990
1991
1992
1993
1994
4,6
6,8
0
Quelle: Bundesnetzagentur
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
Mitte 2005
96
3 Endgeräte und Medienkonsum
Zunächst ist das Handy vor allem etwas für Geschäftsleute und Early Adopter, die sich besonders frühzeitig auf neue Techniken einlassen. Die Geräte sind noch teuer und klobig, die Gesprächsgebühren astronomisch hoch. Doch zwischen 1998 ist 2000 ist etwas passiert, denn die Verbreitung erhöht sich explosionsartig: Zusätzliche Anbieter fassen Fuß und verstärken den Wettbewerb, die Tarife werden günstiger, die Mobiltelefone selbst kleiner, leichter und handlicher. Zu diesem Zeitpunkt leuchten die Vorteile der neuen Technik mit einem Mal einer Mehrheit der Bevölkerung ein: Telefonieren, auch wenn man sich außer Haus aufhält, ständige Erreichbarkeit, keine lästige Suche mehr nach Kleingeld für die nächstgelegene Telefonzelle. Die lineare Steigerung in den Folgejahren ist ein Netzwerkeffekt als mehr oder weniger natürliche Folge der im Jahr 2000 erreichten breiten Akzeptanz; man könnte auch sagen: Herdentrieb. Auch die weniger innovations- oder kommunikationsfreudigen Teile der Gesellschaft können jetzt kaum noch anders, als sich ebenfalls nach und nach ein Handy zuzulegen. Ähnliche Verläufe könnte man auch bei der Verbreitung anderer Technologien beobachten, angefangen von der Durchsetzung von Fernsehapparaten über VHS-Videorecorder, PCs und CD-Player bis hin zu privaten Internet-Anschlüssen und DVD-Geräten. Und noch eine Entwicklung lässt sich am Mobilfunk beispielhaft ablesen: Zunächst waren die Handys nur für den Empfang entweder des D- (800 MHz) oder des E-Netzes (1.600 MHz) ausgelegt. Doch bald schon kamen die ersten Mehrband-Geräte auf den Markt, die beide Netze nutzen konnten, und inzwischen können sich viele Handys bei Bedarf sogar in das US-Netz (1.900 MHz) einwählen – und das vollautomatisch, ohne Zutun des Benutzers. Das Handy erkennt entweder sein jeweiliges Heimatnetz oder im Ausland das Netz mit der höchsten Feldstärke, d.h. mit dem besten Empfang und der optimalen Signalqualität. Längst sind auch Geräte auf dem Markt, die neben der langsamen Datenübertragung mit GPRS auch den neuen breitbandigen Mobilfunkstandard UMTS beherrschen. Wohlgemerkt immer zusätzlich, d.h. die Geräte verlernen ihre ältere, etablierte Funktionalität nicht, sondern gewinnen an Nutzen hinzu. Handelte es sich ursprünglich lediglich um Telefone, so sind die Geräte heute meist mit Kalenderfunktionen, einem Internet-Zugang, einer Foto-Kamera und weiteren Eigenschaften ausgestattet. Diese Funktionen sind sinnvolle Zugaben, denn der Besitz eines Handys bringt es mit sich, dass man es fast ständig bei sich trägt. Was liegt also näher, als das Telefon auch als Kalender, Fotoapparat, MP3-Player und Radio zu nutzen, anstatt für jeden Zweck ein eigenes Gerät verwenden zu müssen? Die Addition aller dieser Eigenschaften ist eine wichtige Grundlage für die große Beliebtheit und rasante Durchsetzung der Mobiltelefone. Kaum jemand würde sich beispielsweise ein UMTS-Gerät zulegen, das nicht die Möglichkeit hat, auf die etablierte und weiter verbreitete ältere GSM-Technik
3.1 Endgerätekonvergenz und -durchsetzung
97
zurückzugreifen, wenn gerade kein UMTS-Netz zur Verfügung steht – oder, elementarer noch, eines, mit dem man keine SMS mehr schreiben kann, weil es doch eigentlich für E-Mail gedacht ist. Bemerkenswert ist an diesem Beispiel auch, welcher umfangreiche und dynamische Markt sich rund um das Thema Mobiltelefonie entwickelt hat. Da ist zunächst einmal der schnelle Wechsel der Gerätegenerationen. Weil sich das Handy eben auch zu einem modischen Accessoire entwickelt hat, setzen sich technologische Neuerungen zügig durch; die Hersteller haben gut zu tun. Es ist ein eigener Markt für Klingeltöne und Display-Bilder entstanden, und eine Anwendung wie die Text-Kurzmitteilung SMS (Short Message Service) hat sich von einer technischen Spielerei binnen kurzem zu einem massiven Umsatzbringer für die Netzbetreiber gemausert. Inwieweit solche Anwendungen durchweg sinnvoll oder wünschenswert sind, sei einmal dahingestellt, doch jedenfalls haben sie Geschäftsfelder entstehen lassen, die zuvor nicht da waren. Die Anreicherung eines allgegenwärtigen Apparates mit kompatiblen und (relativ) leicht bedienbaren neuen Funktionalitäten kann unter günstigen Umständen eine Art Urknall erzeugen. Noch einmal das Beispiel SMS: Bei der Erfindung des Mobilfunkstandards GSM (Global System for Mobile Communications) fiel den Technikern auf, dass man über den sehr schmalbandigen Kanal, mit dem sich das Handy an der nächstgelegenen Basisstation anmeldet, zusätzliche Informationen übertragen kann, ohne gleichzeitig eine regelrechte Verbindung aufzubauen – also eigentlich ohne Mehrkosten. Den Betreibern erschien diese Option allenfalls als ein Nachfolgesystem für die damals gebräuchlichen Pager, ein Funkempfänger-Verfahren für kurze Mitteilungen, das vor allem von Berufsgruppen wie Ärzten in Bereitschaft verwendet wurde, aber niemandes Vorstellungskraft reichte so weit, dass sich SMS zu einem Milliardengeschäft und zu einer völlig alltäglichen Kommunikationsform vor allem unter Jugendlichen entwickeln würde. Schon allein die eher umständliche Texteingabe mit der Zifferntastatur schien dagegen zu sprechen. Die Konsumenten jedoch erkannten innerhalb recht kurzer Zeit von ganz alleine, dass ihnen eine neuartige und unter bestimmten Bedingungen sogar als nützlich oder unterhaltsam empfundene Technik zur Verfügung stand, um miteinander in Kontakt zu treten. Gelungene Usability kann also bedeuten, dass Maschinen mehr können und flexibler werden, und dass ihre Benutzer schnell in die Lage versetzt werden, diese Innovationen im Alltag einzusetzen. Es gibt aber auch das entgegengesetzte Extrem: Für viele Konsumenten ist das Handy einfach nur ein Telefon – was bedeutet, dass die entsprechenden Basisfunktionen des Gerätes leicht erreichbar und für jedermann unmittelbar verständlich sein müssen. Wer erst das Handbuch lesen muss, nur um ein Telefongespräch zu führen, und beim Versuch, einen
98
3 Endgeräte und Medienkonsum
Anruf entgegenzunehmen, dreimal auf eine falsche Taste gedrückt hat, verliert schnell die Freude an dem Apparat, verwendet ihn seltener und kauft (wenn überhaupt) beim nächsten Mal bei einem anderen Hersteller.
3.2 Set-Top-Boxen Die Empfindung ungünstiger Usability ist im Bereich des Digitalfernsehens zunächst einmal oft mit den Receivern oder Set-Top-Boxen verknüpft. Der etwas verwirrende Begriff Set-Top-Box kommt daher, dass amerikanische Haushalte Pay-TV- oder Kabelfernsehreceiver traditionell gerne oben (on top) auf ihren freistehenden Fernsehgeräten (TV-Sets) platzieren, und hat sich im deutschen Sprachgebrauch neben dem technisch korrekteren Begriff des Receivers durchgesetzt, um separate, also nicht z.B. in einen Fernseher oder Videorecorder eingebaute Geräte zu bezeichnen. Es handelt sich bei Set-Top-Boxen also letztlich um eine Notlösung: Sie dienen dazu, vorhandene Endgeräte mit neuen Empfangstechnologien kompatibel zu machen. Am häufigsten werden sie eingesetzt, um mit analogen Fernsehapparaten digitale Programme empfangen zu können; meist spielen sie eine Doppelrolle als Digitalreceiver und Entschlüsselungsgerät für zugangsbeschränkte Angebote. Set-Top-Boxen existieren aus mehreren Gründen. Der wichtigste besteht darin, dass sich die Technologie des digitalen Fernsehens so radikal von der analogen unterscheidet, dass die Konsumenten ihren Gerätepark eigentlich vollständig austauschen müssten. Das ist nachvollziehbarerweise keine realistische Option: Die Geräte der Unterhaltungselektronik haben eine Lebensdauer von deutlich über zehn Jahren und sind für die Verbraucher mit substantiellen Investitionen verbunden. Nach der Einführung einer neuen Technik dauert es also im Zuge des normalen Austausches alter Apparate leicht zwei Jahrzehnte, bis alle Haushalte umgestellt sind. Hinzu kommt vielfach die Unsicherheit darüber, welche technischen Standards sich in Zukunft durchsetzen werden; erst wenn sich eine klare Linie herauskristallisiert hat, sind größere Mengen von Konsumenten bereit, entsprechende Geräte zu kaufen. So trat z.B. der Boom der Videokassettenrecorder erst ein, als sich das VHS-System klar gegen die konkurrierenden Verfahren Betamax und Video 2000 durchgesetzt hatte. Set-Top-Boxen stellen also sicher, dass nicht gleich der ganze Fernseher bzw. Videorecorder ausgetauscht zu werden braucht. Außerdem sind sie billiger, da sie in großen Serien als Standardprodukte hergestellt werden können, anstatt dass die Produzenten ihre Elektronik für den Einbau in unterschiedliche Endgeräte mit kleineren Stückzahlen jeweils anpassen müssen. Auf der anderen Seite
3.2 Set-Top-Boxen
99
können Set-Top-Boxen aber auch dazu eingesetzt werden, Konkurrenten von den Bildschirmen der Verbraucher auszusperren. In der Vergangenheit statteten einige Fernsehunternehmen, Kabel- und Satellitenbetreiber ihre Kunden mit proprietären Empfangsgeräten aus, d.h. solchen, die ausschließlich mit genau diesem einen Anbieter verwendet werden konnten. Wollte ein Zuschauer seinen Anbieter wechseln, war damit automatisch die Anschaffung oder Miete neuer Hardware verbunden. Ohnehin sind für jede der Empfangsebenen Antenne, Kabel, Satellit und Internet jeweils unterschiedliche Endgeräte erforderlich (vgl. Kap. 1.3.3); die Entscheidung für ein bestimmtes Produkt hängt dann also nicht nur von der gewählten Technik an sich ab, sondern auch von der Bindung an einen spezifischen Inhalte-Anbieter. Dieser Umstand ist aus Sicht der Endverbraucher recht ungünstig. Viele Haushalte scheuen davor zurück, zusätzliche Apparate anzuschaffen – sei es aus Gründen des verfügbaren Platzes, der Ästhetik oder der Kosten. Doch Set-TopBoxen haben noch weitere grundsätzliche Nachteile. Da sie dem eigentlichen Gerät, das der Zuschauer für seinen Fernsehgenuss verwendet, vorgeschaltet werden, benötigt man für jedes Endgerät eine eigene Box. Will man also z.B. ein Fernsehprogramm aufzeichnen und gleichzeitig ein anderes ansehen, muss man zwei verschiedene Boxen gleichzeitig einsetzen; das gleiche gilt für Zweitgeräte im Kinder- oder Schlafzimmer. Das allein ist schon ein erheblicher Komfortverlust gegenüber dem konventionellen Fernsehen über Kabel oder Terrestrik, das den selbständigen Betrieb praktisch beliebig vieler Apparate gestattet. Weiter kommt erschwerend hinzu, dass jede Set-Top-Box eine eigene Fernbedienung besitzt, der Zuschauer sich mithin immer versichern muss, welches Gerät er denn gerade leiser oder lauter stellen oder an welchem er das Programm wechseln möchte. Mit einem starken Negativ-Image ist vor allem die d-box behaftet, jenes Gerät, das bis vor wenigen Jahren für den Empfang des Pay-TV-Anbieters Premiere zwingend erforderlich war. Sie war technisch noch nicht ausgereift, was dazu führte, dass ihre Erstinstallation sehr lange dauerte und für Laien schwierig war; außerdem kam es häufig zu Systemabstürzen, und beim Umschalten zwischen verschiedenen Kanälen vergingen mehrere Sekunden, bis das neue Programm zu sehen war – psychologisch ein viel zu langer Zeitraum, wenn der Zuschauer sich langweilte oder zwischen zwei Live-Sport-Kanälen hin- und herzappen wollte. Die Probleme mit der d-box können als einer der Gründe betrachtet werden, aus denen Premiere seine angepeilten Abonnentenzahlen für lange Zeit verfehlt hat. Inzwischen hat der Anbieter umgestellt und lässt neben den bereits vorhandenen d-boxen auch Geräte anderer Hersteller zu, die der Kunde wahlweise direkt bei Premiere oder im unabhängigen Elektronik-Fachhandel erwerben kann.
100
3 Endgeräte und Medienkonsum
Set-Top-Boxen sind folglich ein notwendiges Übel – notwendig, weil sie die Investitionen in die bereits bei den Zuschauern vorhandene analoge Geräteausstattung sichern und den kostengünstigen Einstieg in die digitale Welt erleichtern, ein Übel, weil sie Fernsehen generell umständlicher machen. Seit der d-box hat sich die Technik weiterentwickelt und die Hersteller reagieren inzwischen besser auf die Bedürfnisse ihrer Kunden: So sind viele moderne Set-TopBoxen mit einem Common Interface ausgestattet, das die freie Verwendung verschiedener Verschlüsselungssysteme und damit auch die Nutzung unterschiedlicher Anbieter ermöglicht, und treten als Kombinations- bzw. Multifunktionsgeräte in Erscheinung, sind also z.B. Receiver und Videorecorder zugleich, oder verfügen über mehrere Tuner, damit nicht mehr nur ein einziges Endgerät angeschlossen werden kann. Eine Set-Top-Box ist dementsprechend eine Maschine, die eine Reihe von Technologien und Verfahren, die für das digitale Fernsehen konstitutiv sind, in einer selbständigen Einrichtung zusammenführt und die ursprünglich digitalen Informationen so ausgibt, dass sie wahlweise von analoger oder digitaler Technik verstanden werden; alle ihre wesentlichen Bestandteile können aber genauso gut direkt in Fernsehapparate, Receiver, Videorecorder oder andere Multimedia-Geräte eingebaut sein.
3.3 Komponenten digitaler Empfangsgeräte Damit digital übertragenes Fernsehen im Haushalt des Zuschauers wieder sichtund hörbar wird, müssen im Prinzip alle Manipulationen, denen das Signal zum Zweck seines Transports zum Publikum unterworfen war, wieder rückgängig gemacht werden. Zunächst benötigt man ein Empfangsteil (Tuner), das aus dem jeweils am Gerät eintreffenden Frequenzspektrum den richtigen Kanal herausfiltert und die auf ihm transportierten Daten für die Weiterverarbeitung bereitstellt, den Demodulator, der in der Computer-Welt Bestandteil eines Modems (zusammengesetzt aus Modulator und Demodulator) ist. Da bei der digitalen Distribution auf einem Kanal in der Regel mehrere Programme gleichzeitig transportiert werden, folgt an zweiter Stelle eine Einrichtung, welche die verschiedenen Inhalte voneinander trennt, ein Demultiplexer. Besonders leistungsfähige Geräte sind in der Lage, alle Signale eines Transportstroms (z.B. vier TV-Programme auf einem typischen DVB-T-Kanal) gleichzeitig auszugeben; die meisten im Konsumenten-Bereich eingesetzten Demuxer beschränken sich jedoch aus Kostengründen darauf, jeweils nur ein Signal herauszuisolieren. Dritter elementarer Bestandteil schließlich ist der Decoder. Da das Videomaterial mit MPEG-2 oder MPEG-4 datenreduziert zum Empfänger geliefert
3.3 Komponenten digitaler Empfangsgeräte
101
wird, muss dieser die fehlenden Bildinformationen rechnerisch rekonstruieren, bevor der Programminhalt auf einem Bildschirm oder Projektor (Beamer) ausgegeben werden kann. Dieses Decodieren ist der aufwändigste Schritt bei der Wiedergabe von digitalem Video; je stärker die Datenreduktion und je größer das Bild, desto mehr Rechenoperationen sind in der selben Zeit erforderlich. Während heutige Prozessor-Chips mit SDTV-Programmen in MPEG-2 gewöhnlich leicht zurecht kommen, stellt die Decodierung von HDTV-Video mit MPEG4/AVC durchaus keine leichte technische Herausforderung dar, denn die Leistungsfähigkeit der verwendeten Chips und/oder Software muss für die gewaltigen Datenmengen ausreichen, die bei bis zu 30 hochaufgelösten Frames pro Sekunde anfallen. Abbildung 7:
Aufbau digitaler Empfangsgeräte
102
3 Endgeräte und Medienkonsum
3.3.1 Verschlüsselung und Adressierung Alle diese Schritte gelten für sämtliche digitalen Videosignale, ganz gleich, auf welchem Weg diese zu ihrem Nutzer kommen. Ein Spezialfall des Digitalfernsehens besteht jedoch in der Verschlüsselung, die vor allem beim Pay-TV eingesetzt wird, um Zuschauer auszuschließen, die nichts bezahlt haben, die aber auch bei gratis empfangbaren Programmangeboten aus marktpolitischen Gründen (Grundverschlüsselung) oder zum Zwecke des Jugendschutzes zum Einsatz kommt. Verschlüsselung bedeutet, dass das zu übertragende Signal auf Senderseite mit einem mathematischen Verfahren (Algorithmus) so verändert wird, dass es keinen verständlichen Sinn mehr ergibt. Zur Rückverwandlung der Informationen dient im Empfänger ein Descrambler, was man mit „Entwirrer“ übersetzen könnte. Ähnlich wie ein Passwort gibt ein Schlüssel auf Empfängerseite den Weg frei, die richtigen Klartext-Daten wieder zu rekonstruieren. Die Arbeitsweise des Descramblers ist – wie die aller bisher angesprochenen Bauteile – in der DVB-Norm festgeschrieben und daher bei allen Geräten gleich. Doch hier endet die Vereinheitlichung. Bei den Verschlüsselungsverfahren im Digitalfernsehen spricht man von Conditional Access Systems (CAS). Die in Europa verbreitetsten Verfahren heißen Nagravision, CONAX, Cryptoworks, Viaccess und Irdeto. Für welches dieser Systeme sich ein Inhalteanbieter entscheidet, hängt weniger von Sicherheitserwägungen ab, da sie alle einen recht hohen Standard bieten, sondern vor allem von den ausgehandelten wirtschaftlichen Konditionen und der Historie des Senders. Der deutsche Pay-TV-Provider Premiere bedient sich z.B. des Systems Nagravision unter anderem deshalb, weil noch zahlreiche ältere d-boxen im Umlauf sind, deren Betacrypt mit dem neuen Verfahren kompatibel gemacht werden konnte. Die CA-Systeme funktionieren im Grundsatz ganz ähnlich wie das bei Banktresorschließfächern gebräuchliche Zwei-Schlüssel-Prinzip. Dabei hat der Eigentümer des Tresorinhalts einen Schlüssel. Möchte er nun sein Schließfach öffnen, wird er von einem Mitarbeiter der Bank begleitet, der einen zweiten Schlüssel hat, und nur wenn beide Schlüssel gleichzeitig verwendet werden, öffnet sich die Schließfachtür. Man könnte also sagen, dass der Schlüssel des Kunden durch denjenigen des Bankmitarbeiter autorisiert wird. Kann sich der Kunde dagegen nicht als zugangsberechtigt ausweisen, wird ihm die Autorisierung verweigert. Bei den Kontrollsystemen fürs Fernsehen erhält der Kunde eine individuelle Smartcard, d.h. eine meist scheckkartengroße Karte mit eingebautem elektronischem Chip als Zugangsschlüssel, während der Sender zusammen mit seinem Programminhalt permanent einen zweiten Schlüssel ausstrahlt. Kommen nun beide Schlüssel im in dem darauf spezialisierten Teil des Empfängers, dem Conditional Access Module (CAM) zusammen, erzeugen sie gemein-
3.3 Komponenten digitaler Empfangsgeräte
103
sam ein Passwort, mit dem das Fernsehbild entschlüsselt werden kann. Der Grund für diese komplizierte Vorgehensweise liegt in der höheren Sicherheit. Wenn dem Sender bekannt wird, dass jemand den aktuellen Schlüsselcode (Encryption Key oder Scrambling Key) geknackt hat (was relativ regelmäßig vorkommt), kann er ihn sofort ändern, ohne die Smartcards seiner Kunden austauschen zu müssen. Dadurch werden jedoch die illegitimen „Piratenkarten“ wertlos, denn nur die vom Sender gezielt adressierten legitimen Karten erhalten die neuen Informationen, die sie für die Abstimmung beider Schlüssel benötigen. Die Adressierbarkeit spielt nicht nur aus Sicherheitsgründen eine wichtige Rolle, sondern auch im Rahmen des Kundenmanagements. Da bei allen Broadcast-Lösungen kein unmittelbarer Rückkanal vom Empfangsgerät zum Sender bzw. Kabel- oder Satellitenbetreiber besteht, gibt es keine direkte Möglichkeit, einer Set-Top-Box oder einem Fernsehapparat die Nutzung eines bestimmten Programms zu erlauben oder zu verbieten. Bestellt der Kunde nun z.B. einen Film im Pay-per-View-Verfahren, wird ein Code in das normale Sendesignal integriert, der nur von dem Endgerät genau dieses Kunden verstanden wird. Darin wird der Smartcard des Nutzers mitgeteilt, dass z.B. ein bestimmter Film während eines definierten Zeitrahmens freigegeben werden soll, also etwa am selben Abend zwischen 20 und 23 Uhr. Genauso funktioniert es auch, wenn Zuschauer ganze Kanäle oder Pakete abonnieren oder wieder abbestellen. Premiere empfiehlt seinen Kunden beispielsweise, bei Pay-per-View-Bestellungen die Set-Top-Box ca. fünf Minuten vor dem geplanten Beginn der Sendung einzuschalten, damit sichergestellt ist, dass das Freischalt-Signal auf der Smartcard des Kunden rechtzeitig ankommt. Bei der Adressierbarkeit handelt es sich also um eine Fernsteuerung ohne direkten Zugriff auf das Gerät und vor allem ohne Rückfluss von Informationen. Damit ist dieses Verfahren ein guter Kompromiss zwischen den legitimen Geschäftsinteressen der Anbieter einerseits und den berechtigten Datenschutz-Bedürfnissen der Konsumenten. Umstritten ist in der Branche deshalb auch gar nicht der Einsatz von Conditional-Access-Systemen, sondern vielmehr die Frage, auf welche Weise man eine möglichst große Flexibilität für den Kunden bei der Auswahl seiner Dienstleister erreichen kann bzw. sollte. Dazu gibt es zwei Wege, die an den entgegengesetzten Enden der Distributionskette ansetzen: Beim ausstrahlenden Programmlieferanten und beim Endgerät. Die senderseitige Methode besteht im Simulcrypt-Verfahren. Das Entschlüsselungs-Passwort, das Smartcard und Scrambling Key gemeinsam generieren, muss laut DVB-Standard immer in einer ganz bestimmten Form vorliegen; es ist dabei aber gleichgültig, auf welche Art und Weise es erzeugt wird. Das heißt, dass völlig verschieden aufgebaute CA-Systeme in der Lage sind, den gleichen gültigen Schlüssel für einen Inhalt zu liefern. Will man nun also Zuschauer beliefern, deren Endgeräte von den verschiedenen gebräuchlichen Zu-
104
3 Endgeräte und Medienkonsum
gangskontrollsystemen nur eines beherrschen bzw. eingebaut haben (embedded CA), muss man das Sendesignal mit mehreren unterschiedlichen Schlüsseln gleichzeitig ausstrahlen. Die Box des Zuschauers sucht sich dann die passenden Informationen selbsttätig heraus. Das ist für das Publikum komfortabel, weil dadurch Boxen fast beliebiger Hersteller und Systeme eingesetzt werden können und beim Wechsel des Providers kein neues Empfangsgerät angeschafft werden muss, aber für den Sender teuer und aufwändig. Simulcrypt ist deshalb nicht sehr gebräuchlich. Die andere Variante heißt Multicrypt und baut auf die Flexibilität des Endgerätes. Da das CA-Modul ja nur eines von fünf entscheidenden Bestandteilen eines digitalen Empfängers ist, erscheint es unsinnig, das ganze Gerät auszutauschen, nur weil nach einem Anbieterwechsel ein anderes Entschlüsselungssystem benötigt wird. Also baut man in den Apparat ein Common Interface (CI) ein, d.h. eine oder mehrere Schnittstellen, an die man ein beliebiges Conditional-AccessModul anschließen kann. Diese Module kann man unabhängig von dem Empfangsgerät kaufen; normalerweise handelt es sich um die von Notebook-Computern bekannten PCMCIA-Karten, die dann gemeinsam mit der Smartcard einfach in die Set-Top-Box eingesteckt werden können. Die Einschübe sind kaum größer als die Smartcards, die sie enthalten, haben aber die nötige Elektronik zur Verwendung des jeweiligen CA-Systems eingebaut. Der Vorteil: Dem Konsumenten steht es frei, sich ein beliebiges Empfangsgerät zu kaufen, das optimal auf seine Ansprüche und seinen Geldbeutel ausgerichtet ist. Für welchen Programmlieferanten er sich dann entscheidet oder ob er sein Programm sogar aus mehreren verschiedenen Quellen bezieht, spielt dann keine Rolle mehr. Dafür muss er jedoch für den Receiver und das separate CAM tiefer in die Tasche greifen als bei einem Gerät, das ein bestimmtes System eingebaut hat. Abgesehen davon gibt es auf dem Markt auch preiswerte Receiver, die weder selbst ein CAM enthalten noch über eine geeignete Schnittstelle verfügen, und die deshalb nur für unverschlüsseltes Free-TV geeignet sind, die sogenannten Zapping-Boxen. Nach heutigem Stand der Dinge kann man damit im Kabel meist ausschließlich die öffentlich-rechtlichen Sender, per Satellit dagegen eine ganze Reihe auch kommerzieller Kanäle sehen, während alle in Deutschland über Antenne empfangbaren Sender zur Zeit grundsätzlich unverschlüsselt sind. Die Entscheidung eines Haushaltes, welche Technik angeschafft werden soll, hängt mithin zunächst von der Empfangsebene ab. Wird Fernsehen über Kabel genutzt, reicht es gewöhnlich aus, ein für den jeweiligen Betreiber geeignetes Gerät mit embedded CA zu kaufen, denn wie Premiere setzt z.B. auch Kabel Deutschland auf Nagravision. Da man als Kabelkunde dann ohnehin nur mit diesem Verfahren verschlüsselte Inhalte empfangen kann, ist die Anschaffung eines Gerätes mit CI nicht sinnvoll – es sei denn, man möchte für einen etwaigen
3.3 Komponenten digitaler Empfangsgeräte
105
Umzug in ein anderes Bundesland oder noch nicht absehbare zukünftige Entwicklungen gerüstet sein. Satellitenhaushalte dagegen bekommen gleichzeitig Sender mit den verschiedensten Verschlüsselungssystemen geliefert, so dass hier die Anschaffung der flexibleren Technik sinnvoll sein kann – vor allem dann, wenn man auch ausländische Programme sehen möchte. Für terrestrische Haushalte reicht dagegen in jedem Fall eine einfache Zapping-Box. Mit Ausnahme des Demodulators, also des eigentlichen Empfangsteils, und des CA-Moduls können alle hier angesprochenen Aufgaben beim digitalen TVEmpfang wahlweise genauso gut von dafür eigens entworfenen Prozessor-Chips oder von gewöhnlichen Computern erledigt werden. Der Vorteil der Chips besteht darin, dass sie aufgrund ihrer Spezialisierung mit weniger Rechenaufwand genauso schnell arbeiten können wie ein PC und dabei weniger fehleranfällig sind. Deshalb sind sie billiger als ein PC, aber auch weniger flexibel: Zwar kann man auch solche hardwarebasierten Empfangsgeräte mit Software-Aktualisierungen versorgen, die mit dem Sendesignal übermittelt und automatisch installiert werden, doch kann sich der begrenzte Funktionsumfang bei größeren Neuerungen als Falle erweisen. Ein gutes Beispiel dafür ist die Weiterentwicklung des MPEG-Verfahrens: Bis vor kurzem gab es keinen einzigen Digital-TV-Empfänger auf dem Markt, der mit einem Chip zur Decodierung von MPEG-4 ausgestattet war – eigentlich kein Wunder, denn digitales Fernsehen fand ausschließlich in MPEG-2 statt. Als jedoch die ersten Sender, darunter vor allem Premiere, mit dem kommerziellen Einsatz von HDTV beginnen wollten, war es ökonomisch nicht vertretbar, dafür den gleichen Standard zu verwenden wie für das konventionelle Fernsehen, denn die Übertragungskosten hätten in keiner vernünftigen Relation zu den Erlösperspektiven gestanden. Aus diesem Grund entschied man sich (im Gegensatz übrigens zum terrestrischen HDTV in den USA) direkt für den moderneren Datenreduktionsstandard MPEG-4/AVC – nur leider gab es zunächst keine dafür geeigneten Set-Top-Boxen, weil die entsprechenden Chips noch nicht zur Serienreife entwickelt waren. Und alle Haushalte, die bereits digitale Empfänger besitzen, müssen diese austauschen, sobald sie hochaufgelöste Bilder sehen wollen. Für PCs ist der Standardwechsel dagegen gar kein Problem, denn MPEG-4-Codecs sind in ihrer Welt schon seit Jahren verbreitet; es ist allenfalls nötig, den passenden Codec aus dem Internet herunterzuladen, und schon kann es mit unveränderter Hardware losgehen – vorausgesetzt, der Prozessor des jeweiligen Rechners ist schnell genug.
106
3 Endgeräte und Medienkonsum
3.3.2 Hardware und Betriebssystem Der PC spielt seine Vorzüge gegenüber spezialisierten Set-Top-Boxen noch stärker in jenen Bereichen aus, in denen es darum geht, Zusatzdienste zum Fernsehen anzubieten. Denn das bedeutet fast zwangsläufig, dass auf dem Empfangsgerät eine Software laufen muss, und genau dafür ist der Computer eigentlich erfunden worden. Vereinfacht gesagt besteht der PC aus verschiedensten elektronischen Bauteilen (Hardware), die jeweils bestimmte Funktionen übernehmen. Das wichtigste dieser Elemente ist der Zentralprozessor (Central Processing Unit, CPU), unter denen der Intel Pentium und der AMD Athlon zu den bekanntesten gehören. Solche universellen CPUs können im Grunde alles, d.h. mit der richtigen Software und der nötigen Zeit ist es gleichgültig, mit welcher Aufgabe man sie betraut. Deshalb sind sie schwierig herzustellen und teuer. Um nun diese Hardware-Komponenten zum Leben zu erwecken und sicherzustellen, dass sie das tun, was die Anwendungsprogramme (z.B. eine Textverarbeitung oder der Internet-Browser) von ihnen verlangen, benötigt man ein Betriebssystem wie Microsoft Windows oder Linux. Das Betriebssystem ist eine Art Übersetzer, der zwischen Mensch und Maschine vermittelt (also die Möglichkeit bietet, Programme zu starten, Dateien zu organisieren und wiederzufinden usw.), aber auch dafür sorgt, dass beispielsweise ein und dieselbe Version von Microsoft Excel oder eines Video-Codecs auf verschiedenen PCs laufen können, die völlig unterschiedliche Hardware-Voraussetzungen bieten. Daher ist der Computer die konvergente Maschine schlechthin. Bei einem normalen Digitalreceiver ist das im Prinzip genauso, allerdings ist er aufgrund seines hohen Spezialisierungsgrades und seines nach Möglichkeit kostensparenden Aufbaus langsamer und weitaus weniger flexibel als der durchschnittliche PC. Seine meist proprietäre, eigens auf das jeweilige Gerät abgestimmte Betriebssoftware kümmert sich in der Hauptsache um die Koordination der einzelnen Komponenten. Zusätzlich ist es aber vor allem bei den teureren Boxen möglich, mit ihnen mehr anzufangen als nur fernzusehen, z.B. Zusatzinformationen zu Sendungen oder anderen Themen anzuzeigen, eine elektronische Programmzeitschrift (EPG, Electronic Programme Guide) zu verwenden oder sogar interaktiv mit dem gerade laufenden Programm, dem Sender oder externen Dienstleistern umzugehen (vgl. Kap. 3.6 und 5.9). Das macht es erforderlich, dass auf dem Gerät auch Anwendungssoftware ausgeführt werden kann. Im ungünstigsten Fall sind das ausschließlich solche Anwendungen, die der Hersteller der Box vorgesehen und ins Betriebssystem eingebaut hat. Gibt es nun eine neue Entwicklung oder herstellerunabhängige Anwendungen, bleibt der Nutzer des Gerätes außen vor.
3.3 Komponenten digitaler Empfangsgeräte
107
Möchte man das digitale Empfangsgerät aber zumindest ein wenig flexibler machen und ein Stück weiter in Richtung PC rücken, benötigt man einen Zugang zum Hardware-Betriebssystem, der als Middleware oder API (Application Programming Interface) bezeichnet wird und im Prinzip dem PC-Betriebssystem entspricht. Wenn der Hersteller die Middleware-Schnittstelle offen legt, sind auch Dritte in der Lage, Anwendungen zu entwickeln, die dann mit dem Sendesignal übermittelt und auf dem jeweiligen Endgerät selbständig ausgeführt werden können, ganz ähnlich, wie es oft auch bei Internet-Browsern der Fall ist (Applets). In der Praxis existieren so viele APIs wie es Hersteller von digitalen TV-Empfangsgeräten gibt, so dass in einem Markt, der nicht ganz klar von einem Anbieter dominiert wird, nur wenige fortgeschrittene Anwendungen zum Einsatz kommen. Denn schließlich müsste ein Sender, der seinem gesamten Publikum eine interaktive Zusatzleistung wie z.B. individuelle Wettervorhersagen mit hochwertigen Grafiken anbieten will, die Anwendung erst einmal auf alle gängigen Middleware-Varianten hin adaptieren. Das ist mit großem Aufwand und Kosten verbunden und macht später im praktischen Einsatz auch die Übermittlung der Daten langsamer, da – ähnlich wie bei Simulcrypt – alle Informationen mehrfach, nämlich für jede API separat, gesendet werden müssten. Um einen Ausweg aus diesem Dilemma zu weisen, wurde der ein weiterer DVB-Standard mit der Bezeichnung MHP (Multimedia Home Platform) entwickelt. MHP basiert auf der auch für Internet-Anwendungen häufig eingesetzten Programmiersprache Java, die von den technischen Bedingungen der jeweiligen Hardware weitgehend unabhängig funktioniert, und ist als einheitliche Middleware für Boxen aller Hersteller gedacht. Somit würde MHP den Markt für Zusatzapplikationen auf Digital-TV-Geräten vereinheitlichen und öffnen. Möglich ist es dann, Datendienste mit eigener Benutzeroberfläche anzubieten, die weit über die bisherigen Möglichkeiten des Teletextes hinausgehen. Es sind aber auch Anwendungen machbar, die einen Rückkanal, ganz gleich ob über das TV-Kabel, Internet, Festnetz-Telefon oder Handy, benötigen, wie z.B. Live-Abstimmungen, Ratespiele, Bestellvorgänge und dergleichen. Und auf der höchsten Stufe kann man dank MHP sogar mit dem Fernseher im Internet surfen. Allerdings hat sich MHP in Deutschland bislang nicht einmal ansatzweise durchsetzen können und ein Durchbruch ist bis auf weiteres nicht in Sicht. Ein Problem besteht darin, dass MHP-Boxen besonders leistungsfähig sein müssen und deshalb teuer sind, während zugleich praktisch keine Verbrauchernachfrage nach solchen Geräten besteht. Denn da sich weder Netzbetreiber noch Programmveranstalter bisher klar auf MHP geeinigt und festgelegt haben, wird die Plattform weder in der Öffentlichkeit propagiert noch gibt es bislang Anwendungen, deren Zusatznutzen dem Publikum in besonderer Weise eingeleuchtet hätte.
108
3 Endgeräte und Medienkonsum
Es steht daher zu erwarten, dass MHP von der Konvergenz der Endgeräte überholt wird, noch bevor es in Deutschland richtig Fuß fassen kann. Je mehr PC-Funktionen das Endgerät übernehmen kann, desto mehr erwirbt es auch dessen Flexibilität, und das bedeutet, dass in wenigen Jahren die im Internet verwendeten Technologien wie die World-Wide-Web-Formate HTML oder Flash ohne jeden Systembruch auch mit dem Fernsehgerät genutzt werden können. Nicht umsonst gehen die großen Computerhersteller und Microsoft immer mehr in die Richtung, PCs in wohnzimmertauglichen Gehäusen und mit besonders einfach zu bedienenden Benutzeroberflächen anzubieten. Diese Media Center sind vollwertige Computer mit dem gesamten Funktionsspektrum, das man von einer solchen Maschine erwarten kann, tarnen sich jedoch als bessere Videorecorder bzw. Set-Top-Boxen, damit sie auch von technisch weniger versierten Konsumenten verwendet werden. Noch sind Installation, Wartung und Bedienung dieser Geräte zu kompliziert und ihre Anschaffung zu teuer, aber das ist lediglich eine Frage der Zeit. Selbst die einfachsten und billigsten Boxen beherrschen in jedem Fall die Darstellung der Service-Informationen (SI), die bei DVB mit übertragen werden. Das sind relativ rudimentäre Begleitinformationen zum Programm, darunter die Identifikation des Senders, Titel und Anfangszeiten der einzelnen Sendungen und ggf. einige elementare redaktionelle Angaben. Die SI dienen zum einen der automatischen Identifikation der Kanäle beim Sendersuchlauf, ermöglichen aber auch die Generierung eines schriftlichen Überblicks, z.B. über die als nächste folgenden Sendungen oder die Programmangebote mehrere Sender zu einem bestimmten Zeitpunkt. Obwohl die Hersteller von Set-Top-Boxen die so dargestellten Inhalte gerne als EPG bezeichnen, verdienen die SI-basierten Dienste diese Bezeichnung eigentlich nicht. Ein vollwertiger EPG, etwa auf Basis von MHP, bietet ausführliche Programminformationen in Kombination mit Suchmöglichkeiten und unter Umständen sogar einer Funktion, welche die Programmierung eines digitalen Videorecorders erlaubt oder zur Bestellung von Videoon-Demand dient. Die SI-Daten sind dagegen äußerst knapp, reichen maximal zwei Tage in die Zukunft und werden von den meisten Sendern bei aktuellen Programmänderungen auch nicht aktualisiert – von etwaigen interaktiven Nutzungen ganz zu schweigen. Insgesamt kann man diagnostizieren, dass digitale Fernseh-Empfangsgeräte, ganz gleich ob als selbständige Set-Top-Box oder integriert in einen anderen Apparat, trotz zunehmender Verbreitung noch am Anfang ihrer Entwicklung stehen. Aufgrund der großen Unsicherheit bei den Verbrauchern und abrupter Kurswechsel und interner Interessenskonflikte der TV-Industrie hat sich die Herausbildung und Weiterentwicklung von standardisierten Komfortmerkmalen verlangsamt. Wo sich der Wettbewerb der Hersteller von Konsumentenelektro-
3.4 Bildschirme
109
nik (Consumer Electronics, CE) in einem voll entwickelten Markt meist in zwei Lager aufspaltet, deren eines sich dem reinen Preiskampf widmet, während sich das andere um die Komfort- und Nutzwertverbesserung kümmert, befindet sich die zersplitterte Industrie hier immer noch in einem Stadium mehr technischen Experimentierens. Es ist kein Zufall, dass die großen internationalen CEKonzerne das Geschäft bis vor kurzem noch zum größten Teil kleineren und mittelständischen Unternehmen überlassen haben, denn einen wirklichen Massenmarkt konnten sie nicht erkennen (vgl. Kap. 5.8). Außerdem sind gerade die Konzerne sehr stark mit den Herstellern von Programminhalten wie den großen Hollywood-Studios und Fernsehunternehmen verbunden. Anstatt also Technologien zu entwickeln, die optimal auf die Wünsche der Konsumenten ausgerichtet sind, zählen sie teilweise eher zu den Fortschrittsverhinderern, denn sie stellen die kommerziellen Vermarktungsmöglichkeiten von Programm meist über die Usability. Der Industrie scheint es zudem immer schwer zu fallen, Innovationen an Stellen umzusetzen, die man nicht unmittelbar sehen oder hören kann. So führen z.B. die bereits seit Jahren marktreifen Personal Video Recorder immer noch eher ein Schattendasein, während Dolby-Surround-Audioanlagen und großformatige Flachbildschirme mit großem Marketingaufwand bedacht werden.
3.4 Bildschirme Obwohl ihre Entwicklung eigentlich nur indirekt mit dem digitalen Fernsehen zusammenhängt, werden die Displays in besonderem Maße mit dieser technologischen Entwicklung assoziiert. Das hängt nicht zuletzt damit zusammen, dass die technische Evolution auf diesem Feld am leichtesten und eindrucksvollsten sinnlich erfahrbar wird und dass die Preise in den vergangenen Jahren spürbar verbraucherfreundlicher geworden sind. Es sind dabei vor allem zwei Faktoren, welche die Popularität des Themas Bildschirm gefördert haben: Die neuen Geräte sind im Unterschied zu klassischen Röhrenbildschirmen bauartbedingt nur wenige Zentimeter tief und vergleichsweise leicht, und diese Eigenschaften ermöglichen es, auch sehr große, eindrucksvolle Displays in normale Wohnlandschaften zu integrieren. Statt mit einem zentnerschweren, unter Umständen schrankgroßen Möbelstück hat man es nun mit einem eher elegant wirkenden Apparat zu tun, den man wie ein Bild einfach an die Wand hängen kann.
110
3 Endgeräte und Medienkonsum
3.4.1 Bildschirmtechnologien Konventionelle Bildschirme arbeiten mit einer Kathodenstrahlröhre, auch CRT (Cathode Ray Tube) genannt. Ihr Prinzip besteht darin, dass innerhalb eines luftleeren Glaskörpers gebündelte Elektronen gezielt auf einen mit Phosphor beschichteten Schirm gelenkt werden. Auf der Innenseite des Schirms befindet sich eine Metall-Maske, die gewissermaßen als Schablone für die einzelnen Bildpunkte (Pixel) dient. Trifft der Elektronenstrahl nun durch die Loch- oder Streifenmaske auf die Phosphorschicht, werden die Pixel zum Aufleuchten angeregt, glimmen einen kurzen Augenblick lang aus eigener Kraft weiter und verlöschen dann wieder, bis sie erneut aktiviert werden. Dieser Vorgang wiederholt sich je nach Bauart des Fernsehgerätes 25-100mal pro Sekunde. Mit dieser Technik sind systembedingte Nachteile verbunden, nämlich vor allem die Verwendung einer Vakuum-Bildröhre. Diese muss aus extrem stabilem Glas gefertigt werden, damit sie dem Luftdruck der Atmosphäre standhalten kann; je größer die Röhre sein soll, desto dicker und schwerer muss sie werden, so dass schon aus Gewichtsgründen eine bestimmte Maximalgröße nicht überschritten werden kann. Geräte mit mehr als 29 Zoll (knapp 74 cm) Bildschirmdiagonale sind daher in der Regel nicht praktikabel. Auch die Tiefe des Apparates wächst direkt proportional zur Bildschirmgröße. Da die Elektronen von einer hinten in der Mitte der Röhre befindlichen Quelle aus abgestrahlt werden, treffen sie in einem Winkel auf die Loch- oder Streifenmaske. Je größer dieser Winkel, desto mehr wird das Bild an den äußeren Rändern verzerrt. Für eine bestmögliche Bildqualität muss der Winkel deshalb möglichst klein gehalten werden, was wiederum nur durch einen relativ großen Abstand zwischen Elektronenquelle und Bildschirm erreicht werden kann. Folglich sind CRT-Displays z.B. für die Nutzung von HDTV in Privathaushalten eher ungeeignet: Da sie in diesem Fall sehr breit sein müssen, bringen sie bereits bei kleineren Größen ein hohes Gewicht auf die Waage und beanspruchen eine sehr große Stellfläche; wünschen die Verbraucher aber hohe Bildschirmdiagonalen, entwickeln sie sich zu monströsen Apparaten, die sich praktisch nur mit einem Gabelstapler bewegen lassen. Doch die CRTs haben auch Vorteile: Als über viele Jahrzehnte ausgereifte Technik sind sie recht preiswert herzustellen und robust. Sie erreichen eine große Helligkeit, so dass sie auch unter Tageslichtbedingungen ohne weiteres verwendet werden können, und ermöglichen bei richtiger Einstellung eine sehr präzise Farbwiedergabe. Eine ihrer wichtigsten Eigenschaften ist aber ihre Toleranz gegenüber fehlenden Bildinformationen. Man kann sich das an einem über Antenne oder Kabel empfangenen Fernsehsignal im Vergleich zum Bild von einer VHS-Kassette vor Augen führen: Beim VHS-Verfahren werden nur die Hälfte der Bildinformationen des Originals aufgezeichnet. Deshalb sieht die Wiederga-
3.4 Bildschirme
111
be schlechter aus, sie erscheint „verrauscht“. Trotzdem nimmt der Zuschauer das nicht als sehr störend wahr, denn die analoge Technik verteilt die fehlenden Stellen so gleichmäßig auf die einzelnen Frames und Zeilen, dass das Bild nicht unscharf erscheint. Was man also auch als einen Mangel an Präzision bezeichnen könnte, schlägt dem CRT-Display so zum Vorteil aus. Bei den heute üblichen Flachdisplays, die sich in zwei Konstruktionsprinzipien aufteilen, ist das anders. Man unterscheidet zunächst zwischen LCD- und Plasmabildschirmen. Die LCD-Technik (Liquid Chrystal Display, Flüssigkristall-Anzeige) macht sich zunutze, dass bestimmte Substanzen die Polarisation des Lichtes verändern. Damit ist gemeint, dass Licht genau wie eine elektromagnetische Schwingung aus Wellen besteht. Angenommen, die Wellenschwingungen bewegen sich immer nur aufwärts und abwärts, handelt es sich um eine vertikale Polarisation, verlaufen die Schwingungen dagegen von rechts nach links, ist die Polarisation horizontal. Flüssigkristalle haben die Eigenschaft, die Schwingungsrichtung des Lichts um 90 Grad zu drehen. Ein LCD-Monitor besteht daher aus mehreren Schichten: Zunächst einmal der Lichtquelle, welche die gesamte Bildschirmfläche permanent von hinten erleuchtet. Dieses Licht ist immer eingeschaltet, wenn der Monitor in Betrieb ist – auch wenn er eine schwarze Fläche darstellt. Vor dieser Hintergrundbeleuchtung sind zwei Polarisationsfilter angebracht, von denen einer nur die vertikalen und der andere nur die horizontalen Lichtwellen durchlässt. Der Effekt: Die beiden Filter schatten durch ihr Zusammenspiel die Lichtquelle vollständig ab, der Bildschirm bleibt dunkel. Zwischen diesen beiden Filtern befindet sich aber eine Schicht Flüssigkristalle, die das vertikal eintretende Licht automatisch um 90 Grad dreht, so dass es von dem horizontalen zweiten Filter durchgelassen wird. Dadurch ist der Normalzustand eines eingeschalteten LCD-Bildschirms hell. Durch elektrischen Strom lässt sich diese natürliche Eigenschaft der Kristalle verändern; je nach Stromstärke verändert sich der Winkel, in dem sie das polarisierte Licht umlenken. Das bedeutet, man kann sie so schalten, dass gar kein Licht mehr durchkommt (schwarz) oder nur ein Teil der Helligkeit, je nach Bedarf. Eine der größten technischen Herausforderungen bei dieser Displaytechnologie besteht darin, dass es erforderlich ist, jeden einzelnen Pixel separat zu steuern – bzw. bei Farbbildschirmen für jeden Bildpunkt sogar drei separate Steuerungsinformationen in den Farben rot, grün und blau zu erzeugen. Denn das bedeutet, dass für einen HDTV-Monitor mit 1.080 Zeilen gut 6,2 Mio. Schaltelemente benötigt werden. Diese Transistoren werden auf einer dünnen Folie angebracht, so dass häufig auch von TFT-Displays (Thin Film Transistor) die Rede ist. Die Herstellung ist nicht ganz einfach, denn wenn auf einer solchen Folie ein Transistor nicht richtig funktioniert, fällt der entsprechende Pixel eben-
112
3 Endgeräte und Medienkonsum
falls aus, es ist aber nicht möglich, einen Defekt zu reparieren, sondern man muss dann die ganze Transistorenfolie wegwerfen. Außerdem ist es technisch durchaus anspruchsvoll, die richtige Stromversorgung und Reaktionsgeschwindigkeit für die Millionen von Zellen zu gewährleisten. Ist die Schaltgeschwindigkeit zu langsam, führt das bei schnellen Bewegungen zu Unschärfen. Eine weitere Schwierigkeit besteht in der Farbwiedergabetreue: Da das Licht mehrfach gefiltert und dabei verändert wird, bevor es das Auge des Betrachters erreicht, müssen Lichtquelle, Filterungsvorgänge und verwendete Materialien sehr genau aufeinander abgestimmt werden, damit ein realitätsnaher Eindruck entsteht. Plasmabildschirme werden dagegen aus selbstleuchtenden Pixeln hergestellt, bei denen es sich im Grunde um winzige Leuchtstoffröhren mit einem Gemisch aus Neon- und Xenongas handelt, das elektrisch aktiviert wird. Dadurch eignet sich diese Technik besonders für große Displays, die auch in hellen Umgebungen sehr gut eingesetzt werden können. Der Nachteil: Plasmageräte verbrauchen viel Strom und verschleißen aufgrund der hohen elektromechanischen Beanspruchung ihrer Pixel schneller als ihre LCD-Gegenstücke. Auf CRT-Bildschirmen entsteht jeder einzelne Frame nach und nach, d.h. der Elektronenstrahl fängt rechts oben an und erleuchtet dann zeilenweise einen Pixel nach dem anderen, bis er unten links angekommen ist. Die einzelnen Phosphore glühen einen kurzen Augenblick weiter, nachdem sie aktiviert wurden. Außerdem arbeiten sie – zumindest wenn es sich um Fernsehgeräte handelt – mit dem Zeilensprungverfahren (Interlacing), d.h. es werden unmittelbar hintereinander zwei ineinander verzahnte Halbbilder dargestellt, die zwei zeitlich verschiedene Zustände darstellen. Das Formel-1-Rennauto hat sich also zwischen der Aufnahme des ersten des zweiten Frames ein winziges Stück weiterbewegt. In dieser Kombination von sukzessivem Bildaufbau und Interlacing entsteht das fertige Bild somit erst im Kopf des Zuschauers, dessen physiologische Wahrnehmungsfähigkeit diese blitzschnellen Einzelaktionen der Technik zu einem flüssigen Gesamteindruck verschmilzt. Es kann aber auch zu Flimmereffekten kommen. Bei der Flachbildschirm-Technik ist das Gegenteil der Fall: Sie stellt immer den vollständigen Frame mit allen seinen Zeilen und Bildpunkten gleichzeitig dar. Das hat den großen Vorteil, dass das Bild flimmer- und verzerrungsfrei wird. Es ist also wie beim Kinofilm: Jedes einzelne von dessen 24 Bildern pro Sekunde wird wie ein Dia vollständig auf die Leinwand projiziert und dann durch das jeweils nächste ersetzt. Je nach Bildwechselfrequenz kann das zwar zu Problemen bei der Darstellung von schnellen Bewegungen führen, ist aber insgesamt die dem Fernsehen überlegene Technologie. Ungünstig ist dabei nur, dass Fernsehprogramme nach wie vor mit dem Zeilensprungverfahren arbeiten und
3.4 Bildschirme
113
dabei keine Rücksicht darauf nehmen, auf welcher Art von Bildschirm sie wiedergegeben werden. Das heißt, dass TV-Signale wie PAL und NTSC, aber auch das europäische HDTV-Format 1080i erst aufbereitet werden müssen, ehe sie auf einem Flachdisplay dargestellt werden können.
3.4.2 Deinterlacing und Skalierung Diese Aufgabe erledigt ein Deinterlacer, der nach einem für den jeweiligen Bildinhalt möglichst gut geeigneten Verfahren aus zwei Halbbildern (Fields) ein Vollbild errechnen muss. Je nachdem, welche Methode dabei verwendet wird, können wiederum Flimmern, Unschärfe, treppenförmige Ausfransungen oder Artefakte auftreten. Ein schlechter Deinterlacer vermindert die Bildqualität gegenüber dem Ausgangsmaterial sehr deutlich, und selbst die sehr teuren, hochentwickelten Varianten, die mit komplexen Bewegungs- und Strukturanalysen von ganzen Bildfolgen arbeiten, um ein optimales Ergebnis zu erzielen (adaptives Deinterlacing), werden von Sondersituationen leicht überfordert. Ein schneller Kameraschwenk über das Publikum in einem Fußballstadion kann dann unter Umständen so aussehen, als würde man das Bild durch einen Fettfilm verzerrt wahrnehmen. Ursache dafür ist, dass der Deinterlacer eine Entscheidung treffen muss, auf welcher Basis er die benötigten Vollbilder rekonstruiert. Nimmt er z.B. nur ein Halbbild je Frame (skip field), muss er die zweite Hälfte des Bildes aufgrund von Wahrscheinlichkeiten gewissermaßen hinzuerfinden (interpolieren); alternativ kann er beide Halbbilder gleichzeitig anzeigen (weave) oder einen Durchschnitt von ihnen errechnen und damit per se gewisse Unschärfen in Kauf nehmen, da die beiden Fields ja von Videokameras zeitlich nacheinander aufgenommen worden sind. Und je komplexer das angewendete Verfahren, desto höher ist die erforderliche Rechenleistung und desto größer sind die Anforderungen an den Zwischenspeicher, was sich wiederum auf den Preis des Gerätes auswirkt – und nicht zuletzt auf die Reaktionsgeschwindigkeit des Apparates beim Umschalten. Vor ähnliche Herausforderungen werden hochauflösende Flachbildschirme gestellt, wenn sie herkömmliches SDTV darstellen sollen. Das angelieferte Signal ist in diesem Fall nicht nur interlaced, sondern enthält auch viel weniger Zeilen und Bildpunkte als der Monitor. Ein 720-Zeilen-Gerät hat mehr als doppelt so viele Pixel wie ein PAL-Bild, ein 1.080-Zeilen-Apparat sogar mehr als fünfmal so viele – und arbeitet zu allem Überfluss auch noch mit Breitformatbildern im 16:9-Seitenverhältnis, während PAL nur 4:3 anbietet. Bis auf weiteres, d.h. bis sich auf dem Markt die DVD-Nachfolgeformate Blu-Ray Disc und HDDVD sowie Fernsehübertragungen in HDTV durchgesetzt haben werden, bleibt
114
3 Endgeräte und Medienkonsum
SDTV aber der Normalfall – d.h. während die Bildschirmtechnologie Fortschritte macht und großformatige Flachdisplays in immer mehr Haushalte Einzug halten, hält die Anlieferung des passenden Videomaterials mit der Ausstattung der Wohnzimmer nicht Schritt. Im Gegensatz zu CRT-Monitoren sind LCD- und Plasmabildschirme jedoch nicht in der Lage, fehlende Bildinformationen durch Rauschen von alleine zu kompensieren; da jeder Bildpunkt einzeln angesteuert wird, muss auch für jeden eine entsprechende Information vorliegen. Das bedeutet, dass alle Videomaterialien, die nicht genau der nativen (bauartbedingten) Pixelanzahl des jeweiligen Gerätes entsprechen, auf dessen genaue Anforderungen umgerechnet (skaliert) werden müssen. Ähnlich wie beim Deinterlacing muss die Elektronik mithin den größten Teil des Bildinhaltes interpolieren, wenn normales Fernsehen einigermaßen formatfüllend auf einem hochauflösenden Monitor wiedergegeben werden soll. Denn es handelt sich nicht um eine schlichte Vergrößerung, sondern die vorliegenden Informationen werden gleichsam gestreckt: Wo vom Ausgangsmaterial eigentlich nur ein Pixel vorgesehen ist, müssen nun gleich mehrere erscheinen. Der Effekt: Das Bild verliert seine Schärfe, und der Farbeindruck wird erheblich schlechter. PC-Nutzer kennen das: Wenn man ein relativ kleinformatiges Video im Internet ansieht, erscheint es scharf und präzise; vergrößert man es dagegen so weit, dass es den gesamten Bildschirm einnimmt, wird es äußerst undeutlich. Aus diesem Grund verhindern viele Spielfilmproduzenten, dass man ihre Web-Trailer in einem anderen Format ansehen kann, als sie gedacht sind: Lieber sollen sich die Nutzer ganz nah an ihre Monitore heranlehnen, als dass sie womöglich aus technischen Gründen einen ungünstigen Eindruck von einem vergrößerten Bild bekommen und dadurch vielleicht negative Rückschlüsse auf die Qualität des eigentlichen Films ziehen. Die verwendeten Rechenmethoden können noch so ausgefeilt sein – ab einer gewissen Skalierungsrate stoßen alle Verfahren an ihre natürlichen Grenzen. Außerdem schaukeln sich die negativen Folgen von Deinterlacing und Skalierung gegenseitig hoch und verstärken einander. Daher sieht ausgerechnet das, wofür die Konsumenten ihre neuen Geräte bis auf weiteres am häufigsten verwenden, nämlich normales Fernsehen, optisch am schlechtesten aus. Manche Hersteller haben dieses Problem erkannt und bieten nun gezielt auf dieses Problem hin optimierte LCD-Fernsehgeräte an, die mit 540 sichtbaren Zeilen, also der SDTV-Auflösung arbeiten. Diese Apparate liefern ein sehr gutes PAL-Bild, sind aber zugleich in der Lage, HDTV-Signale mit einfachen Regeln herunterzurechnen (1.080 durch zwei, 720 mal Dreiviertel), so dass trotzdem eine gewisse Zukunftssicherheit der Investition gewährleistet ist. Bildschirme, die das Logo HD ready tragen, müssen dagegen mit mindestens 720 Zeilen arbeiten und über einen mit HDCP verschlüsselten Anschluss für Receiver bzw.
3.5 Personal Video Recorder
115
Videorecorder verfügen (vgl. Kap. 1.5.4). Trotz solcher ersten Bemühungen der Unterhaltungselektronik-Industrie um die Herausbildung von gewissen Standards gleicht die Anschaffung eines meist auch recht teuren Flachdisplays immer noch einem Va-banque-Spiel; die Zeit, in der man einfach einen Fernseher kaufen konnte, der dann zuverlässig funktionierte und mit der bereits vorhandenen Technik kompatibel war, ist erst einmal vorbei.
3.5 Personal Video Recorder Während die großen Flachbildschirme und Surround-Audioanlagen die Art verändern, wie die Zuschauer Fernsehen und Video sinnlich wahrnehmen, entwickelt sich gerade eine anderen Gerätekategorie, die massive Auswirkungen auf die Auswahl und Verfügbarkeit von TV-Programmen haben wird: Der Personal Video Recorder (PVR). Der PVR ist mehr ein Konzept als ein selbständiger Apparat, denn er kann in unterschiedlichsten Gestalten und Ausformungen vorkommen: Als klassischer Videorecorder in eigenem Gehäuse steht er vielleicht über oder unter dem Fernseher im Wohnzimmer, womöglich ist er aber auch in eine Set-Top-Box oder einen Receiver eingebaut oder tritt als tragbares Gerät wie der Video-iPod von Apple in Erscheinung; unter Umständen handelt es sich aber auch um einen PC im Arbeitszimmer oder einen Server, der unauffällig im Keller oder sogar in einem Rechenzentrum in einer anderen Stadt seinen Dienst versieht. Den PVR definieren also nicht seine physische Gestalt und sein Ort, sondern eine bestimmte Zusammenballung von Fähigkeiten und Anwendungen. Eine der wichtigsten Eigenschaften von PVRs besteht in ihrer Nonlinearität (vgl. Kap. 5.1.2). Sie zeichnen Inhalte nicht mit Bandkassetten auf, sondern auf Festplatten und in Zukunft auch auf Speicherchips. Dadurch gewinnen sie die gleiche Flexibilität, welche die Konsumenten schon seit langem von ihren Computern, CD- und DVD-Playern und MP3-Spielern gewöhnt sind: Um auf ein bestimmtes Stück zuzugreifen, braucht man nicht mehr ein Band vorzuspulen, sondern man kann jederzeit jede Stelle der gespeicherten Informationen gezielt aufsuchen. Ferner verfügen PVRs über große Speicherkapazitäten – wo eine VHS-Videokassette maximal vier (oder im Longplay-Modus acht) Stunden Programm aufzeichnen konnte, verkraftet ein moderner Festplattenrecorder Hunderte und bald sogar Tausende Programmstunden. Und drittens schließlich bieten Festplatten technisch die Möglichkeit mehrerer Zugriffe zur gleichen Zeit, d.h. je nach Ausstattung des Gerätes ist es möglich, eine aufgezeichnete Sendung anzuschauen, während gleichzeitig eine oder sogar mehrere andere mitgeschnitten werden.
116
3 Endgeräte und Medienkonsum
Und wie die meisten digitalen Geräte verfügen auch PVRs über eine grafische Benutzeroberfläche, die mit den bekannten DVD-Menüs verwandt ist. Im Gegensatz zu konventionellen Videorecordern sind sie deshalb wesentlich leichter und komfortabler zu bedienen: Meist wird z.B. der aktuelle Inhalt der Festplatte als Liste mit dem genauen Titel des Programms und einigen Begleitinformationen wie Sender, Uhrzeit und Länge angezeigt; viele Apparate arbeiten sogar mit kleinen Vorschau-Bildern (Thumbnails), die das jeweilige Video repräsentieren. So ist immer klar ersichtlich, welche Inhalte gerade zur Auswahl stehen, und die Entscheidung kann ohne Wartezeit durch einfachen Tastendruck auf der Fernbedienung getroffen werden. Allein schon diese Eigenschaften sind in der Lage, die Fernsehgewohnheiten des Publikums massiv zu verändern. Denn zum ersten Mal in der TVGeschichte kann ein Zuschauer sich ohne größere Umstände einen Programmvorrat anlegen, den früher allenfalls eine Videothek bieten konnte. Im Prinzip ist es möglich, beinahe ohne Einschränkungen Sendungen aufzuzeichnen und sich dadurch vom gestalteten, vorausgeplanten Programmstrom der klassischen Fernsehsender völlig zu emanzipieren. Da ein Videorecorder-Besitzer logischerweise nur solche Sendungen aufzeichnet, von denen er annimmt, dass er sie gerne sehen möchte, steht bereits nach kurzer Zeit eine umfangreiche Auswahl zur Verfügung, die auf seinen persönlichen Geschmack zugeschnitten ist und auf die er zu jeder beliebigen Zeit zugreifen kann. Wenn er also beispielsweise um 19.45 Uhr bereit ist, den Fernsehabend zu starten, braucht der Zuschauer nicht mehr auf den Beginn des Hauptabendprogramms um 20.15 Uhr zu warten, sondern kann sich direkt am bereits früher mitgeschnittenen Programm bedienen. Und die Wahrscheinlichkeit, dass er unter den gespeicherten Sendungen eher eine geeignete findet als beim Zapping durch die TV-Kanäle, ist recht hoch. Es kann also passieren, dass sich der Zuschauer vom Live-Fernsehprogramm des jeweiligen Abends abkehrt und nicht mehr zurück kommt. Aber mehr noch: Es besteht sogar die Möglichkeit, eine aufgezeichnete Sendung anzusehen und gleichzeitig eine oder mehrere weitere aufzunehmen oder auch das selbe Programm, das man gerade anschaut, simultan mitzuschneiden. Auch dadurch wird die individuelle Verfügbarkeit von Fernsehen massiv ausgeweitet, denn nun kann sogar die live ausgestrahlte Sendung zwischendurch angehalten werden, weil z.B. das Telefon klingelt, und nach einer beliebigen Wartezeit an genau der gleichen Stelle, an der man unterbrochen wurde, weiter konsumiert werden. Ebenfalls ist es möglich, Szenen zu wiederholen – sei es, weil man beim ersten Durchgang etwas nicht verstanden hat oder z.B. weil man eine knapp vergebene Tor-Chance beim Fußball genauer analysieren will. Und wer einfach mit dem Primetime-Spielfilm des Tages eine halbe Stunde später anfängt, nachdem er sich die Zeit bis dahin mit einem Programm von der Fest-
3.5 Personal Video Recorder
117
platte vertrieben hat, kann sämtliche Werbeinseln einfach überspringen und sieht das Ende des Films doch ungefähr zur gleichen Uhrzeit wie der Rest des Publikums, das nicht über einen PVR verfügt.
3.5.1 PVRs und Electronic Program Guides Doch es gibt noch weitere Eigenschaften von Personal Video Recordern, die geeignet sind, mittelfristig das Fernsehen stark zu verändern. Die stärksten Auswirkungen hat es, wenn die Geräte mit einem Electronic Program Guide (EPG) kombiniert werden. Ein EPG ist eine elektronische Programmzeitschrift, d.h. er liefert genau wie sein gedrucktes Vorbild ausführliche Informationen über Inhalte, Mitwirkende, Anfangszeiten und Längen aller – oder zumindest fast aller – Programme, die in einem längeren Zeitraum von den TV-Veranstaltern angeboten werden. In seiner allereinfachsten Ausprägung nutzt der EPG lediglich die Service-Informationen (SI), welche die Fernsehsender nach der DVB-Norm mit ihrem Übertragungssignal zusammen ausstrahlen müssen. In seinem vollen Umfang dagegen ist er weitaus mehr, nämlich eine umfassende Datenbank, die wie ein unabhängiger Online-Einkaufskatalog für Videomaterial funktioniert. Ein ausgereifter EPG macht z.B. Programmvorschläge und vergibt Bewertungen für einzelne Sendungen getreu der jeweiligen inhaltlichen Ausrichtung und Spezialisierung seiner Redaktion und funktioniert insoweit kaum anders als die herkömmlichen Fernsehzeitschriften. Im günstigsten Fall kann der Benutzer genau wie am Kiosk frei einen oder mehrere EPGs für sein Gerät auswählen und bereits damit nach seinen persönlichen Präferenzen vorsortieren (vgl. Kap. 5.9). Denn was nützt es dem Spielfilm-Fan, wenn er laufend mit Dokumentationen oder politischen Magazinen als Tagestipp behelligt wird? Mit der Fernbedienung wird dann ein im Klartext gelisteter Programmeintrag ausgewählt und entweder direkt angesehen oder zur Aufzeichnung vorgemerkt; das umständliche Eintippen von Kanal, Start- und Endzeit oder einer Showview-Kennung, das bislang viele Zuschauer vom Einsatz ihrer Videorecorder abgeschreckt hat, entfällt. Da es sich jedoch um eine elektronische Form von Metadaten zum Programm handelt, lassen EPGs auch komplexe Suchfunktionen und Automatismen zu. Angenommen, ein Zuschauer ist ein Fan der Schauspielerin Julia Roberts und möchte keinen ihrer Filme verpassen – für den PVR in Zusammenarbeit mit einem Electronic Program Guide eine leichte Übung, denn er findet die entsprechenden Filme auch dann, wenn sie Mitten in der Nacht auf irgendeinem kleinen Sender laufen, den der Zuschauer vorher noch nie beachtet hat. Und er zeichnet selbst dann zuverlässig auf, wenn der Sendeplatz kurzfristig verschoben wurde, denn er orientiert sich nicht an Anfangszeiten und Kanälen, sondern forscht in
118
3 Endgeräte und Medienkonsum
sämtlichen Programminformationen nach seinem konkreten Stichwort. Vielleicht möchte der Nutzer aber auch nur solche Werke sehen, in denen Julia Roberts eine Hauptrolle spielt und die als Komödien eingestuft werden können. Außerdem will er naturgemäß jeden Film nur einmal aufgezeichnet bekommen, selbst dann, wenn der Sender ihn innerhalb eines Tages mehrmals ausstrahlt oder schon nach drei Monaten die erste Wiederholung ansetzt. All das stellt technisch keine Schwierigkeit dar; der EPG kann zwischen Erstausstrahlung und Wiederholung unterscheiden (was besonders bei Serien wichtig und für den Zuschauer sonst unübersichtlich ist) und sich merken, welche konkreten Sendungen er in der Vergangenheit bereits mitgeschnitten hat. Nun braucht der Besitzer seinem PVR lediglich mitzuteilen, welche Serien und Reihen und welche Sorte von Spielfilmen er am liebsten sieht, und schon macht sich das Gerät rund um die Uhr an die Arbeit. Erste Erfahrungen mit einem in den USA schon seit einiger Zeit verfügbaren PVR namens TiVo belegen, dass sich dadurch tatsächlich die Fernsehnutzung verändert: Viele PVREigentümer machen nicht mehr zuerst das Fernsehen an, sondern lassen sich erst einmal davon überraschen, was der Recorder so alles aufgezeichnet hat. Diese Nutzungsmöglichkeiten kann man noch einen Schritt weiter treiben, indem man die PVR-EPG-Kombination mit Lernfähigkeiten ausstattet. Das Prinzip kennt man bereits von vielen Online-Shops, die z.B. automatisch anzeigen, welche weiteren Produkte von Kunden gekauft oder angesehen wurden, die ein bestimmtes Produkt erworben haben. Auf diese Weise wird der werbliche Effekt von Mundpropaganda technisch umgesetzt und auf eine breitere statistische Basis gestellt („Zuschauer, denen dieser Film gefallen hat, haben auch jenes Programm angesehen“). Aber mehr noch: Mit Hilfe von ausgefeilten inhaltlichen Analysen (vgl. Kap. 1.4.4) kann der PVR nach einer gewissen Lernphase selbständig vorhersagen, welche Sendungen sein Besitzer besonders stark nachfragt, und diese dann ohne jegliches menschliches Zutun von alleine aufzeichnen und anbieten. Das technische Prinzip wird z.B. in Internet-Suchmaschinen und bei Spam-Filtern schon seit langem eingesetzt: Ohne dass sie wirklich verstehen müsste, worum es in einem Zusammenhang genau geht, analysiert eine Software, welche Begriffe oder Metadaten-Kriterien in einem gegebenen Kontext zusammen auftreten. Dadurch registiert sie wiederkehrende Muster, die dann wiederum mit dem Verhalten von Nutzern verglichen werden. Ein bekanntes Beispiel für die Wirkungsweise eines solchen Verfahrens ist die gewandelte Zuordnung des Begriffs Ground Zero: Vor den Anschlägen am 11. September 2001 tauchte er praktisch nur im Zusammenhang mit Atombomben-Explosionen auf, während er seither meist mit dem ehemaligen Standort der beiden Türme des World Trade Centers in New York assoziiert wird. Bereits kurz nach der Katastrophe erkannten die großen Internet-Suchmaschinen auto-
3.5 Personal Video Recorder
119
matisch die neue Bedeutung des Begriffs und boten die passenden Suchergebnisse ganz oben auf ihren Ergebnislisten an. Auf die im Normalfall weit harmlosere Welt des Fernsehens übertragen bedeutet das, dass eine Maschine gewissermaßen auf den Geschmack ihres Benutzers schließen kann. Aufgezeichnete Sendungen, die ungesehen oder nach nur wenigen Minuten Laufzeit gelöscht werden, fallen mit ihren jeweils spezifischen Eigenschafts-Profilen ebenso in einen Negativ-Filter wie solche, die auf der Fernbedienung – wie z.B. bei TiVo – mit einer roten Taste als uninteressant bewertet wurden. Umgekehrt werden vollständig gesehene und positiv bewertete Programme auf eine Art Wunschliste gesetzt. Wenn man diese Technik auf einer breiten Basis anwendet, etwa indem man im Internet wie Google und Yahoo die Daten von Millionen von Benutzern sammelt, ergibt sich mit der Zeit eine ausgesprochen hohe Treffsicherheit, die freilich unter Datenschutzgesichtspunkten nicht unproblematisch ist. Aber selbst auf dem eigenen Gerät, das die gesammelten Informationen vollständig für sich behält, kann man verblüffende Resultate erzielen. Das Ganze wird in Zukunft sogar nicht mehr allein auf die Metadaten angewiesen sein, sondern in die Lage versetzt werden, auch die Bild- und Toninhalte direkt zu analysieren. Die Software dürfte dann von sich aus sogar recht feine Unterschiede anhand von Optik und Sound erkennen, also beispielsweise ob es sich um einen Actionfilm aus den achtziger oder neunziger Jahren handelt, oder ob sich die in Südafrika gedrehte Tierdokumentation in erster Linie mit Elefanten, Nashörnern oder einfach nur mit der Landschaft beschäftigt. Diese Such- und Lernfunktionalität hat eine mehrfache Bedeutung für die Fernsehzukunft. Zum einen kommt man bereits heute beinahe schon nicht mehr ohne sie aus. Aus Marktforschungsdaten kann man ablesen, dass die gewissermaßen natürliche Grenze für das Relevant Set, d.h. die Anzahl der TV-Kanäle, die zusammengenommen 80 Prozent der gesamten Fernsehnutzung eines durchschnittlichen Individuums ausmachen, bei fünf bis sechs liegt, und dass ein Zuschauer maximal rund 16 verschiedene Sender überhaupt ab und zu nutzt – ganz gleich, ob das für ihn verfügbare Angebot aus 25 oder 250 Kanälen besteht (Quelle: SevenOne Media). Der Mensch scheint mithin von einer größeren Fernsehauswahl überfordert zu sein, ganz gleich, ob er nur mit seiner Fernbedienung oder mit einer Programmzeitschrift ausgestattet ist. Mit Hilfe „intelligenter“ EPG-gesteuerter PVRs lässt sich dieses Problem zumindest teilweise lösen, denn statt sich bei der manuellen Suche auf Sender bzw. Programmquellen zu fokussieren, kann das Publikum leichter seinen eigentlichen Wünschen entsprechende Sendungen finden, auch wenn sie sich an entlegenen Stellen befinden. Dies gilt erst recht, wenn der Marktanteil von echtem Video-on-Demand steigt. Wenn zu jedem beliebigen Zeitpunkt weltweit Millionen verschiedener Videos abrufbar sind, wird eine elektronische Suchmaschine mit möglichst kom-
120
3 Endgeräte und Medienkonsum
fortablen Funktionen fürs Fernsehen genauso unverzichtbar wie schon seit langem im Internet.
3.5.2 PVRs und Video-on-Demand Außedem gewinnt die TV-Erfahrung durch die PVR-Technologie an Dichte. Während traditionell ein großer Teil der Fernsehnutzung auf Verlegenheitskonsum entfällt, weil man beim Zapping gerade nichts findet, das einen wirklich interessiert, hat man im PVR-Zeitalter die Chance, jederzeit Programme zu sehen, die mit dem persönlichen Geschmacksprofil stark übereinstimmen. Es wird dadurch voraussichtlich auch zu vielen programmlichen Entdeckungen kommen, denn Anbieter weit unterhalb der bisherigen Wahrnehmungsschwelle stellen sich vielleicht punktuell als durchaus relevante Inhalte-Lieferanten heraus. Ähnlich wie in den Blogs und Newsgroups des Internets können sich so auch im Bereich der bewegten Bilder Spezial- und Nischenangebote herausbilden (vgl. Kap. 5.9). Und tatsächlich zeigen die ersten Beobachtungen, dass PVR-Besitzer mehr Zeit mit Fernsehen verbringen als Haushalte mit weniger avancierter Technik-Ausstattung. Ein universeller Personal Video Recorder, dessen Potential in voller Ausprägung genutzt werden soll, muss daher von den technischen Verbreitungsplattformen unabhängig sein, also seine Inhalte sowohl passiv von Satellit, Kabel und Antenne empfangen können, als auch rückkanalfähig mit dem Internet verbunden sein. Speziell der Internetzugang über einen bandbreitenstarken DSL-Anschluss gewinnt dabei zunehmend an Bedeutung. Erstens ruft das Gerät am zweckmäßigsten auf diesem Weg die regelmäßigen Aktualisierungen der EPGDatenbank von dessen jeweiligem Anbieter ab, vor allem aber eignet sich der PVR nur auf diese Weise für echtes Video-on-Demand und Superdistribution über Peer-to-Peer-Netzwerke. Denn das Internet ist der optimale Distributionsweg für alle Inhalte, die nicht simultan und in Echtzeit an eine sehr große Menge von Nutzern übertragen werden müssen. Gerade Nischen-Angebote, aber auch z.B. ältere Repertoire-Programme werden deshalb sinnvollerweise genauso übermittelt wie es längst schon bei Musikstücken der Fall ist, nämlich auf konkrete Anforderung an einen spezifischen Empfänger (Unicast), oder im Rahmen von bandbreitensparenden, nicht echtzeit-basierten P2P-Austauschverfahren. Die Autorisierung von Lizenzen im Rahmen von Digital Rights Management und auch Micropayments gelingen bei Geräten, die mit einem Rückkanal ausgestattet sind, erheblich einfacher und schneller als bei Broadcast-Verfahren. Ungeachtet dessen benötigen auch PVRs eine Adressierbarkeit wie SetTop-Boxen (vgl. Kap. 3.31). Das ermöglicht eine Fernprogrammierung auch
3.5 Personal Video Recorder
121
dann, wenn die Geräte gerade nicht Online sind. Das bedeutet, der Besitzer des Gerätes kann von einem beliebigen Internet-Anschluss aus oder mit Hilfe seines Mobiltelefons dem Gerät zu Hause mitteilen, dass es ein bestimmtes Programm aufzeichnen oder herunterladen soll. Diese Information wird dann in das Sendesignal eines regulären Fernsehsenders oder Datendienstes aufgenommen und an alle Geräte gesendet, aber eben nur von dem spezifisch angesprochenen Apparat verstanden und verarbeitet. Alternativ kann man sein Gerät auch per E-Mail oder SMS erreichen. Mittels adressierbarer PVR-Lösungen arbeitet auch ein Video-on-DemandSystem, das in Deutschland bisher nur der Anbieter Premiere verwendet. Dabei wird auf der Festplatte des Gerätes ein Teilbereich reserviert, auf den zunächst nur der Sender selbst Programme überspielen kann. Über seine normalen Broadcast-Kanäle strahlt der Pay-TV-Provider verschlüsselte Filme aus, die von allen geeigneten Recordern mitgeschnitten werden. Möchte der Kunde dann eine oder mehrere der Sendungen sehen, die bereits auf seinem PVR gespeichert sind, nimmt er eine Bestellung per Telefon oder Internet vor, und innerhalb weniger Minuten übermittelt der Sender das Freischalt-Signal direkt an das Gerät. Dieses Verfahren hat für den Anbieter den Vorteil, dass die Filme weder in Echtzeit, noch zu den nutzungsstärksten Uhrzeiten übertragen werden müssen, sondern auch nachts oder tagsüber mit geringer Bandbreite nach und nach gesendet werden können. Der Kunde wiederum braucht anders als beim Pay-per-View nicht auf die nächste vom Sender vorgegebene Startzeit des Programms zu warten, sondern kann es sich in einem beliebigen Moment ansehen, und profitiert zusätzlich von den allgemeinen Eigenschaften des PVRs, kann also z.B. zwischendurch pausieren oder innerhalb des Films vor- und zurückspulen. Eine andere Variante besteht darin, den Videorecorder ganz aus der Privatsphäre des Zuschauers herauszuhalten und PVR-Dienste im Netz anzubieten. Der Kabel- oder Internet-TV-Kunde programmiert dann mit der Fernbedienung oder per Web-Browser eine Aufzeichnung, die im Rechenzentrum des Providers vorgenommen und gespeichert wird. Der Abruf kann dann jederzeit erfolgen, sei es während die Sendung noch läuft oder auch Tage oder Wochen nach ihrer Ausstrahlung. Das ist einerseits ein sehr effizientes Verfahren, denn wenn mehrere Kunden die gleiche Sendung aufzeichnen wollen, reicht es, sie einmal bereitzuhalten; theoretisch ist sogar die pauschale Aufzeichnung aller Sender möglich, so dass man auch im Nachhinein noch auf Programme zugreifen kann, die man verpasst hat. Diese Variante stößt aber – je nach Inhalt – auf rechtliche Probleme, weil dann die Grenze zum Video-on-Demand überschritten wird, für das normalerweise eine separate Lizenzvereinbarung getroffen werden muss. Des weiteren entfällt für den Nutzer zu Hause die Anschaffung eines teuren Gerätes.
122
3 Endgeräte und Medienkonsum
Für den Anbieter wiederum lässt sich auf diese Weise eine bessere Kundenbindung mit entsprechenden Abo-Einnahmen erzielen, vor allem aber hat er den Recorder und das, was seine Kunden sehen, legitimerweise unter seiner eigenen Kontrolle. Er braucht also nicht auf die Maschine des Zuschauers zuzugreifen, um ihm maßgeschneiderte Werbung und andere Angebote zu liefern, sondern kann das mit weitaus größerer Flexibilität auf seinen eigenen Servern erledigen. Der Provider könnte so eine von den klassischen TV-Veranstaltern unabhängige und besonders zielsichere Werbe-Vermarktung aufbauen. Und wenn er einen lernfähigen EPG anbietet, kann dieser auf den Input von zahlreichen Personen zurückgreifen und dadurch treffendere Such- und Auswahlmechanismen entwickeln als ein Einzelnutzer- oder Familien-Gerät im Haushalt.
3.6 Interaktivität Die Ära des interaktiven Fernsehens hat eigentlich schon mit der Einführung der Fernbedienung begonnen. Zwar war es auch vorher schon möglich, zwischen verschiedenen Kanälen zu wechseln, doch das erforderte – zumindest aus heutiger Sicht – einen geradezu übertriebenen Willensakt. Im Zweifel blieb man dann doch so lange sitzen, bis das Angebot des gerade eingeschalteten Senders regelrecht unerträglich wurde. Dies galt zumal, da bis in die achtziger Jahre hinein ohnedies nur drei bis vier Programme zur Auswahl standen: Das Erste, das ZDF und ein oder zwei Dritte. Überdies wurde nicht einmal den ganzen Tag über etwas ausgestrahlt, sondern das Angebot beschränkte sich auf den Abend und ein paar nachmittägliche „Kinderstunden“. Die Entscheidung bestand deshalb zunächst weniger darin, welchen Sender man sehen wollte, sondern ob der Abend überhaupt mit Hilfe des Fernsehens gestaltet werden sollte oder nicht. Vor dem Fernbedienungs-Zeitalter wurde daher in erster Linie ein- oder ausgeschaltet, der Wechsel zwischen verschiedenen Kanälen war dagegen eher der Sonderfall. Heute dagegen schaltet der durchschnittliche deutsche Zuschauer am Tag über sechzigmal um. Doch gäbe es das einfach handhabbare Zapping und Switching nicht, würden wir höchstwahrscheinlich immer noch eine sehr große Kanaltreue bzw. geringe Wechselbereitschaft im Laufe eines Fernsehabends verzeichnen. Die Grunderkenntnis, die sich daraus ableiten lässt, ist: Bequemlichkeit verleitet dazu, sie auch zu nutzen. Man braucht sich nur einmal die Diskussion unter den TV-Experten der fünfziger und sechziger Jahre anzusehen, die sich um die geistige Verfassung und Leistungsfähigkeit des Publikums große Sorgen machten, weil zu dem damals einzigen Fernsehprogramm der ARD in Form der Dritten und des ZDF Alternativen hinzutraten. Sie sahen Gräben innerhalb von Familien aufbrechen,
3.6 Interaktivität
123
die sich über die einzuschaltende Sendung uneins waren, fürchteten die Überforderung selbst des Einzelzuschauers mit seiner Auswahlentscheidung, und konnten sich gar nicht vorstellen, dass es überhaupt möglich sei, unvollständige Sendungen mit Lust und inhaltlichem Gewinn anzusehen. Das Publikum belehrte die Fachleute bald eines Besseren. Gab man ihm erst die Möglichkeit zum bequemen Umschalten, wurde diese Option schnell in den Alltag integriert. Eigentlich erstaunlich, dass sich beim Fernsehen in Sachen Interaktivität seitdem sehr wenig geändert hat. Auch heute tut der Zuschauer kaum mehr, als sich per Knopfdruck für einen bestimmten Sender zu entscheiden – allenfalls ruft er noch den Teletext auf, innerhalb dessen er mit einem dreistelligen Seitennummern-System umständlich navigieren kann. Dieser Zustand wirkt um so antiquierter, weil die Bevölkerung durch das Internet längst mehrheitlich an Medien gewöhnt ist, die ein direktes Zutun und laufende Auswahlentscheidungen des Nutzers erfordern. Die junge Generation hat durch Computerspiele noch einen zusätzlichen Interaktivitätsvorsprung erlangt. Der entscheidende Punkt ist hier die Nutzungssituation: Im Gegensatz zum PC wird Fernsehen eher passiv genutzt; fast alle Aktionen, die mehr als eine binäre Entscheidung über „ja“ oder „nein“, „gefällt mir“ oder „gefällt mir nicht“ erfordern, sind ihm offenbar wesensfremd. Um unter solchen Bedingungen selbst einem simplen Zusatzdienst wie dem Teletext wenigstens zu einem Mindestmaß an Popularität zu verhelfen, haben sich die Geräte-Hersteller deshalb schon frühzeitig Gedanken über eine benutzerfreundlichere, intuitive Bedienung gemacht. Das Ergebnis: Außer der Taste zum Ein- oder Ausschalten des Teletextes gibt es auf vielen Fernbedienungen vier farbig markierte Knöpfe, mit denen man je nach Zusammenhang bestimmte weiterführende Seiten direkt ansteuern kann, ohne die entsprechende Seitennummer eingeben zu müssen. Der Nutzer sieht dann auf dem Bildschirm den Hinweis, dass z.B. die grüne Taste eine Seite weiterschaltet, oder dass die blaue zur Sport-Übersichtsseite zurückführt. Wesentlich weiter vorangekommen sind die Bedienungskonzepte seither nicht: Auch im Digitalfernsehen beschränkt sich die Interaktivität meist auf den Einschaltknopf für die Anwendung selbst und ein paar einfache Funktionen in Gestalt einer Cursor-Steuerung (Pfeil nach oben, unten, rechts, links), in der Regel vier farbigen oder durch Buchstaben gekennzeichneten Knöpfen für Sonderfunktionen und eine Eingabe- oder Bestätigungstaste. Der Einsatz einer vollwertigen Tastatur ist dagegen die Ausnahme – sie zu benutzen würde dem Bedürfnis des TV-Nutzers nach Einfachheit und Komfort schon wieder entgegenlaufen. Bei den interaktiven Diensten im Fernsehen muss zwischen zwei Kategorien unterschieden werden, nämlich denjenigen Anwendungen, die einen Rückkanal zu einer Stelle außerhalb des Zuschauer-Haushalts erfordern, und solchen,
124
3 Endgeräte und Medienkonsum
bei denen der Zuschauer lediglich mit seinem TV-Apparat oder der Set-Top-Box interagiert. Im letzteren Fall liegen die Dinge kaum anders als beim herkömmlichen Teletext: Der Sender übermittelt pauschal an alle Endgeräte einen Datenstrom, und ob das Gerät dann in der Lage ist, diese Daten zu verarbeiten, oder ob der Nutzer sie aufruft, ist dafür unerheblich. Der Fortschritt gegenüber dem Teletext besteht auf dem Sektor des Digitalfernsehens in einer erhöhten Leistungsfähigkeit. Anstelle von weißen Schriftzeichen auf schwarzem Hintergrund kann man hier mit aufwändigeren Grafiken arbeiten, die dem Niveau von Web-Seiten oder der Benutzeroberfläche von Computer-Programmen nahe kommen; außerdem sind die digitalen Geräte nicht nur in der Lage, Informationen darzustellen, sondern auch an sie übermittelte Software ähnlich wie ein PC selbständig auszuführen (vgl. Kap. 3.2). Das bedeutet dann z.B. dass sich ein EPG an die Wünsche und Eingaben des Nutzers anpasst oder dass ein Ratespiel je nach den Antworten des Zuschauers unterschiedliche Verläufe nehmen kann. Auf diese Weise ist es möglich, im höchsten Ausbaustadium eine komplexe Interaktion zwischen Publikum und Fernsehgerät zu erreichen, die aus Sicht der Zuschauer nur wenig zu wünschen übrig lässt. Doch in Ermangelung eines Rückkanals fehlt solchen Anwendungen vielfach ein geeignetes Geschäftsmodell. Es ist lediglich möglich, einen Dienst gegen Zahlung eines Abonnementsoder Einzelpreises an adressierbare Endgeräte zu schicken oder – wieder in Analogie zum Teletext – Werbung zu integrieren. Beide Wege sind aber mühsam, wenn man Erlöse in relevanter Höhe erzielen will, denn es ist entweder erforderlich, Konsumenten vom Nutzen eines Abonnements zu überzeugen, oder aber gegenüber Werbekunden den Nachweis für die Effizienz ihrer Schaltungen zu erbringen (vgl. Kap. 4). Der Königsweg des interaktiven Fernsehens ist daher der Rückkanal. Auf diese Weise eröffnen sich zahlreiche Gelegenheiten, das Publikum nicht nur in das Geschehen einzubinden (etwa bei Abstimmungen in LiveSendungen), sondern es auch dazu zu bringen, kostenpflichtige Dienste in Anspruch zu nehmen oder sich an Gewinnspielen zu beteiligen (Transaktionsfernsehen), bzw. Bestellungen für Produkte aufzugeben, die selbst gar nichts mit dem Fernsehen zu tun haben (T-Commerce). Das funktioniert in der analogen Welt bereits recht gut, wie 9live und die verschiedenen Teleshopping-Sender beweisen – und zwar mit Hilfe des Telefons. Diesen vertrauten Weg kann man zwar auch in der digitalen Welt ohne weiteres beschreiten, aber – zumindest theoretisch – noch erfolgversprechender ist es, wenn die Zuschauer, die zu Kunden werden sollen, die Sphäre des Fernsehens gar nicht erst verlassen müssen, sondern alles gleich mit der Fernbedienung erledigen können. Dazu muss entweder das Medium, über welches das Fernsehen ins Haus kommt, über einen eingebauten Rückkanal verfügen (bidirektionales TV-Kabel, Internet), oder man
3.6 Interaktivität
125
stellt die Verbindung zur Außenwelt her, indem man das Endgerät an die Telefonleitung oder ein Mobilfunknetz anschließt, damit es sich per Modem bei Bedarf in alle Welt verbinden kann. Das stellt die Anbieter interaktiver Dienste wie auch die Hersteller von digitalen Empfangsgeräten vor eine Reihe von Problemen, denn es gibt eine Unzahl von verschiedenen Szenarien und Konfigurationen, wie die einzelnen Haushalte ausgestattet sein können: Analoges Telefon, ISDN, DSL, Mobilfunk, WLAN, Flatrate, Einzelabrechnung etc. Hinzu kommt, dass die Zuschauer nicht unbedingt bereit sind, einer Technik, die sich zumindest teilweise ihrer Kontrolle entzieht, Zugriff auf ihre Telefon- oder Internetverbindung zu geben. Und drittens schließlich muss die interaktive Anwendung auf den jeweiligen Transportweg hin adaptiert werden, wodurch ein mehrfacher Entwicklungsaufwand entsteht. Ein einheitlicher, allgemein akzeptierter Standard, der die Voraussetzung für eine massenhafte Verbreitung wäre, liegt noch in weiter Ferne und ist auf dem deutschen Markt kaum zu erreichen. Sky digital dagegen, der Pay-TV-Marktführer in Großbritannien, fördert beispielsweise die Vereinheitlichung, indem er allen Kunden, die das eingebaute Modem ihrer Set-Top-Box nachprüfbar an die Telefonbuchse angeschlossen haben, Rabatte gewährt, Verweigerern aber eine nachträgliche Rechnung ins Haus schickt. Außerdem kommt in jeden Abonnentenhaushalt ein Techniker, der die Installation der Geräte vornimmt. Das ist zwar sehr teuer und aufwändig, garantiert aber, dass alle Kunden die gleiche Plattform nutzen und dass diese auch tatsächlich auf Dauer funktioniert. Ein solcher Ansatz ist in Deutschland nahezu undenkbar, weil zu viele verschiedene Anbieter mit unterschiedlichen technischen Systemen um die Verbraucher konkurrieren. Wo keine Monopolgewinne in Aussicht stehen, will oder kann keiner der einheimischen Inhalte- oder Netzanbieter die gewaltigen Investitionen übernehmen, die eine mit England vergleichbare Lösung mit sich bringen würde. Um die praktischen Hindernisse etwas leichter überwindbar zu machen, gibt es eine Reihe von weiteren Ansätzen, die dem Two-Screen-Konzept folgen. Damit ist gemeint, dass die Interaktion nicht notwendig über den eigentlichen Fernsehbildschirm laufen muss, sondern auch über ein separates Gerät abgewickelt werden kann. Denn Zuschauer reagieren vielfach ablehnend, wenn ihnen Texte und Grafiken den Blick auf das laufende Programm versperren; deshalb arbeiten auch One-Screen-Lösungen vielfach mit transparenten Einblendungen, die überdies nur einen Teil des Bildschirms beanspruchen. Eine besonders elegante Zwei-Bildschirm-Idee ist besteht darin, handelsübliche Handys zu verwenden: Praktisch jeder besitzt eines und ist mit dessen Bedienung einigermaßen vertraut, und die Mobiltelefone haben in aller Regel bereits sämtliche notwendigen Kommunikationstechniken eingebaut: Über die Kurzstrecken-Funkverbindung
126
3 Endgeräte und Medienkonsum
Bluetooth können sie mit Geräten im Haushalt des Nutzers (z.B. einer Set-TopBox) Kontakt aufzunehmen, und sie sind in der Lage, per GPRS oder UMTS Daten mit externen Servern austauschen. Auf dem Handy-Display erscheinen dann In-formationen oder Angebote, die mit dem gerade laufenden TV-Signal synchronisiert werden und auf die der Nutzer direkt reagieren kann. Ein anderes Two-Screen-System setzt auf eine eigene Fernbedienung mit einem kleinen Bildschirm und einigen wenigen zusätzlichen Funktionstasten, welche die in einem Haushalt vorhandenen Fernbedienungen ersetzt und per Funk auf den lokalen Festnetz-Telefonanschluss zugreift. Doch bei allen diesen Lösungen bleibt der Umstand bestehen, dass dem Konsumenten Telefon- oder mobile Datenübertragungskosten entstehen. Einige dieser Anwendungen benötigen auch eine spezielle Set-Top-Box. Die interaktive Killer-Applikation mit eingebautem Rückkanal, d.h. ein Modell, welches die Bevölkerung leicht versteht und aus freien Stücken und mit großem Interesse schnell für sich adaptiert, steht weiterhin aus. Es könnte passieren, dass alle diese komplizierten Ansätze von der Multitasking-Fähigkeit der Mediennutzer überholt werden: Schon heute gibt es – gerade unter den jüngeren Zielgruppen – eine starke Tendenz dazu, mehrere Medien gleichzeitig zu nutzen, z.B. das Fernsehen und einen per Wireless LAN mit dem Internet verbundenen Notebook-Computer, oder Fernsehen und das Mobiltelefon. SMS-Chats wie bei VIVA oder MTV sind dafür nur ein Symptom. Vielleicht regelt sich auf diese Weise auch die Interaktivität mit anderen TV-Angeboten ganz von alleine.
3.6 Interaktivität
127
4 Zuschauerforschung
Aufgrund seiner Angebotsvielfalt, aber auch durch seine technischen Bedingungen schafft das digitale Fernsehen neuartige Herausforderungen für die Erforschung des Verhaltens seines Publikums. Dabei geht es darum herauszufinden, wie sich die Fernsehnutzung quantitativ auf die zur Verfügung stehenden Programme, Sendungen und Werbeinseln verteilt, aber auch, welche Gruppen in der Bevölkerung welchen Inhalten besonders zuneigen. Das damit verfolgte Erkenntnisinteresse ist zweigeteilt: Zum einen möchten die Programmveranstalter Anhaltspunkte dafür haben, wen sie mit ihren Angeboten erreichen und wie sie ihre Sendungen und deren Zusammenstellung für die Zuschauer attraktiver machen können, zum anderen werden die Daten aber auch dafür gebraucht, den Erfolg von Werbeschaltungen zu kontrollieren. Denn der Preis eines Werbespots richtet sich vor allem nach der Zahl derjenigen, die ihn tatsächlich gesehen haben. Außerdem möchte das Unternehmen, das eine Werbemaßnahme geschaltet hat, sicherstellen, dass diese von den richtigen Leuten gesehen wird. Ein Spot für Gebissreiniger hat – um ein extremes Beispiel zu nehmen – in einer Sendung, die sich vor allem an Teenager richtet, nichts zu suchen. Im Broadcast-Fernsehen gibt es aber senderseitig keine Möglichkeit, die Zuschauer zu identifizieren oder auch nur zu zählen. Das Sendesignal wird an eine unbestimmte Zahl von Empfängern verbreitet, und ob es dann nur von zwei oder von zehn Millionen Menschen gleichzeitig angesehen wird, lässt sich selbst dann nicht feststellen, wenn die Empfangsgeräte in der digitalen Welt adressierbar sind. Die Adressierbarkeit (vgl. Kap. 3.3.1) ist nur ein Ausschlusskriterium für bestimmte Fernsehnutzer, die z.B. ihre Gebühren nicht bezahlt haben oder die für ein Pay-TV-Angebot freigeschaltet werden sollen. Aus diesem Grund setzt die Fernsehforschung beim Zuschauer an. Eine nach demographischen Kriterien ausgewählte Gruppe von Haushalten (Panel), welche die gesamte Nation repräsentiert, wird mit Messgeräten ausgestattet, die im Sekundentakt das Fernsehverhalten aller in diesen Haushalten lebenden Personen aufzeichnen. Je weniger bewusste Handlungen der teilnehmenden Zuschauer dabei notwendig sind, desto genauer und zuverlässiger werden die Ergebnisse; sie brauchen sich daher lediglich mit Hilfe einer speziellen Fernbedienung am Messgerät, dem GfK-Meter, anzumelden und können dann ganz normal fernsehen wie jeder andere auch. Der Rest läuft automatisch.
128
4 Zuschauerforschung
4.1 Herausforderungen durch digitale Distribution Im analogen Fernsehen identifiziert das GfK-Meter die unterschiedlichen Programme in erster Linie anhand ihrer jeweiligen Sendefrequenzen, doch dieses Verfahren verliert im digitalen Umfeld seinen Wert, weil mehrere Programme über einen Kanal ins Haus kommen. Es müssen also neue Anhaltspunkte gefunden werden, anhand derer die Messgeräte die einzelnen Programme erkennen können. Das naheliegendste Mittel dazu sind die Service-Informationen (SI), die jeder Sender nach den DVB-Normen zusammen mit seinem Programm ausstrahlen muss und die, zumindest der Idee nach, alle für die Fernsehforschung wichtigen Informationen enthalten: Den Namen des Senders, den Distributionsweg, über den er verbreitet wird, und ggf. seine Zuordnung zu einem bestimmten Bouquet. Aufgrund der vielfältigen Möglichkeiten, Fernsehen zu empfangen, ist das trotzdem keine ganz leichte Aufgabe. Viele Haushalte nutzen analoges und digitales Fernsehen noch gemischt, und neben den herkömmlichen Vertriebswegen Terrestrik, Kabel und Satellit gewinnen zunehmend auch das Internet oder Mobilfunktechniken an Bedeutung. Auch die Spannbreite der in einem Haushalt vorhandenen Endgeräte hat massiv zugenommen: Während bislang nur der Fernsehapparat an sich und vielleicht zusätzlich noch ein Videorecorder oder Satellitenreceiver berücksichtigt werden mussten, können inzwischen die unterschiedlichsten Kombinationen von Set-Top-Boxen, Decodern, PCs, Heimnetzwerken und anderen Geräten eine Rolle spielen. Deshalb ersetzt die Arbeitsgemeinschaft Fernsehforschung (AGF), eine Organisation der Fernsehunternehmen, welche die Erhebung der Einschaltquoten finanziert und steuert, ab 2007 das alte GfKMeter durch ein neues, modulares Messgerät, das flexibler den jeweiligen Bedingungen in einem Haushalt angepasst werden kann. Es werden aber auch andere Methoden zur Kanalidentifizierung diskutiert, deren wichtigstes das Matching ist. Dabei werden die Bild- und Toninhalte, die der Zuschauer zu Hause präsentiert bekommt, mit einer umfassenden Datenbank abgeglichen, in der die Mitschnitte aller Programme gespeichert sind. Technologisch zur Zeit noch relativ aufwändig, wird das Matching dank schnellerer Geräte und immer raffinierterer Software aber zunehmend einfacher zu realisieren. Der Vorteil dieses Verfahrens besteht darin, dass es nicht von der Zuverlässigkeit der mitgesendeten SI-Daten abhängig ist und auch keinen direkten Eingriff in die Technik des Zuschauer-Haushalts notwendig macht. Dafür kann es aber naturgemäß nicht erkennen, auf welchem Weg das Signal den Haushalt erreicht hat, und ist zur Erkennung der Nutzung von Teletext oder EPGs weniger gut geeignet. Beides sind durchaus eklatante Nachteile: Ein und dasselbe Programm kann z.B. bei Satellitenempfang Bestandteil eines anderen Bouquets sein als im Kabel, so dass es aus der Sicht des Zuschauers gewissermaßen unterschiedliche
4.1 Herausforderungen durch digitale Distribution
129
Verwandtschaftsbeziehungen hat. Auf einer Empfangsebene ist der Nachrichtenkanal vielleicht im selben Bouquet wie die Mainstream-Programme seines Mutterkonzerns, d.h. der häufige Nutzer von ProSieben begegnet mit hoher Wahrscheinlichkeit auch oft dem Angebot von N24, weil die beiden Sender auf seiner Fernbedienung ebenso wie im EPG nahe beieinander liegen. Auf dem anderen Verbreitungsweg ist N24 dagegen möglicherweise Teil eines Bouquets von lauter Nachrichten- und Dokumentarfilm-Kanälen. Dadurch würde sich der Sender einer gänzlich anderen Konkurrenzsituation gegenüber sehen, weil er jetzt kaum noch von einem Zufalls-Publikum beim Zapping angesteuert, sondern lediglich speziell von informationsorientierten Zuschauern gefunden wird. Zugleich werden die elektronischen Programmführer die Auswahlentscheidungen des Publikums immer stärker beeinflussen: Welches Angebot erscheint nach dem Einschalten als erstes auf dem Bildschirm? In welcher Reihenfolge und mit welchen inhaltlichen Informationen werden die verfügbaren Kanäle präsentiert (vgl. Kap. 5.9)? Verwendet der Zuschauer einen speziellen EPG, den sein Gerät erstellt oder den er von einem unabhängigen Anbieter abonniert hat, oder orientiert er sich an dem, was die einzelnen Programmveranstalter mitliefern? Alle diese Informationen sind für Sender und Werbekunden hochinteressant, aber aufgrund ihrer Individualität durch Matching-Verfahren nur schwer abzubilden. Des weiteren sieht sich die Fernsehforschung in der digitalen Welt mit zahlreichen Definitionsproblemen konfrontiert, die zuvor entweder gar nicht existierten oder zumindest zahlenmäßig keine bedeutende Rolle gespielt haben. Es beginnt mit zeitversetzten Ausstrahlungen: Wenn etwa die selbe Ausgabe der Tagesthemen in einem ARD-Digitalkanal eine halbe Stunde später gesendet wird als im Ersten Programm – handelt es sich um verschiedene Sendungen oder muss man beide Einschaltquoten zusammenrechnen? Die gleiche Frage stellt sich beim individuell gesteuerten zeitversetzten Fernsehen mit Hilfe von Personal Video Recordern, das in Zukunft stark zunehmen wird: Bis zu welchem Zeitpunkt nach der eigentlichen Ausstrahlung darf und soll der Seher eines Programms noch zu dessen Zuschauern gezählt werden, und ab wann konstituiert sich ein eigenständiger Nutzungsvorgang? Die Antwort hat unter anderem Konsequenzen für das Verständnis des Begriffs Marktanteil: Wird dieser heute als das Nutzungsverhältnis zwischen verschiedenen gleichzeitigen Sendungen bzw. Zeitintervallen angesehen, könnte er sich in Zukunft auch zur Beschreibung des zusammengefassten (kumulierten) Erfolges einer bestimmten einzelnen Sendung durchsetzen, die im Laufe eines Tages oder beliebig anders definierten Zeitraums unter Umständen ein Dutzend mal an verschiedenen Stellen zu sehen ist. Es ist denkbar, dass auf diese Weise Programme, die bisher aufgrund ihrer ungünstigen Sendezeit nur wenige Zuschauer anzuziehen vermochten, einen höheren Stel-
130
4 Zuschauerforschung
lenwert bekommen – und umgekehrt. Die Regeln für die Bewertung solcher Erkenntnisse befinden sich noch in der Diskussion. Ein ähnliches Methodenproblem stellt sich bei multiperspektivischen Sendungen, wie sie z.B. bei Übertragungen von Formel-1-Rennen üblich sind. Dabei kann der Zuschauer nach Belieben zwischen mehreren Kamerapositionen auswählen, wie etwa einer in der Boxengasse und anderen am Streckenverlauf und im Cockpit einzelner Rennautos. Ist das alles eine Sendung oder sind es verschiedene Programme? Diese Problematik verstärkt sich, wenn es sich um örtlich oder inhaltlich unterschiedliche Übertragungen handelt, die aber alle unter eine gemeinsame Klammer fallen, wie beispielsweise ein Spieltag der Fußball-Bundesliga mit mehreren gleichzeitigen Begegnungen oder ein Leichtathletik-Wettkampf, bei dem man zwischen verschiedenen simultan ausgetragenen Disziplinen wählen kann. Ähnliches gilt auch für die Unterscheidung zwischen Sendungen im Originalton und in synchronisierter Fassung oder für Regionalprogramme, die auch außerhalb ihres jeweiligen Bestimmungsgebiets empfangbar sind. Die Definitionen sind in allen diesen Bereichen umstritten: Während der eine Sender vielleicht seine gesamte mehrkanalige Olympia-Berichterstattung zusammengefasst haben möchte, weil er sie seinen Werbekunden als Gesamtpaket anbietet, würde der andere aus sportpolitischen Gründen gerne nach Sportarten differenzieren und der dritte aus Lokalpatriotismus nach Austragungsorten. Umgekehrt kann bekanntlich auch ein einzelner Fernsehkanal Informationen auf mehreren Ebenen gleichzeitig transportieren, wie es bei Werbung im Splitscreen oder auf Nachrichtensendern der Fall ist. Wie soll man unter solchen Bedingungen herausfinden, ob die Aufmerksamkeit des Zuschauers z.B. auf die wirtschaftspolitische Diskussion im Hauptfenster des Bildschirms gerichtet ist oder auf die mit Werbung vermischten Börsendaten am unteren Rand? Das ist nur durch zusätzliche Befragung, aber nicht unter Einsatz technischer Mittel möglich. Ähnliches gilt für die Nutzung von Zusatzdiensten wie EPGs, die weitaus mehr Möglichkeiten bieten können als herkömmlicher Teletext und das eigentliche Fernsehbild unter Umständen ganz oder teilweise überlagern.
4.2 Publikumsfragmentierung und Mediaplanung Eine weitere große Herausforderung für die Fernsehforschung besteht in der wachsenden Zersplitterung der TV-Nutzung. Das im Jahr 2006 von der Gesellschaft für Konsumforschung (GfK) eingesetzte Panel besteht aus 5.640 Haushalten mit insgesamt knapp 13.000 Personen, die 35 Mio. Haushalte bzw. 73,4 Mio. Menschen in der Bundesrepublik (deutsche Staatsbürger und EU-Ausländer) repräsentieren. Diese Stichprobe liefert für die größeren Sender sehr zuverlässige
4.2 Publikumsfragmentierung und Mediaplanung
131
Angaben; bei kleinen Sendern und zu Tageszeiten, während derer nur sehr wenig ferngesehen wird, ist die Zuverlässigkeit der Messergebnisse dagegen nicht optimal, weil die Fallzahlen zu gering sind. Das bedeutet, dass zu wenige konkrete Panel-Teilnehmer den jeweiligen Kanal tatsächlich eingeschaltet hatten und die Hochrechnung auf die Gesamtbevölkerung daher auf einer zu kleinen realen Datenbasis beruht. Dadurch verlieren selbst erprobte statistische Methoden irgendwann ihre Aussagekraft; die Ergebnisse sind dann zufällig. Bereits 2005 wies die AGF/GfK-Fernsehforschung unter den 42 Sendern, die sich an ihrem System beteiligen, immerhin 24 Kanäle mit Marktanteilen von weniger als einem Prozent (Zuschauer ab 3 Jahren; Quellen: AGF, Kress-Report) aus, und ständig werden neue Sender gestartet. Doch wenn man einen Kanal mit 0,1 Prozent Marktanteil genauso zuverlässig messen will wie einen mit 1,0 Prozent, benötigt man ein zehnmal so großes Panel – und würde dementsprechend eine annähernde Verzehnfachung der Kosten von heute schon rund 20 Mio. Euro im Jahr verursachen. Kurz: Eine Panel-basierte Erforschung des Zuschauerverhaltens nach derzeitiger Methodik ist in der digitalen Welt nicht finanzierbar. Denn ausgerechnet diejenigen Sender, die aufgrund ihrer geringen Einschaltquoten auch ein niedriges Budget und wenig Werbeerlöse haben, verursachen die höchsten Ausgaben. Selbst wären sie kaum in der Lage, diesen Aufwand zu bezahlen, und die großen Fernsehunternehmen werden sich kaum an finanziell um die zuverlässige Erfolgsmessung ihrer kleinen Konkurrenten verdient machen wollen. Dabei schreitet die Fragmentierung des Fernsehmarktes mit jedem verfügbaren neuen Kanal unaufhaltsam fort. Zwar wird das Relevant Set, d.h. die Anzahl der Sender, mit denen ein Zuschauer den weitaus überwiegenden Teil seines TV-Konsums verbringt, mit wachsender Auswahl kaum noch größer, und gleiches gilt auch für die Menge der wenigstens ab und zu einmal genutzten Programme, doch splittert sich in einer Multikanalumgebung die Zusammensetzung des Relevant Sets immer weiter auf (vgl. Kap. 3.5.1). Mitte der neunziger Jahre konnte man noch davon ausgehen, dass mehr oder weniger im gesamten Publikum ein Konsens über die beachtenswerten Kanäle herrschte (ARD, ZDF, RTL, SAT.1, ProSieben), der bei bestimmten Zielgruppen noch um einige wenige damals gerade gestartete Angebote erweitert wurde (RTL II, kabel eins, VOX, MTV, VIVA, DSF). Heute finden sich in einem digitalen Haushalt auf einer typischen Prioritätenliste zwar viele der gleichen Namen wieder, doch wird das Relevant Set sehr individuell nach persönlichen Vorlieben ergänzt. Wo der eine am liebsten den Kanal mit amerikanischen Sportarten nutzt, zieht der andere Pferderennen vor, während weitere Zuschauer Fans eines Kochkanals oder Volksmusiksenders sind. Und die hierfür aufgewendete Zeit geht natürlich auf Kosten der Großen und damit zu Lasten der Gemeinsamkeiten mit der Mehrheit des Publikums. Die Zuschauerforschung sieht sich damit einer stetig wachsenden
132
4 Zuschauerforschung
Herausforderung gegenübergestellt, zumal sicherlich auch die Marktführer wissen wollen, wo substantielle Teile ihrer Seherschaft geblieben sind. Die, verglichen mit dem Datenreichtum, den die Erforschung der größeren Sender an den Tag fördert, zwar enttäuschende, aber unter dem Kosten-NutzenAspekt effizienteste Methode, Studien zu marginalen Kanälen zu machen, ist die Aggregation von Daten. Das heißt, man sammelt die wenigen im Panel registrierten Nutzungsvorgänge so lange, bis in der Gesamtbetrachtung eine Grundlage für sinnvolle Auswertungen vorliegt. Das kann im ungünstigsten Fall Monate dauern, und die Auflösung der Ergebnisse ist dementsprechend ungenau: Man kann kaum sagen, wie viele Personen einen bestimmten Werbeblock oder auch nur ein konkretes Programm gesehen haben, sondern im Grunde nur Tendenzen erkennen. Immerhin ist es auf diese Weise möglich, typische Tagesabläufe in der Nutzung des Kanals und die Effekte von Programmänderungen abzulesen – und das alles ohne dramatische Aufstockung des Panels. Alternativ ist es auch möglich, Messwerte über wiederkehrende einzelne Sendungen zu aggregieren, z.B. über Reihen und Serien oder über Programme, die sich in einer Rotation befinden, also nach einem bestimmten System über einen längeren Zeitraum hinweg immer wieder abgespielt werden. Alle diese spezifischen Schwierigkeiten beim Umgang mit der Zuschauerforschung im digitalen Fernsehen können auf Dauer nicht ohne Konsequenzen für die bisherigen Standards sowohl der Programm- als auch der Mediaplanung bleiben. Während man sich im Fall der größeren, etablierten Sender zwar mitunter damit schwer tut, zukünftige Entwicklungen und den Erfolg eines neuen Formats beim Publikum vorherzusagen, verfügt man dort aber zumindest im Nachhinein über äußerst präzise Analysewerkzeuge, um festzustellen, was richtig war oder schief gelaufen ist. Bei den Mini-Kanälen ist dagegen eher Stochern im Dunkeln angesagt, und genau dieser Umstand ist es, der bislang auch ihren Erfolg bei den Werbekunden stark beeinträchtigt. Die Media-Agenturen, welche die Werbezeit bei den Fernsehsendern im Auftrag der werbungtreibenden Unternehmen planen und einkaufen, stehen unter einem starken Rechtfertigungsdruck: Nur wenn sie anhand von Zahlen nachweisen können, dass sie ihre Arbeit effizient verrichtet und mit einer Kampagne die richtige Zielgruppe im angestrebten Umfang erreicht haben, ist ihr Kunde zufrieden. Und dabei bildet die AGF/GfKFernsehforschung den Marktstandard, an dem sich alle Beteiligten orientieren; sie liefert die einzige gängige und allgemein akzeptierte Währung für die Definition und den Nachweis von Media-Zielgruppen im Fernsehen. Das hängt vor allem mit dem Phänomen der Streuverluste im MainstreamFernsehen zusammen: Die meisten konventionellen TV-Kanäle bilden als breit aufgestellte Vollprogramme eine Art Sammelbecken für große Teile des Publikums. Man verfügt bei den jeweiligen Zuschauern dank der Fernsehforschung
4.2 Publikumsfragmentierung und Mediaplanung
133
nur über relativ abstrakte Informationen wie Geschlecht, Alter, Haushaltseinkommen und Schulbildung. Im Gegensatz dazu hat der Anbieter eines Produktes oder einer Dienstleistung aber normalerweise eine recht genaue Vorstellung davon entwickelt, welche Personen als Kunden in Frage kommen, sprich: Ein entsprechendes Bedürfnis und finanzielles Budget haben. Das ist die MarketingZielgruppe, die nun mit Hilfe der AGF/GfK-Daten in eine Media-Zielgruppe übersetzt werden muss. Ein einfaches Beispiel: Für einen Hersteller von Babynahrung ist klar, dass er sein Produkt nur an Eltern mit Kleinkindern verkaufen kann. Genau diese Gruppe möchte er aus der Gesamtbevölkerung herauspicken, um ihr die Vorteile seines spezifischen Nahrungsmittels anzupreisen. Aufgrund von Studien, die er mit Hilfe von Umfragen und Ansätzen der Verhaltensforschung gemacht hat, und gestützt auf seine bisherigen Erfahrungen am Markt weiß der Hersteller z.B., dass sein relativ teures Produkt praktisch ausschließlich von Müttern gekauft wird, während die zugehörigen Väter sich beim Einkauf eher zurückhalten. Er wird sich mit seinen Werbespots also besonders im Umfeld solcher Programme engagieren, die verstärkt von Frauen zwischen Ende 20 und Ende 30 in Mehrpersonenhaushalten mit Kind und höherem Haushaltseinkommen gesehen werden. Vor allem bei Spartenkanälen wird diese Unterscheidung zwischen Mediaund Marketing-Zielgruppe jedoch zunehmend überflüssig. Wenn man sich einen Ratgeber-Kanal für Eltern und Kind vorstellt, ist es recht offensichtlich, welche Zielgruppe einen solchen Sender nutzt. Das gleiche gilt für den Auto-Sender, den Angler-Kanal, den Computerspiele-Channel usw. – die aufwändige Medienforschung, wie sie im Dienste der großen TV-Unternehmen betrieben wird, ist hier also teilweise überflüssig. Für den Spartenkanal kommt es nun lediglich noch darauf an, die Quantität seiner Nutzung zu belegen, und das geht ohne weiteres mit Methoden wie der Aggregation von Messeergebnissen. Gegebenenfalls kann er zur Unterstützung noch Umfragen unter seinen Sehern veranstalten oder die Response-Raten bei Telefonaktionen oder dem Abruf von Service-Informationen auf seiner Web-Seite hinzuziehen. Dies wissend, werden sich gerade finanzstarke Markenartikelhersteller und Dienstleistungsanbieter in Zukunft gar nicht mehr unbedingt auf Programmangebote von TV-Veranstaltern verlassen, sondern die Kostenvorteile des digitalen Fernsehens dazu nutzen, Kanäle gleich in Eigenregie anzubieten, so wie es etwa die Deutsche Bahn AG mit ihrem Bahn TV schon seit Jahren betreibt. Andere Werbungtreibende statten Fernsehsender, die ihre jeweilige Marketing-Zielgruppe optimal ansprechen, mit finanziellen Mitteln, Product Placement und redaktionellen Kooperationen aus, ohne dabei allzu genau auf die absoluten Zuschauerzahlen zu blicken. Wenn die Glaubwürdigkeit des Senders hoch ist und seine Streuverluste gering sind, kann die Werbewirkung selbst bei kleinen Zuschauer-
134
4 Zuschauerforschung
zahlen durchaus bei weitem besser sein als die von herkömmlichen Werbespots im massenattraktiven Fernsehen. Das ist nicht zuletzt deshalb so, weil Produkte in einem monothematischen Umfeld ohne Zeitbeschränkung sehr viel intensiver dargestellt und erklärt werden können als in einem 30-Sekunden-Spot – der Erfolg der Teleshopping-Kanäle ist dafür ein gutes Beispiel. Beim Abonnement-Fernsehen wird der Erfolg des Senders dagegen in erster Linie an der Kundenzahl gemessen; der Zuschauerforschung kommt hier deshalb nicht die Rolle zu, eine Bemessungsgrenze für den Preis von Werbeformen aller Art zu generieren, sondern sie ist zur Optimierung der Programminhalte unverzichtbar. Denn wenn ein Kanal Abonnenten hinzugewinnt oder verliert, möchten dessen Macher natürlich möglichst genau wissen, woran das liegt, d.h. welche Sendungen vom Publikum besonders gerne angenommen werden und welche eher abschrecken. Da aber die Seher des Programms persönlich bekannt sind, kann der TV-Veranstalter unter solchen Bedingungen auch zu dem (freilich nicht ganz billigen) Ausweg greifen, ein eigenes Panel aufzubauen und damit spezifische und sehr gut anwendbare Informationen über sein eigenes Angebot und dessen Position im Konkurrenzumfeld zu erhalten. Premiere als bislang größter und leistungsstärkster Pay-TV-Betreiber in Deutschland geht diesen Weg.
4.3 Interaktives Fernsehen Im Bereich der vollen Interaktivität des digitalen Fernsehens, d.h. vor allem im Bereich von Video-on-Demand (VoD) und Pay-per-View (PpV) liegen die Dinge gänzlich anders. VoD muss man sich ja in erster Linie als Direktverkauf eines Programminhalts an den Verbraucher vorstellen. Der wirtschaftliche Erfolg braucht dann nicht mehr auf dem Umweg über die Werbevermarktung hergestellt zu werden, sondern lässt sich direkt anhand der Abrechnungen bzw. Bestellvorgänge verfolgen, so wie bei sehr vielen anderen Produkten auch. Das gleiche Prinzip gilt für interaktive Fernsehwerbung: Für den Werbekunden ist das finanzielle Risiko minimal, da er – genau wie bei vergleichbaren Werbeformen im Internet – den Betreiber der Plattform nur für die tatsächlich erfolgten Interaktionen bezahlen muss, also z.B. dafür, dass ein potentieller Käufer den Werbefilm über ein Auto abgerufen und sich auch wirklich angesehen hat. Weniger als unter dem Aspekt der Zuschauerforschung muss man den interaktiven, mit einem Rückkanal ausgestatteten Sektor viel eher unter dem Gesichtspunkt des Datenschutzes betrachten. Abhängig vom Aufbau des Netzes, vom Distributionsverfahren und von der Abrechungsmethode kann (bzw. muss) der Anbieter sehr genau herausfinden, welcher Haushalt oder sogar welches Individuum welches Programm konsumiert hat. So z.B. im Pay-per-View-Ange-
4.3 Interaktives Fernsehen
135
bot von Premiere: Der Premiere-Abonnent identifiziert sich mit seiner Kundennummer und fordert die Freischaltung eines ganz bestimmten Inhaltes an. Ähnlich kann es in einem rückkanalfähigen Kabelnetz funktionieren, dessen Betreiber zugleich auch als VoD-Anbieter oder zumindest als Vermittlungs- oder Abrechungsstelle im Auftrag eines Dritten auftritt. Hierbei wird die Datenübermittlung unter Umständen direkt zwischen Netz und Endgerät ausgemacht, nachdem der Zuschauer den Bestellknopf auf seiner Fernbedienung gedrückt hat. Auch Digital Rights Management ordnet Lizenzen bestimmten Kunden (über die Abrechnung) und Geräten zu; Anonymität kann hier nur dadurch gewährleistet werden, dass Bargeld-ähnliche Zahlungsverfahren zum Einsatz kommen, die nicht auf eine bestimmte Person zurückverfolgt werden können, oder dass unabhängige Zahlungsdienstleister die Identität des Kunden gegenüber dem Lieferanten schützen. Doch kann man auf diese Weise – soweit rechtlich zulässig – immer nur das Nutzungsprofil eines bestimmten Kunden auswerten und daraus Schlussfolgerungen zu ziehen versuchen. Echte Marktforschung möchte aber besser über das Publikum informiert sein: Welche Konsumgewohnheiten in anderen Bereichen korrespondieren mit seinem Fernsehverhalten? Wie ist es um seine Wohn- und Einkommensverhältnisse bestellt, über welche Haushaltsausstattung verfügt es, welche Lebensstile pflegt es usw. Um das zu erreichen, werden dann wieder hochentwickelte klassische demographische Methoden eingesetzt, so wie sie in Deutschland die Arbeitsgemeinschaft Online-Forschung (AGOF) für das Internet und andere interaktive Medien etabliert. Die AGOF verfolgt dabei ein Modell, das drei Säulen der Forschung miteinander kombiniert. Stark vereinfacht dargestellt, wird dabei zunächst eine technische Messung vorgenommen: Jeder Abruf einer dem System angeschlossenen Web-Seite wird gezählt, so dass eine vollständige Datenbasis über die quantitative Nutzung vorliegt. Daraus vermag man aber noch nicht abzulesen, welche konkreten Personen hinter der Nutzung stehen. Vielleicht ruft ein und derselbe Nutzer ein Angebot am selben Tag vom Büro aus und zu Hause auf, eventuell wird aber auch ein Endgerät nacheinander von mehreren Familienmitgliedern genutzt. Deshalb erhalten zufällig ausgewählte Benutzer der teilnehmenden Angebote einen Online-Fragebogen, in dem sie auf freiwilliger Basis Auskunft zu sich und ihren Internet-Gewohnheiten geben können. Dadurch wird es möglich, die Gesamtnutzung auf die Profile konkreter Personen umzuverteilen. Nach komplexen Hochrechnungen kann man nun z.B. sagen, welche Altersgruppe ein bestimmtes Angebot bevorzugt, von wo aus sie ins Internet geht, was sie verdient etc. Zum Abschluss folgt ein dritter Schritt, der zur Überprüfung der online gewonnenen Informationen dient und sie mit weiteren Details anreichert: Eine repräsentative Telefonbefragung der Bevölkerung. Dabei werden die Er-
136
4 Zuschauerforschung
gebnisse aller drei Forschungsschritte miteinander fusioniert. Das bedeutet, dass die im Rahmen der drei Säulen gewonnenen individuellen Eigenschaftsprofile einzelner Nutzer zuerst miteinander verglichen und zu typischen Zielgruppen zusammengefasst werden. Danach kann man dann alle Internet-Anwender aufgrund ihrer jeweiligen demographischen oder verhaltensbedingten Ähnlichkeit einer passenden Zielgruppe zuordnen. Dieses Verfahren ist offenkundig weitaus schwieriger und mit mehr Unsicherheiten behaftet als das der AGF/GfK-Fernsehforschung. Dort hat man es dank des festen Panels mit Personen zu tun, die man recht genau kennt, und man misst das TV-Verhalten genau dieser Personen (Single Source). Aufgrund der schieren Vielfalt bräuchte man in diesem Bereich der Online-Medien jedoch ein gigantisch großes und damit nicht finanzierbares Panel, um verlässliche repräsentative Aussagen machen zu können. Dennoch muss man sich vor Augen halten, dass man mit dem AGOF-Verfahren selbst gegenüber der Aggregation von GfK-Daten noch einen großen Schritt weiter von den tatsächlichen Nutzern entfernt ist.
5.1 Fernseh-Senderfamilien
137
5 Wertschöpfungsketten und Geschäftsmodelle
5.1 Fernseh-Senderfamilien Das traditionelle Geschäftsmodell des Broadcast-Fernsehens beruht auf seiner Position am Nadelöhr zwischen Produktion und Distribution. So lange die Verbreitung von Fernsehsendungen nicht in beliebiger Menge möglich ist, weil es aus technischen und/oder regulatorischen Gründen an verfügbaren Transportwegen mangelt und die Distribution viel Geld und Aufwand verschlingt, werden die Sender als Content-Aggregatoren gebraucht, d.h. als eine kompetente Sammelstelle, die publikumsattraktive Programme einkauft und herstellen lässt, um sie dann dem Publikum anzubieten. Das ist ganz ähnlich wie in einem Supermarkt, dessen Aufgabe ja auch darin besteht, aus verschiedenen Quellen eine Bandbreite an Produkten zu beschaffen, die dann wiederum bequem von den Kunden gekauft werden können. Doch klassische Fernsehsender, die sich dem Free-TV verschrieben haben, verlangen von ihren Zuschauern keinen direkten Kaufpreis für die Nutzung des Programmangebots, sondern finanzieren sich vor allem durch den Verkauf der Aufmerksamkeit ihrer Zuschauer an die werbungtreibende Wirtschaft. Diese Position gerät in der digitalen Welt von verschiedenen Seiten unter Druck, eröffnet aber auch neue Chancen. Dabei stellt sich die Situation aus Sicht der verschiedenen Lager auf dem Broadcaster-Markt unterschiedlich dar.
5.1.1 Privatsender auf dem Werbemarkt Die etablierten kommerziellen Fernsehanbieter dominieren nach wie vor das Geschehen auf dem Markt. Die in den beiden Senderfamilien von RTL (RTL, VOX, RTL II, Super RTL, n-tv) und der ProSiebenSAT.1-Gruppe (ProSieben, SAT.1, kabel eins, N24, 9live) zusammengefassten Kanäle vereinen zur Zeit und bis auf weiteres sowohl knapp die Hälfte der gesamten Fernsehnutzung (Zuschauer ab 3 Jahre, Z 3+) als auch an die 90 Prozent aller TV-Werbeerlöse auf sich. In der werberelevanten Zielgruppe der Erwachsenen zwischen 14 und 49 Jahren (E 14-49) kommen sie sogar auf über 60 Prozent der Sehdauer. Die wesentlichen Konkurrenzkämpfe werden zwischen diesen Sendergruppen ausgefochten, aber bislang noch nicht mit Dritten. Dabei kann man feststellen, dass sich die Marktanteilswerte der größeren und kleineren Sender innerhalb dieses
138
5 Wertschöpfungsketten und Geschäftsmodelle
Segments in der langjährigen Betrachtung aufeinander zu bewegen; die kleineren (und zumeist auch jüngeren) Kanäle holen zu Lasten der großen, schon seit dem Beginn des Privatfernsehens Mitte der achtziger Jahre existierenden Sender auf. Mit dieser Tendenz sind einige Anpassungsprobleme verbunden, die jedoch nichts mit dem digitalen Fernsehen zu tun haben; so lange Marktanteile und Werbeerlöse in der jeweiligen Familie bleiben, ist strukturell aus der Sicht der Sendergruppen erst einmal alles in Ordnung. Tabelle 4: Marktanteile der großen Privatsender
RTL VOX RTL II Super RTL n-tv RTL-Gruppe SAT.1 ProSieben Kabel eins N24 ProSiebenSAT.1Gruppe Gesamt
Zuschauermarktanteile 2005 TV-WerbemarktZ 3+ E 14-49 Anteil netto 2004 13,2% 16,0% 29,0% 4,2% 6,4% 5,8% 4,2% 6,5% 5,4% 2,8% 2,7% 2,6% 0,6% 0,6% 0,8% 25,0% 32,2% 43,6% 10,9% 12,3% 20,2% 6,7% 11,7% 18,8% 3,8% 5,5% 5,0% 0,6% 0,8% 0,6% 22,0% 47,0%
30,3% 62,5%
44,6% 88,2%
Quellen: Kress-Report; ZAW; eigene Berechnungen Einen ersten Eindruck von der tatsächlich etwas eingetrübten Stimmung bekommt man aber, wenn man sich die Entwicklung der Netto-Werbeumsätze in absoluten Zahlen ansieht. Zum ersten liegen die Einnahmen der Fernsehunternehmen wieder auf dem Niveau von Ende der neunziger Jahre und erholen sich spürbar langsamer von der konjunkturellen Delle als der Werbemarkt insgesamt und vor allem auch als die unmittelbar konkurrierenden anderen elektronischen Medien. Von 2003 auf 2004 hat stiegen beispielsweise die Umsätze im Hörfunk um 6,9 Prozent und die im Online-Bereich sogar um 10,2 Prozent, während das Fernsehen nur um 1,3 Prozent zulegen konnte. Insgesamt verbesserte sich der Markt um 1,6 Prozent (Quelle: ZAW).
139
5.1 Fernseh-Senderfamilien
Dass man als Zuschauer vielleicht subjektiv den Eindruck gewinnt, die Werbung im Fernsehen sei keineswegs weniger geworden, hängt damit zusammen, dass die Sender immer höhere Rabatte geben, also trotz gleichbleibender zeitlicher Auslastung der Werbeinseln weniger Geld einnehmen. Nach Abzug aller Provisionen und Nachlässe landet inzwischen durchschnittlich nur noch rund die Hälfte des Listenpreises der Werbung tatsächlich in der Kasse der TVVeranstalter. Das betrifft zwar vor allem unabhängige, kleinere Sender, die eine geringe Sehbeteiligung oder weniger attraktive Zielgruppen durch extrem günstige Preise kompensieren, aber auch die großen Sender bleiben von diesem Trend nicht unberührt. Dabei ist die Krise der Werbung nämlich keineswegs zugleich auch eine Krise der Zuschauerakzeptanz: Im Gegenteil stieg die Fernsehnutzung im Jahr 2005 auf einen Rekordwert von durchschnittlich 211 Minuten pro Tag und Person. Abbildung 8:
Netto-Werbeerlöse im Fernsehen in Mrd. €
5,00
4,71 4,32
4,50
4,04 3,80
4,00
4,47 3,96
3,81
3,86
3,53 3,24
3,50
2,88
3,00
2,47 2,50
2,21
2,00
1,50
1,00
0,50
0,00
1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004
Quelle: ZAW
140
5 Wertschöpfungsketten und Geschäftsmodelle
Ein weiterer wichtiger Indikator: Noch vor wenigen Jahren konnten die großen Sender bis zu vier Fünfteln ihrer verfügbaren Werbezeit bereits im Herbst des Vorjahres verkaufen. Die Nachfrage war so stark, dass sich die Media-Agenturen und werbenden Unternehmen die besonders begehrten Plätze lange im voraus sichern mussten. Das hat sich sehr stark geändert. Inzwischen ist das TV-Werbegeschäft wesentlich kurzfristiger geworden; während in der Jahresbuchung nur noch rund die Hälfte des Inventars reserviert wird, gehen immer mehr Buchungen erst wenige Wochen oder Monate vor der Ausstrahlung ein. In diesem Verhalten spiegelt sich zwar in erster Linie eine generelle Vorsicht und Unsicherheit in der Binnenwirtschaft, aber zugleich auch ein Attraktivitätsverlust des Fernsehens als Werbeträger. Den Hintergrund für diese Einbußen bilden im wesentlichen zwei Trends. Der eine besteht darin, dass die Werbekunden wieder zunehmend auf Medien setzen, die ihnen eine präzisere Zielgruppen-Ansprache und kalkulierbarere Werbewirkung versprechen als das Fernsehen, das in den meisten Fällen eher nach dem Gießkannen-Prinzip arbeitet. Gerade die größeren Sender sprechen fast überall eine breite Auswahl des Publikums an; die einzelnen Programmumfelder ziehen zwar jeweils schwerpunktmäßig eine besondere Klientel vor den Bildschirm, doch die Streuverluste sind recht hoch. Wer etwa in der Primetime ein frauenorientiertes Produkt bewerben möchte, der muss selbst in frauenaffinen Sendungen mit einem hohen Männeranteil rechnen. Und wie viele der zuschauenden Frauen sich dann tatsächlich für das konkrete Produkt interessieren, bleibt weitgehend offen. Nimmt man weiter noch den Umstand hinzu, dass der Spot in der Werbeinsel nur einer von vielen ist und deshalb vielleicht gar nicht richtig wahrgenommen wird (clutter), verliert das Fernsehen gegenüber dem Internet, aber auch gegenüber der Werbung per Post oder Marketingaktionen in den Geschäften an Attraktivität. Da seit dem Jahr 2005 dank der Arbeitsgemeinschaft Online-Forschung (AGOF) auch für Web-Auftritte methodisch verlässliche und branchenweit anerkannte Nutzungsdaten vorliegen (vgl. Kap. 4.3), die mit den Ergebnissen der TV-Zuschauerforschung vergleichbar sind, ist einer der wichtigsten Hinderungsgründe für Internet-Werbung endlich entfallen. Seiner Werbewirkung noch sicherer kann sich ein Unternehmen bei interaktiven Werbeformen sein, die es z.B. erfordern, dass ein Interessent sie bewusst anklickt und ihnen somit freiwillig seine ungeteilte Aufmerksamkeit schenkt.
141
5.1 Fernseh-Senderfamilien
5.1.2 Lineares und nonlineares Fernsehen Ein weiterer Faktor ist das Vordringen der Festplatten-Videorecorder (Personal Video Recorder, PVR), die ihren Besitzern komfortabel zeitversetztes Fernsehen ermöglichen und das Überspringen von Werbeblöcken besonders leicht machen. Noch stellen diese Geräte in Deutschland quantitativ keine größere Herausforderung für die Sender dar, gewinnen aber an Verbreitung. Bereits in wenigen Jahren könnten sie eine kritische Masse erreichen. Wie schnell das gehen kann, ist an der Durchsetzung von DVD-Playern abzulesen: Nur fünf Jahre nach ihrer breiten Markteinführung verfügten bereits mehr als die Hälfte aller Haushalte über ein solches Gerät. Abbildung 9:
Entwicklung der Ausstattung der Haushalte mit DVD-Playern in % 65 57 45
23
8 3
1 1999
2000
2001
2002
2003
2004
2005
Quelle: Bitkom Es ist daher durchaus vorstellbar, dass PVRs dazu beitragen, das lineare, programmorientierte Fernsehen zu unterminieren. Heute schaltet die Mehrheit des Publikums nicht eine bestimmte Sendung, sondern den Fernsehapparat ein. Mit der Fernbedienung wird dann ein Programm gesucht, das der jeweiligen Stim-
142
5 Wertschöpfungsketten und Geschäftsmodelle
mung und den aktuellen Bedürfnissen des einzelnen Zuschauers am besten gerecht wird (Zapping). Die verbreitete Klage, dass „wieder nichts Gescheites kommt“, dass also der individuelle Zuschauer genau zu dem Zeitpunkt, wenn er Lust hat, fernzusehen, gerade keine Sendung findet, die ihm besonders gut gefällt, hält jedoch die wenigsten Menschen davon ab, das Gerät in einem solchen Fall weiter eingeschaltet zu lassen. Stattdessen werden Kompromisse gemacht und auch solche Sendungen konsumiert, die man sich unter anderen Umständen nicht absichtlich ausgesucht hätte. Durch diesen Effekt gewinnen Programme Zuschauer hinzu, obwohl sie die Bedürfnisse ihres jeweiligen Publikums nicht vollständig befriedigen, sondern in einem gegebenen Augenblick gleichsam als das kleinere Übel empfunden werden. Auf Phänomene wie diese setzen die meisten herkömmlichen Programmstrategien der Fernsehanbieter: Die Trägheit der Zuschauer und Gewöhnungseffekte werden ausgenutzt, um die Einschaltquoten zu steigern. So nimmt jemand, der weiß, dass später am Abend noch seine Lieblingsserie ausgestrahlt wird, auf dem selben Kanal durchaus auch als schwächer empfundene Sendungen in Kauf, um die Wartezeit zu überbrücken, und warum sollte ein Fan der nachmittäglichen Gerichtsshows den Kanal wechseln, wenn er weiß, dass mehrere gleichartige Sendungen hintereinander angeboten werden? In der Fachsprache heißt das Audience Flow, gemeint sind Mitnahme-Effekte des Publikums bei mehreren aufeinander folgenden Sendungen auf dem selben Kanal. PVRs sind jedoch wesentlich leistungsfähiger als VHS-Videorecorder: Sie sind in der Lage, nicht nur vier, sondern Dutzende oder sogar Hunderte Stunden Programm zu speichern, auf das man mit Hilfe eines Menüs ähnlich wie bei der DVD komfortabel mit der Fernbedienung zugreifen kann. Außerdem sind sie in ihren modernsten Ausprägungen lernfähig, d.h. sie zeichnen Wunschprogramme automatisch auf, auch wenn diese den Sendeplatz gewechselt haben, und bieten ihrem Besitzer dank intelligenter Nutzung von Metadaten sogar selbständig Inhalte an. Die Konsequenz daraus ist ein Phänomen, das man in den USA in Haushalten bereits beobachten kann, die mit dem TiVo, einem der ersten fortgeschrittenen PVRs, ausgestattet sind: Es wird nicht mehr zuerst das gerade laufende Fernsehprogramm eingeschaltet, sondern der Videorecorder. Dieser Unterschied hat geradezu revolutionäre Auswirkungen auf das bisherige Verständnis von TV-Programmangeboten und Programmauswahlentscheidungen. PVRs sind darauf programmiert, vordringlich solche Sendungen aufzuzeichnen, die den Vorlieben ihrer Besitzer besonders genau entsprechen. Für die Maschine gibt es kein Relevant Set von bevorzugten Kanälen; während der Mensch regelmäßig nur sechs bis acht Sender bewusst wahrnimmt und auf ihre Programmangebote abklopft, beobachtet der PVR stets alle im jeweiligen Haushalt verfügbaren Programme. Und für Festplattenrecorder spielt die Uhrzeit kei-
5.1 Fernseh-Senderfamilien
143
ne Rolle. Dadurch steigt die Wahrscheinlichkeit massiv an, dass ein Zuschauer in jedem beliebigen Moment auf seinem PVR mehrere aufgezeichnete Sendungen vorfindet, die seinem persönlichen Geschmacksprofil sehr stark entsprechen und die er gerne sehen möchte. Im Gegensatz zum Zapping braucht er dabei kaum Kompromisse einzugehen. Er wird Programme neu entdecken, die auf Kanälen laufen, die er bisher kaum beachtet hat oder die zu Uhrzeiten ausgestrahlt werden, die jenseits seiner eigenen Fernsehgewohnheiten liegen. Je umfangreicher die Kapazität und je besser die Programmierung des PVRs, desto geringer wird mithin die Wahrscheinlichkeit, dass ein Zuschauer normales, lineares Fernsehen schaut. Im gleichen Umfang verringert sich seine Wahrnehmung von Werbeinseln. Von ihrer Rolle als Anbieter eines gestalteten Programms drohen die Fernsehsender also zu reinen Inhalte-Lieferanten zu werden, und für diese Aufgabe sind sie eigentlich nicht konstruiert. Denn wenn die Auslieferung eines Videos weder an eine teure und nur begrenzt verfügbare technische Übermittlungsplattform gebunden ist, noch an seine publikumswirksame Präsentation auf einem bestimmten, populären Kanal zu einer günstigen Uhrzeit, was spricht dann dagegen, dass sein Produzent es unter Umgehung der TV-Unternehmen direkt beim Publikum abliefert? Und auch ihren Gewinn können die großen Fernsehsender im Prinzip nur noch durch Sparmaßnahmen steigern; die meisten proaktiven Taktiken dienen längst nur mehr der Bestandssicherung.
5.1.3 Programmpsychologie und Programmstrategien der Fernsehsender Ungeachtet der sich entwickelnden technischen und logistischen Möglichkeiten sollte man jedoch vorerst die Position der etablierten TV-Unternehmen nicht unterschätzen. Den Sendern stehen eine Reihe von Mitteln zur Verfügung, die es ihnen erlauben, ihre Position zu verteidigen und sogar noch weiter auszubauen. Eine erste wichtige Maßnahme ist seit ein paar Jahren kaum zu übersehen: Die Verlagerung der Werbung aus den Werbeinseln hinaus an Stellen, die sowohl der Werbebotschaft eine gewisse Exklusivität sichern, als auch dem Publikum die Flucht vor der Werbung wesentlich schwerer machen. Diese Sonderwerbeformen (Special Ads), wie sie genannt werden, obwohl sie längst zum Standardrepertoire der TV-Vermarktung gehören, bestehen aus geteilten Bildschirmen, auf denen gleichzeitig Programmelemente und Werbung zu sehen sind, allein gestellten Spots außerhalb von Werbeinseln, oder bringen auch noch speziellere Instrumente wie Einblendungen im laufenden Programm, gesponserte Programmhinweise und legales Product Placement zum Einsatz. Auf diese Weise werden gleich zwei Einwände der Werbekunden entkräftet, denn der einzelne Spot geht nicht
144
5 Wertschöpfungsketten und Geschäftsmodelle
im Clutter unter, und ein Vorspulen bei zeitversetztem Programmkonsum mittels VHS-Recorder oder PVR ist nur um den Preis möglich, zugleich Teile der eigentlichen Sendung zu verpassen. Hinzu kommt, dass die Sonderwerbeformen zwar einen hohen Administrationsaufwand auf Sender- und Vermarkterseite erfordern, dafür aber auch unter geringerem Rabatt-Druck stehen. Grundsätzlich die gleichen Mittel stehen freilich auch den konkurrierenden Medienanbietern zur Verfügung; kleinere Sender und TV-Produzenten setzen zur Refinanzierung sogar besonders stark auf Sonderwerbeformen, Product Placement und andere redaktionelle Kooperationen. Eine zweite Verteidigungsstrategie für das lineare Fernsehen besteht darin, dessen Angebote so zu gestalten, dass ein mit der Ausstrahlung zeitgleicher Sehgenuss für sie konstitutiv ist. Die einfachste Variante, welche einzelne Sender bereits ohne durchschlagenden Erfolg ausprobiert haben, sind programmbezogene Gewinnspiele. Z.B. werden am Anfang oder innerhalb der Sendung Fragen gestellt, die nur durch Ansehen des Programms beantwortet werden können, und die Auflösung kommt dann erst nach dem nächsten Werbeblock oder am Ende der Sendung. Intelligenter, aber auch sehr viel schwieriger ist es, die Sendungen an sich auf Echtzeit-Konsum zu trimmen. Bei Sport-Übertragungen ist das selbstverständlich, denn lediglich ganz besondere Fans wollen etwa ein Fußballspiel noch in voller Länge sehen, wenn sie wissen, dass dessen Ergebnis schon feststeht. Bei dem Kampf der Anbieter um zugleich finanzierbare und attraktive Sportrechte geht es also nicht allein um die Einschaltquote an sich, sondern auch um die Bindung der Zuschauer an einen bestimmten Kanal. Doch auch andere Programmformen erfüllen solche Kriterien, und vor allem RTL hat dafür in den letzten Jahren einen guten Riecher bewiesen. Von Wer wird Millionär? über Deutschland sucht den Superstar bis hin zu Ich bin ein Star – holt mich hier raus! hat der Sender internationale Formate sehr erfolgreich für den deutschen Markt adaptiert. Ein anderes Beispiel sind die Spezialausgaben von TV total auf ProSieben wie Das große TV total Turmspringen, Wok WM oder Bundesvision Songcontest, ebenso wie Big Brother bei RTL II, die allesamt live am besten funktionieren. Den meisten dieser Sendungen ist gemein, dass sie sehr stark auf Aspekte wie Spontaneität und Unvorhersehbarkeit setzen, gewisse voyeuristische Elemente aufweisen und das Publikum in Form von TelefonAbstimmungen stark in den Programmablauf einbinden. Bei den gelungenen Sendungen warten die Zuschauer gespannt, wer sich als nächstes daneben benehmen wird oder wer eine Runde weiter kommt, und fühlen sich durch ihre interaktive Beteiligung mit dem Programm und dessen Protagonisten verbunden. Einige dieser Formate erfüllen zugleich einen weiteren für die etablierten Sender sehr wichtigen Punkt: Relevanz. Gemeint ist damit nicht (und schon gar nicht bei den oben genannten Beispielen) notwendigerweise eine gesellschafts-
5.1 Fernseh-Senderfamilien
145
politische Bedeutung, sondern vielmehr eine psychosoziale; je größer der Teil des Publikums, der das Gefühl hat, man müsse eine bestimmte Sendung einfach gesehen haben, um mitreden zu können, desto höher und stabiler die Einschaltquoten. Die Art und Weise, wie einige der Casting-Shows und Reality-Formate eine geradezu symbiotische Beziehung mit den Boulevardzeitungen entwickelt haben, ist dafür beispielhaft. Die erste Staffel von Big Brother hat RTL II zuerst durch die öffentliche Diskussion über die Sendung an sich und später dann vermittels der Berichterstattung über die „Ereignisse“ in der Sendung selbst gewaltige Publicity verschafft. Bei weiteren Staffeln hält das Interesse der Öffentlichkeit zwar nicht unbedingt in seinem ursprünglichen Umfang an, bleibt aber – wie Big Brother und Deutschland sucht den Superstar belegen – latent vorhanden und reicht immer noch für eine überdurchschnittliche Sehbeteiligung aus. Und nicht zufällig werden die meisten Sendungen dieser Machart mehrmals pro Woche oder sogar täglich ausgestrahlt. Relevanz braucht im Fernsehen freilich nicht notwendigerweise immer mit den Mitteln von Jahrmarkt und Varieté erzeugt zu werden. Die öffentlich-rechtlichen Aushängeschilder Tagesschau und Tagesthemen, heute und heute journal taugen zwar nicht als Beispiele, weil sie nicht kommerziell sind, aber selbst private Nachrichtenkanäle vermögen durch Aktualität, jederzeitige Verfügbarkeit und richtig gesetzte Schwerpunkte die Aufmerksamkeit der Zuschauer an sich zu binden – wenn auch gewöhnlich nur in wesentlich kleinerer Zahl als die unterhaltungsorientierten Konkurrenten. Zwischen diesen Extremen existiert ein breiter Mittelgrund, der vor allem von solchen Formaten gebildet wird, die eine gesellschaftliche Stimmungslage besonders gut treffen, wie z.B. Die Super Nanny. Einen nicht unbeträchtlichen Anteil ihrer Programmangebote bestreiten die etablierten TV-Unternehmen jedoch mit Sendungen, zu deren Charakteristik es gehört, dass sie Zuschauern zwar dazu dienen, sich „berieseln“ zu lassen, jedoch nicht unbedingt Gegenstand einer gezielten Auswahlentscheidung sind. Die wenigsten Zuschauer würden heute eine Doku-Soap, ein Boulevard-Magazin oder eine Panel-Show mit Prominenten aufzeichnen, nur um sie nicht zu versäumen und irgendwann später ansehen zu können. Bisher ist die Liste der meistgesehenen Sendungen nicht unbedingt kongruent mit jener der meistaufgezeichneten Programme; Videorecorder-Favoriten sind eher Spielfilme und Serien, während fast alle anderen Programmangebote weit abgeschlagen sind. Und selbst wenn moderne PVRs Sendungen automatisch mitschneiden, bedeutet das noch lange nicht, dass sich diese Konserven in programmpsychologischer Hinsicht zur Wiedergabe eignen. Sofern ein Zuschauer überhaupt das Interesse und die Geduld aufbringt, eine so alltägliche Sendung zeitversetzt zu konsumieren, spult er mit hoher Wahrscheinlichkeit immer bis zu den Stellen vor, die ihn besonders inte-
146
5 Wertschöpfungsketten und Geschäftsmodelle
ressieren: Die Einblendung des Rezepts in der Kochsendung, das entscheidende Tor beim Fußball, den eskalierenden Familienkrach in der Doku-Soap usw. In diesem Umstand liegen für die Sender Chancen und Risiken nahe beieinander. Der positive Aspekt besteht darin, dass es wahrscheinlich auch in Zukunft eine große Nachfrage nach Fernsehen geben wird, das seinen Zuschauern über das Einschalten hinaus keinerlei Entscheidungen oder Aktivitäten abverlangt und das in einem beliebigen Moment für eine beliebig lange Zeitspanne zur Verfügung steht. Denn das Medium wird nicht nur für den entspannten Genuss von großer Abendunterhaltung genutzt, sondern auch als Lückenfüller und Begleitmedium im Alltagsablauf. Die halbe Stunde vorm Zubettgehen, die Zeit zwischen Abendbrot und Verabredung außer Haus, die Viertelstunde Entspannung nach erledigter Arbeit usw. – alle diese Situationen widersetzen sich im Grunde sowohl der gezielten Programmsuche als auch der Nutzung von Videorecordern. Es ist schwierig einzuschätzen, welcher Anteil des gesamten Fernsehkonsums auf diese zerstreute Nutzung entfällt; alle Werte unterhalb von einem Drittel wären aber wahrscheinlich bei weitem zu kurz gegriffen. Gefahren drohen den Sendern dagegen durch den oben bereits beschriebenen Selektions-Effekt von PVRs und Video-on-Demand-Diensten. Sobald die Situation eine konzentrierte, planbare TV-Nutzung zulässt, gilt der Grundsatz: Das Bessere ist der Feind des Guten, d.h. die höhere Attraktivität eines Programmangebotes vermag den Nachteil wett zu machen, dass es ein Minimum an Initiative und gegebenenfalls sogar separate Bezahlung erfordert. Dies trifft vor allem auf dramaturgisch dichte, in sich geschlossene Formate wie Spielfilme, fiktionale Serien, klassische Reportagen und Dokumentarfilme zu, die allesamt auf eine konsekutive Rezeption ausgelegt sind. Ein Film verlangt und fesselt die Aufmerksamkeit des Zuschauers – zumindest im dramaturgischen und kommerziellen Idealfall – von der ersten bis zur letzten Minute im gleichen Maße und muss vollständig und in der richtigen Reihenfolge gesehen werden. Zwar ist es möglich, zwischendurch zu unterbrechen, der Film wird später aber an der selben Stelle fortgesetzt. Das ist fundamental anders als bei den meisten modular aufgebauten oder dahinfließenden Fernsehsendungen, die das intensive Interesse der einzelnen Nutzer nur an bestimmten Punkten bedienen bzw. die jederzeitiges Ein- oder Aussteigen erlauben. Die Konsumenten haben es also mit zwei verschiedenen Produktkategorien zu tun: Die eine ist der Programmfluss eines Fernsehsenders, die andere eine abgeschlossene Produktion, die auch selbständig, d.h. außerhalb eines Programm-Mediums als DVD, Kinofilm, Download oder Video-on-Demand bestehen kann. Und die letzteren eignen sich in besonderem Maße für Speicherung, zeitversetzten und wiederholten Konsum sowie – je nach Plattform – Einzelabrechnung. Daher erscheint die Vermutung berechtigt, dass sich die Zweitei-
5.1 Fernseh-Senderfamilien
147
lung des Marktes noch weiter verstärken wird: Film, Serie und ausgewählte weitere Formate verschwinden immer mehr aus dem Free-TV und müssen stattdessen einzeln gekauft werden.
5.1.4 Kompensationsstrategien und Diversifikation In der Zwischenzeit bemühen sich die Fernsehunternehmen, ihr traditionelles Geschäftsmodell noch möglichst langfristig zu konservieren. Dazu stehen ihnen eine Reihe von Mitteln zur Verfügung, die allerdings teilweise mit dem Verhindern bzw. Bremsen von neuen Entwicklungen zu tun haben. Bemerkenswert ist etwa, dass im Gegensatz zum allgemeinwirtschaftlichen Trend der letzten Jahre im TV-Bereich die Diversifikation hoch gehandelt wird. Andere Industriezweige setzen zur Zeit eher darauf, sich auf ihre jeweiligen Kernkompetenzen zu besinnen und abseits davon gelegene Geschäftsbereiche zu verkaufen, um Reibungsverluste zu vermeiden und das Gesamtunternehmen besser steuerbar zu machen. Ein Musterbeispiel dafür ist die Automobilindustrie: Der Hersteller an sich steuert die Produktpolitik seiner Marke, stellt die Karosserie her und nimmt die Endmontage selbst vor. Fast alle sonstigen Teile des Fahrzeugs kommen von externen Lieferanten, und vielfach werden sogar Forschung, Entwicklung und sogar das Design an Spezialfirmen vergeben. Das hat der Idee nach sowohl Kosten- als auch Qualitätsvorteile, denn die Zulieferer erarbeiten sich ausgezeichnetes Know-how in ihrem überschaubaren Fachbereich und können das jeweilige Vorprodukt oder Teil dann effizient, in großen Stückzahlen und für verschiedene Abnehmer herstellen. Auf der anderen Seite gehen aber auch Qualitäten der Marke verloren: Die Technik wird tendenziell austauschbar, weil in völlig unterschiedlichen Modellen und Marken die gleichen Teile verbaut werden, und es entsteht eine große Abhängigkeit von den Lieferanten. Geraten diese z.B. in Lieferschwierigkeiten, kommt die Produktion ins Stocken, und sind Bauteile fehlerhaft, fällt dies eben nicht auf deren eigentlichen Hersteller, sondern auf die Automarke zurück. Nach dem gleichen Prinzip funktionieren Fernsehsender in ihrer herkömmlichen Rolle als Content-Aggregatoren. Nachdem die Branche aber festgestellt hat, dass dieses Geschäftsmodell zumindest bedroht ist, strebt sie nach einer Integration weiterer Stufen der Wertschöpfungskette, und das sowohl im vor- als auch im nachgelagerten Bereich. Ins Visier kommen dabei Produktionsfirmen, Lizenzhandelsunternehmen, Kinobetreiber und Videovermarkter genauso wie Eventagenturen, Teleshopping-Betreiber, Internetdienste und TV-Spartenkanäle. Zu den größten Aktivposten der etablierten Kanäle zählt dabei ihre MarketingMacht: Jeder kennt RTL, SAT.1 oder ProSieben und verbindet damit eine be-
148
5 Wertschöpfungsketten und Geschäftsmodelle
stimmte inhaltliche Vorstellung. Diese Aktivitäten fallen in mehrere Hauptstrategien. Erstens streben die Fernsehunternehmen danach, in allen Phasen der Vermarktung ihres Kernprodukts, nämlich der Programminhalte, mitzuverdienen. Zu diesem Zweck beteiligen sie sich als Koproduzenten an der Herstellung, kaufen Produktionsfirmen auf oder gründen eigene, und steigen sowohl in den Direktabsatz der Programme an die Konsumenten (über Kino, DVD und Online-Angebote) wie auch in deren Weiterverkauf an ausländische Fernsehsender ein. Die Erlöse sind dadurch nicht mehr so stark vom Werbemarkt abhängig, sondern stehen und fallen mit dem direkten Interesse und der Zahlungsbereitschaft der Endverbraucher. Zugleich können sich die Programme bis zum Zeitpunkt ihrer ersten Ausstrahlung bereits teilweise oder sogar vollständig amortisieren. Eine vergleichbare Entwicklung gibt es in den USA, in denen man viele Tendenzen der europäischen Medienwirtschaft wie in einer Vorschau betrachten kann, schon seit längerer Zeit. Nach der Lockerung des Medienkonzentrationsrechts, das bis in die achtziger Jahre hinein den Zusammenschluss von Fernsehsendern und Programmproduzenten untersagt hatte, haben sich vertikal integrierte Konzerne gebildet, die jeweils aus einem Hollywood-Filmstudio, spezialisierten Produktionsfirmen, einem nationalen und internationalen Vertrieb für Kino, DVD und TV-Lizenzen, sowie einem nationalen und zunehmend auch internationalen Fernsehnetwork bestehen. Dazu kommen zumeist noch eine Reihe von Sparten- und Pay-TV-Kanälen, Kino-, Merchandising- und Internet-Aktivitäten, Radiostationen, Fernsehkabel-Betreiber und schließlich zur Abrundung häufig auch noch Themenparks und sogar Buch- und Zeitschriftenverlage. Aus der Film- und Fernsehindustrie ist so schon längst eine Unterhaltungsindustrie geworden, die immer größere Bereiche der Freizeit ihres Publikums gestaltet. Und der bei weitem größte Teil der Einnahmen kommt dabei eben nicht aus dem Verkauf von Werbung, sondern in Form von Eintrittsgeldern, Verkaufserlösen und Abonnements direkt aus den Taschen der Konsumenten. Dieser Prozess ist in Europa noch nicht so weit fortgeschritten; das liegt an anderen Traditionen und Strukturen, ist aber auch auf das Wirken von kartellrechtlichen und medienpolitischen Einschränkungen zurückzuführen, wie zuletzt am Beispiel der Auseinandersetzungen um eine Fusion der Axel Springer AG mit der ProSiebenSAT.1 Media AG zu sehen war. Gleichwohl ist die Tendenz auch hierzulande deutlich zu erkennen.
5.1 Fernseh-Senderfamilien
149
Abbildung 10: Prototypische Diversifikation in der US-Unterhaltungsindustrie
5.1.5 Programmvermögen und Produktionsrisiken Die zweite Strategie überlappt sich zumindest teilweise mit jener der vertikalen Integration: Der Sicherung von möglichst umfassenden Verwertungsmöglichkeiten an Programminhalten und Nebenrechten aller Art. Denn wenn sich aufgrund neuer technischer Distributionsmöglichkeiten und zumindest auf bestimmten Feldern zurückgehender Herstellungskosten (vgl. Kap. 5.6.1) den Produzenten zunehmend Gelegenheiten bieten, ihre Produkte direkt, d.h. ohne Umweg über die Fernsehunternehmen, an den Verbraucher zu bringen, droht die wichtigste Erlösquelle der Sender auszutrocknen. Soweit die Produktionsfirmen bereits im Besitz des TV-Unternehmens oder dessen Muttergesellschaft sind, ist das noch kein Problem, sondern ein durchaus erwünschter Effekt. Doch bei unabhängigen oder im Eigentum von Konkurrenten befindlichen Produzenten gilt es, eine Gratwanderung zu schaffen: Das Interesse der Sender besteht nämlich sowohl darin, Programme zu möglichst geringen Kosten zu erwerben, als auch, von der Verwertung dieser Inhalte so stark wie möglich zu profitieren. Beides gleichzeitig ist aber kaum möglich. Produktionsfirmen kommen den Sendern preislich entgegen, solange sie im Gegenzug möglichst viele Vermarktungsoptionen behalten dürfen. Das Modell hierfür sind Spielfilm- und Serienli-
150
5 Wertschöpfungsketten und Geschäftsmodelle
zenzen: Der Sender erwirbt lediglich das Recht, den Film innerhalb eines begrenzten Zeitraums für eine genau definierte Anzahl von Ausstrahlungen zu verwenden. Ein typischer Fall sind im Free-TV drei Ausstrahlungen in drei Jahren. Dieses Prinzip wird zunehmend auch im Bereich der Auftragsproduktionen erprobt, wobei wiederum der US-Markt das Vorbild liefert: Ein amerikanisches TV-Network vergibt den Produktionsauftrag für eine Serie wie CSI oder King of Queens an ein Hollywood-Studio. Über Wohl und Wehe der Serie entscheidet dabei zunächst nur der Fernsehsender; er kann bestimmen, ob sie überhaupt hergestellt wird und wie viele Episoden produziert werden. Trotzdem teilen sich Sender und Produzent das kommerzielle Risiko: Dafür, dass das Network die Serie innerhalb von maximal zwei Jahren bis zu höchstens viermal ins Programm nimmt, trägt es rund die Hälfte der Produktionskosten. Im Interesse der Qualität kann der Produzent aber nicht darauf verzichten, auch die andere Hälfte des Budgets zu investieren, und diesen Betrag muss er selbst amortisieren. Das geht hauptsächlich über den Weiterverkauf älterer Episoden an kleinere Sender in den USA, den Lizenzverkauf auf dem internationalen Fernsehmarkt und das DVDGeschäft. Doch der Verkaufserfolg auf diesen nachgelagerten Märkten hängt sehr stark vom Erfolg des Programms auf dem Network ab – ein Flop, der nach wenigen Folgen im Fernsehen bereits abgesetzt wird, hat in der Regel nur geringe Aussichten, sich auf anderen Wegen zu verkaufen. Fälle wie Baywatch, das in Amerika mäßig erfolgreich war, dafür jedoch international hohe Popularität genoss, bleiben Ausnahmen. Umgekehrt ist freilich keineswegs garantiert, dass eine in den USA sehr beliebte Produktion im Ausland gut ankommt; auch wenn die Wahrscheinlichkeit aufgrund der Professionalität und internationalen Ausrichtung der US-Medienindustrie dafür spricht, ist die Zahl der in Deutschland gescheiterten amerikanischen Formate Legion. Einheimische Produktionsfirmen können dieses Verfahren jedoch nicht unbedingt so einfach adaptieren. Wesentliche Voraussetzung ist zunächst einmal eine entsprechende Kapitalausstattung, über die viele kleine und mittelständische Produzenten in Deutschland und Europa nicht verfügen. Zwischen Investition und Ertrag vergehen unter Umständen viele Jahre, und kommerzielle Flops müssen ebenfalls aufgefangen werden können. Aus diesem Grund sind sie nach wie vor von der Finanzierung ihrer Produkte durch die Sender abhängig. Ein weiteres Problem stellt die (an sich ja erfreuliche) kulturelle Vielfalt des alten Kontinents dar: Eine Sendung, die für den deutschen oder spanischen Markt hergestellt wurde und dort gut funktioniert, wird in anderen Ländern und Kulturen oftmals auf Unverständnis stoßen. Dadurch sind die Exportchancen begrenzt, und der Produzent ist zur Refinanzierung fast ausschließlich auf den eigenen Binnenmarkt angewiesen, der schon allein aufgrund seiner beschränkten Größe nur ein bestimmtes Maximum an Erlösen einfahren kann. So ist z.B. der überwiegende
5.1 Fernseh-Senderfamilien
151
Teil aller deutschen Kinofilm-Produktionen nur mit Hilfe der reichlich zur Verfügung stehenden öffentlichen Fördergelder und mit Unterstützung der öffentlich-rechtlichen Rundfunkanstalten möglich. Und die Erfolgsmeldung, ein Film sei in die USA verkauft worden, bedeutet in Wirklichkeit zumeist nur, dass er mit Untertiteln in ein paar Programmkinos amerikanischer Großstädte gezeigt wird; kommerziell sind die daraus zu erzielenden Erlöse unbedeutend. Gerade bei kleineren oder mittelgroßen Produktionsfirmen bleibt es aufgrund dieser ungünstigen Risikostruktur deshalb häufig bei dem traditionellen Modell des Buy-Out. Dabei übernimmt der Fernsehsender die vollständigen Herstellungskosten und verfügt im Gegenzug natürlich auch über alle Rechte an dem Programm. Für die TV-Unternehmen ist das zunächst relativ teuer und sie müssen alleinverantwortlich mit der Gefahr eines Flops leben, dafür bauen sie sich aber ein eigenes Programmvermögen auf, das sie praktisch unbegrenzt beliebig weiter verwerten können. Angefangen bei der Mehrfachverwendung innerhalb der eigenen Senderfamilie über die Bestückung von konzerneigenen Spartenkanälen bis hin zu Video und Merchandising ist alles möglich. Bei Filmen und Serien ist das längst gang und gäbe, doch bislang spielt diese Verwertungskette bei Auftragsproduktionen noch keine allzu große Rolle; abgesehen von Super RTL finden sich nur wenige Kanäle, die (und sei es auch nur zu bestimmten Sendezeiten) ältere Eigenprogramme des Mutterhauses verwerten. In der digitalen Welt dürfte sich das jedoch ändern. Die Fernsehunternehmen sind demnach also im Prinzip gut beraten, wenn sie eine möglichst große Selbständigkeit anstreben. Denn dass die amerikanischen Unterhaltungskonzerne, die heute einen wesentlichen Teil des Programmvolumens der klassischen Fernsehsender zuliefern, ihre Rechte bald komplett selbst auswerten werden, ist deutlich abzusehen. Nicht nur dringen sie mit Kanälen wie Das Vierte (NBC Universal) und Nickelodeon (Viacom) in den deutschen Free-TV-Markt vor, sondern reservieren sich bereits heute einzelne, besonders attraktive Spielfilmund Serien-Erstausstrahlungen für eigene Sender wie den Disney Channel oder AXN (Sony Pictures) im Pay-TV.
5.1.6 Geschäftserweiterung, Distributionserlöse und Pay-TV Die dritte Strategie der etablierten TV-Unternehmen besteht darin, die aktuelle Marktmacht einzusetzen, um das Geschäft von Konkurrenten zu antizipieren und diesen durch eigene Aktivitäten zuvorzukommen. Das kann sowohl durch einfachen Kauf als auch durch Neugründung geschehen. Die Übernahme des TelefonQuizsenders 9live durch die ProSieben-Gruppe ist dafür ebenso ein Beispiel wie die Einrichtung des Einkaufskanals RTL Shop. Die beiden Mediendienste agieren
152
5 Wertschöpfungsketten und Geschäftsmodelle
auf Feldern, die mit den Kernkompetenzen der Senderfamilien außer der Tatsache, dass sie wie Broadcast-Fernsehen produziert und verbreitet werden, eigentlich nicht viel zu tun haben. Und doch handelt es sich in wirtschaftlicher Hinsicht um durchaus sinnvolle Portfolio-Ergänzungen. 9live nutzt rund um die Uhr die Bereitschaft eines bestimmten Publikumssegmentes, sich per Telefon an Gewinnspielen zu beteiligen, und erweitert damit ein Erlösmodell, das ansonsten nur punktuell im Fernsehprogramm eingesetzt werden kann. Und mit dem RTL Shop tritt der TV-Marktführer in Wettbewerb mit den beiden spezialisierten Teleshopping-Kanälen QVC und HSE, welche diesen stetig wachsenden Markt sonst allein unter sich hätten aufteilen können. Dabei kommt ihm der angesehene Markenname RTL zugute, der auch auf dem ungewohnten Terrain für einen Vertrauensvorschuss und Bekanntheit sorgt. Ein weiteres neues Feld versucht sich die RTL-Gruppe mit Traumpartner TV zu erschließen, einen über das Fernsehen verbreiteten Dating-Dienst, der sich darüber finanziert, dass seine Zuschauer sich mit Hilfe von Premium-SMS an einem Chat beteiligen. Darüber hinaus existieren noch zahlreiche weitere potentielle Geschäftsfelder, von Zuschauer-Clubs über Internet-Zugangsdienste, Online-Angebote, VermarktungsKooperationen aller Art und natürlich Pay-TV-Spartenkanäle. Das französische Fernsehunternehmen M6, das ebenfalls zur RTL-Gruppe gehört, gilt als Musterbeispiel für die systematische Diversifikation im TVBereich. Den Löwenanteil seines Umsatzes erzielt der Konzern zwar noch mit Hilfe des werbefinanzierten Free-TV, bewegt sich aber bereits seit längerer Zeit auch auf den angrenzenden Märkten. Nicht nur, dass inzwischen der größte Teil der Programme von eigenen Produktionsfirmen hergestellt wird, sondern auch die intensiven Aktivitäten auf neuen Gebieten, die im Wesentlichen die Marketing-Macht der Marke M6 nutzen, haben zu dieser besonderen Position geführt. Vom Filmverleih und Lizenzhandel reicht die Palette über Zeitschriften, Sammlerartikel, Musiklabels und Mobiltelefonie bis hin zur Produktion von Musicals und der Organisation privater Events im Auftrag von Firmenkunden. Selbstverständlich gehören Teleshopping-Kanäle zum Portfolio, und das Unternehmen besitzt sogar einen Fußballverein aus der ersten französischen Liga. Des weiteren betreibt M6 teils als alleiniger Eigentümer, teils in Kooperation mit Partnern eine große Bandbreite an digitalen Pay-TV-Kanälen, die auf verschiedene Themen bzw. Zielgruppen zugeschnitten sind. Hier reicht das Spektrum von Musiksendern über Jugend- und Frauenkanäle bis hin zu exklusiven Angeboten in den Bereichen Serie und Spielfilm. Allerdings muss man festhalten, dass die Entwicklung und Position von M6 immer vor dem Hintergrund der Besonderheiten des französischen Fernsehmarktes gesehen werden müssen und sich nicht direkt auf die Verhältnisse in Deutschland und anderen Ländern übertragen lassen. In Frankreich war und ist frei empfangbares Fernsehen ein knappes Gut, so dass die
153
5.1 Fernseh-Senderfamilien
wenigen Anbieter in diesem Segment besonders günstige Voraussetzungen vorfinden, um sich als Marke zu etablieren und in immer mehr Bereiche des öffentlichen und wirtschaftlichen Lebens vorzustoßen. Gleichwohl erzielt M6 mit dem besonders raren Free-TV immer noch den bei weitem größten Teil seiner Gewinne. Abbildung 11: Umsatz- und Gewinnanteile (EBIT) der M6-Gruppe 2004 88,4 Umsatzanteil in %
EBIT -Anteil in %
51,4
28,3 20,3 7,6
3,9
Digitales Pay-T V
Diversifikation
Free-T V
Quelle: M6, eigene Berechnungen Die Diversifikationsstrategie der einheimischen Sendergruppen steht im Vergleich damit vor spürbar größeren Hürden, denn gratis empfangbare TV-Programme sind alles andere als Mangelware: Beinahe jeder Haushalt erhält zwischen 20 und 50 davon ungefragt frei Haus geliefert. Deshalb ist es nur wenigen Unternehmen gelungen, sich im Bewusstsein breiter Bevölkerungsschichten so nachhaltig festzusetzen, dass sie auch über den engeren Bereich des Fernsehens hinaus wahrgenommen werden; das Relevant Set der TV-Marken ist eher noch kleiner als das der beim routinemäßigen Zapping berührten Kanäle. Und selbst hervorragend eingeführte Namen garantieren nicht automatisch einen großen Erfolg: Während die Website rtl.de zu den meistbesuchten Internet-Auftritten in Deutschland zählt und ein Entertainment-Portal aus eigenem Recht darstellt, kommt sat1.de nur auf rund ein Drittel der Reichweite des Konkurrenten (Quel-
154
5 Wertschöpfungsketten und Geschäftsmodelle
le: AGOF). Im Gegenzug sind aber die weniger breit aufgestellten Marken durchaus in der Lage, ihre jeweilige Kompetenz bei bestimmten Zielgruppen auszuspielen – es muss ja nicht immer Masse sein. RTL II kann so im Jugendmarkt Punkte sammeln, VOX bei Lifestyle-Angeboten für Erwachsene und Super RTL bei Kindern und jungen Familien. Gerade Super RTL ist bereits seit geraumer Zeit in seinem speziellen Publikumssegment auf einen M6-ähnlichen Kurs gegangen. Das Unternehmen, das zu gleichen Teilen der RTL-Gruppe und dem Disney-Konzern gehört, hat eine separate Marke namens Toggo geprägt, unter der fast alle Diversifikations-Aktivitäten laufen. Das sind im wesentlichen Internet-Plattformen für Kinder ab 3 Jahren mit Spiel- und Lernangeboten, die teilweise kostenpflichtig sind, aber natürlich auch klassische Merchandising-Aktivitäten in den Bereichen Spiele und Fan-Artikel. Ein Teil des Erfolges besteht darin, dass die Bezahl-Angebote werbefrei sind – für viele Eltern ein Umstand, der die Zahlung des Abo-Preises leicht rechtfertigt –, und in der konsequenten Promotion des Angebotes auf dem Super-RTL-Fernsehkanal, der Free-TV-Marktführer bei den Kindern ist. Doch warum der eigene Name für das Zusatzangebot, wenn es doch näher gelegen hätte, die ohnehin bestehende Popularität des Fernsehsenders einfach auszubauen? Ziel dürfte hier die bewusste Entkoppelung von Fernsehprogramm und anderen Geschäftsaktivitäten sein. Zum einen könnte sich bei einer eventuellen Veränderung der Gesellschafter-Verhältnisse die weitere Nutzung des SenderNamens verbieten, vor allem aber wird es möglich, die Zweit-Marke unabhängig von den Fährnissen des normalen Fernsehmarktes zu steuern. Etwaige unerwünschte Image-Transfers können so leicht vermieden werden. Man denke hier z.B. an die öffentliche Kontroverse zum Sendestart der RTL-Formate Ich bin ein Star - holt mich hier raus! und Big Brother – was sich für den Mainstream-Kanal RTL letztlich als nützliche PR herausstellt, könnte an anderer Stelle erschreckte Eltern veranlassen, ihre Kinder von der Nutzung eines gleichnamigen Angebotes abzuhalten. Toggo hingegen wird durch solche Diskussionen, die der kleinere Sender kaum kontrollieren kann, nicht berührt (und ist auch noch leichter auszusprechen). Was die Veranstaltung von digitalem Fernsehen und Pay-TV angeht, haben sich die etablierten Sender in der Vergangenheit noch sehr zurückgehalten. Die Gründe dafür liegen auf der Hand: Ein TV-Programm, das analog flächendeckend verbreitet wird, kann durch den Umstieg auf die digitale Übertragung keine zusätzlichen Seher hinzugewinnen, sondern allenfalls einen Substitutionseffekt erzielen, indem ehemals analoge Nutzer den Sender jetzt mit neuer Technik empfangen. Doch auf der digitalen Ebene ist der Wettbewerbsdruck weitaus stärker, weil der Zuschauer die Auswahl zwischen wesentlich mehr Kanälen hat. Digital-TV bedeutet für die Platzhirsche des Marktes deshalb im Grunde auto-
5.1 Fernseh-Senderfamilien
155
matisch einen Reichweitenverlust und damit weitere Einbußen bei den Werbeerlösen. Solange diese jedoch den bei weitem größten Umsatzanteil ausmachen, ist es für die großen kommerziellen Sendergruppen nur konsequent, die Verbreitung des digitalen Fernsehens nach Kräften zu verzögern. So wurden die Programme der RTL- und ProSieben-Familien bis Ende 2005 auf der wichtigsten Distributionsplattform Kabel nicht digital ausgestrahlt. Erst danach haben sich Sender und Kabelnetzbetreiber geeinigt: Seither sind die Kanäle in fast allen Kabelnetzen zusätzlich zur unveränderten konventionellen Übertragung grundverschlüsselt digital empfangbar (vgl. Kap. 2.3.4), d.h. sie kosten zwar nichts extra, man benötigt aber eine geeignete Set-Top-Box mit einer vom jeweiligen Kabelanbieter freigeschalteten Smartcard. Somit findet das Publikum die relevanten Free-TVPrivatsender in unmittelbarer Nachbarschaft der von den Kabel-Providern angebotenen Bezahlfernsehangebote. Lediglich in Baden-Württemberg bleiben auch die frei empfangbaren kommerziellen Sender bis auf weiteres unverschlüsselt. Dass sich die TV-Unternehmen auf dieses Verfahren eingelassen haben, hängt sicherlich nicht zuletzt damit zusammen, dass sich auf diese Weise erste Veränderungen des klassischen Free-TV-Geschäftsmodells nach amerikanischem Vorbild anbahnen ließen. In den USA ist es nämlich üblich, dass von den Kabelnetzbetreibern Geld an die Sender fließt. Die Provider bezahlen die Sender nach Abzug einer Provision dafür, dass sie ihren Endkunden gegen den monatlichen Anschluss-Preis eine attraktive Auswahl an Kanälen bieten können. So finanziert sich ein beträchtlicher Teil der amerikanischen Senderlandschaft. Hierzulande bekanntestes Beispiel ist der Nachrichtensender CNN, der nicht umsonst ausgeschrieben Cable News Network heißt: Die Anzahl der Werbespots ist vergleichsweise gering und würde niemals alleine die Kosten des Unternehmens decken. Da aber Millionen von Kabelhaushalten einen indirekten Beitrag entrichten, ist CNN profitabel. Ein ähnliches Prinzip dürfte auch im hiesigen Digitalkabel greifen, d.h. die großen Sender erhalten in der einen oder anderen Form eine finanzielle Kompensation für die Einspeisung, während sie bisher in voller Höhe für ihre Distribution zahlen mussten. Die gleiche Tendenz lässt sich auch an den Kooperationen der selben TVProgrammanbieter mit Telekommunikationsunternehmen (Telcos) ablesen. Es existieren bereits Vereinbarungen, nach denen die DSL-Provider für die unveränderte Durchleitung von Fernsehkanälen über Internet-Anschlüsse einen Obolus an die Fernsehveranstalter zahlen. Die Telcos wollen ihre ADSL- und VDSLAnschlüsse an den Konsumenten bringen und erzielen damit offenbar eine so hohe Wertschöpfung, dass sie einen Teil an die Content-Lieferanten weitergeben können. Sie benötigen zugleich aber für die extrem hohen Bandbreiten zwischen 12 und 50 Mbit/s ein Differenzierungsmerkmal gegenüber regulären InternetZugängen, welches zur Zeit nur das Fernsehen liefern kann (vgl. Kap. 5.7.2).
156
5 Wertschöpfungsketten und Geschäftsmodelle
Denn beim normalen Surfen macht es sich für den Nutzer nicht bemerkbar, ob er sich mit 6 Mbit/s im Netz bewegt oder mit einem Vielfachen davon; sobald dagegen TV-Programme und erst recht HDTV-Videos zum Einsatz kommen, kann das schnelle Internet seine Stärken und seine Flexibilität voll ausspielen. Zumindest für die mächtigen Programmveranstalter wandeln sich so Distributionskosten zu Distributionserlösen, und der Substitutionseffekt der verschiedenen Empfangsebenen wirkt sich für die Fernsehsender entweder kostensparend oder sogar umsatzsteigernd aus, ohne dass die Werbeeinnahmen dadurch direkt beeinträchtigt würden. Obwohl schon seit Jahren immer wieder angekündigt, hält sich das Engagement der beiden großen Sendergruppen im Pay-TV und bei frei empfangbaren Spartenkanälen nach wie vor in engen Grenzen. Dabei wäre dieser Bereich doch besonders gut geeignet, kleineren Konkurrenten das Leben möglichst schwer zu machen – und sei es auch nur durch die systematische Verstopfung des Marktes. Vor allem Spartenkanäle mit Servicethemen wie Kochen, Reise, Mode oder Wohnen wären leicht aus dem vorhandenen Programm-Repertoire zu bestücken und könnten bei Bedarf mit der einen oder anderen neuen Produktion aufgewertet werden. Ähnliches gilt für die Bereiche Talkshow und Reality-Entertainment sowie für TV-Movies und Serien. Auch bei den für die Live-Ausstrahlung oder als Event konstruierten Formaten bietet sich ein eigener Sender an, so wie es Premiere mit dem 24stündigen Big-Brother-Kanal schon vormacht: Die tägliche Zusammenfassung bei RTL II ist nur die Spitze des inhaltlichen Eisberges, während der Premiere-Kunde jederzeit alles ungekürzt sehen kann. Casting-Shows und ähnliche Programmformen würden sich hierfür ebenfalls gut eignen. Die Problematik für die Marktführer im Free-TV besteht bei allen denkbaren Pay-Aktivitäten jedoch zunächst vor allem in der Rechtesituation. Zwei der begehrtesten audiovisuellen Güter bestehen in amerikanischen Kinospielfilmen und Fernsehserien. Man kann das schon allein an einer seit längerem populären Form von Video-on-Demand erkennen, nämlich den Kauf-DVDs. Dort stehen genau diese Genres, ergänzt um Kinderprogramme, ganz oben auf der Beliebtheitsskala – und das bei einem Durchschnittspreis von gut 14,50 Euro pro DVD (Quelle: BVV). Ausgerechnet bei diesen Programmformen verfügen die Sender aber nur über die Lizenzrechte für das frei empfangbare Fernsehen, während die Pay-Auswertung in der Regel entweder durch Premiere oder durch die Hollywood-Majors selbst erfolgt. Bei den einheimischen Produktionen sieht es nicht unbedingt besser aus: Nachdem sich die Sender in der Vergangenheit sehr stark auf Auftragsproduzenten gestützt haben, verfügen sie auch hier nicht in allen Fällen über die notwendigen Lizenzen. Das gilt vor allem für ältere Verträge, die zu einer Zeit abgeschlossen wurden, als die digitale Medienzukunft noch nicht absehbar war, aber auch für neuere Programme, bei denen sich die Sender ein
5.1 Fernseh-Senderfamilien
157
finanzielles Entgegenkommen der Produktionsfirmen mit einem teilweisen Rechteverzicht erkauft haben. Einzelne deutsche Produzenten wie Spiegel TV und Focus TV (die allerdings als sogenannte unabhängige Dritte aus medienrechtlichen Gründen eine besonders große Unabhängigkeit von den Senderfamilien genießen) nutzen die ihnen verbliebenen Rechte bereits systematisch für die Programmierung eigener TV-Kanäle. Es ist also gar nicht so einfach, kurzfristig einen oder mehrere Digitalsender aus dem Boden zu stampfen, selbst wenn man – wie die dominierenden Sendergruppen – über einen großen Bestand an buchhalterisch bereits abgeschriebenem und damit rechnerisch kostenfreiem Programm verfügt. Ein großer Teil davon fällt gleich durch den Rost, bei einem weiteren Teil muss nachverhandelt und in den meisten Fällen dann auch erneut bezahlt werden, und ob der verbleibende Rest noch für einen so attraktiven Kanal reicht, dass Zuschauer bereit sind, dafür Geld auszugeben, ist keineswegs ausgemacht. Rechnet man hierzu noch Distributionskosten, Technik, Organisation und ggf. Abonnentenverwaltung, so kann die betriebswirtschaftliche Gesamtbetrachtung leicht dazu führen, dass die Idee eines neuen Senders verworfen werden muss. Denn wenn es nicht um eine reine Frequenzbesetzungs-Politik geht, steht für die kommerziellen Fernsehunternehmen der ökonomische Aspekt naturgemäß im Vordergrund. Ihr Engagement im Pay-TV dürfte deswegen zwar in den kommenden Jahren stärker werden, sich dabei aber nicht zwingend auf das simple Abspielen von älteren RepertoireSendungen fokussieren. Stattdessen werden die Sender gezielt Bestände für das Bezahlfernsehen aufbauen, indem sie entsprechende Mehrfach-Verwertungsabkommen mit den Produzenten (die teilweise ohnehin schon zum selben Konzern gehören) abschließen und zusätzlich billig herzustellende oder besonders begehrte neue Sendungsformen entwickeln. Eine weitere gangbare Strategie kann darin bestehen, das klassische FreeTV, wie wir es heute kennen, nach und nach gezielt knapper zu machen. Auch dazu stellt die Grundverschlüsselung, die längst nicht nur im Kabel, sondern auch über Satellit vor der Tür steht, einen ersten Schritt dar: Die Umstellung des Empfangs auf ein Abo-System ist per Knopfdruck möglich. Denn bei entsprechender Programmqualität und gesellschaftlicher Akzeptanz von Pay-TV kann die Erlösrelation zwischen Werbung und Abonnement leicht umschlagen. Ein heutiger Privatsender der zweiten Generation (kabel eins, RTL II, VOX), der auf Netto-Werbeeinnahmen zwischen 200 und 250 Mio. Euro im Jahr kommt, braucht selbst bei einem moderaten Preis von fünf Euro pro Monat weniger als vier Millionen Abonnenten, um seinen Umsatz auf gleicher Höhe zu halten. Ein denkbares Szenario wäre die Nutzung einiger weniger reichweitenstarker FreeTV-Kanäle als im wesentlichen werbefinanzierte Mainstream-Unterhaltungsmedien, die eine Schaufensterfunktion für inhaltlich aufgewertete, kostenpflich-
158
5 Wertschöpfungsketten und Geschäftsmodelle
tige kleinere Sender haben. Dabei käme den Senderfamilien die Marketing-Kraft ihrer etablierten und erfolgreichen Namen zugute, so dass sich die Zusammenarbeit mit ihnen auch für Produzenten und US-Filmstudios auszahlen würde.
5.1.7 Pay-TV und Digitalisierung im Ausland Vergleicht man die Situation in Deutschland mit dem europäischen Ausland, so lässt sich ein klarer Zusammenhang zwischen der Kanalvielfalt im analogen Free-TV und dem Erfolg und der Verbreitung von digitalem Fernsehen erkennen. Man braucht sich dazu nur einmal die sehr erfolgreichen Digital-TV-Märkte Frankreich und Großbritannien, aber auch Spanien und Italien anzusehen: In beiden Ländern war bis vor wenigen Jahren und ist teilweise heute noch das frei empfangbare Fernsehen auf lediglich eine Handvoll Programme beschränkt, die überwiegend auf terrestrischem Wege in die Haushalte gelangen. Kabelfernsehen ist dort (anders als etwa in den USA) nur sehr wenig verbreitet, was nicht zuletzt damit zu tun hat, dass es außer in Deutschland in der Regel nicht mit Hilfe staatlicher Subventionen installiert wurde. Private Investoren haben sich die hohen Investitionen dort nur in Einzelfällen, d.h. in sehr dicht besiedelten Ballungszentren mit finanzkräftiger Klientel geleistet; von Fall zu Fall wurden auch Gebiete, die aus geographischen Gründen über einen schlechten Antennenempfang verfügten, mit Kabelfernsehen ausgestattet. Das hat in diesen Ländern zu einer völlig anderen Ausgangslage für privates und auch digitales Fernsehen geführt. In Deutschland sind die beiden Distributionsebenen Kabel und Satellit und in vermindertem Umfang auch die Terrestrik weitgehend miteinander austauschbar: Alle Techniken ermöglichen den Empfang der gleichen Basissender; ein Wechsel erhöht allenfalls die Gesamtauswahl, aber man braucht in der Regel auf kein gewohntes Angebot zu verzichten. Anders im europäischen Ausland: Dort ist nicht unbedingt garantiert, dass man über Satellit die gleichen Programme sehen kann wie über Antenne. Wer mehr Fernsehen haben möchte und sich für die Anschaffung einer Satellitenanlage entscheidet, steigt nicht vollständig von einer Plattform auf die andere um, sondern ergänzt lediglich seinen bisherigen konventionellen Empfang. Und während bei uns immer mehr werbefinanzierte Free-TV-Sender um die in den achtziger und neunziger Jahren stetig wachsenden FernsehwerbeAusgaben der deutschen Binnenwirtschaft wetteiferten, verlief die Entwicklung in den Nachbarländern ganz anders. Pay-TV hatte in Deutschland kaum Aussichten, gegenüber dem umfangreichen Gratis-Fernsehen einen Zusatznutzen für die Verbraucher zu generieren. Warum sollte jemand freiwillig jeden Monat einen substantiellen zweistelligen Euro-Betrag für Programminhalte bezahlen, die er
5.1 Fernseh-Senderfamilien
159
kaum weniger exklusiv auch ohne Extra-Kosten ins Haus geliefert bekam? PayTV entwickelte sich deshalb zu einer Art Spezialisten- oder Fan-Fernsehen: Es wurde nur von denjenigen abonniert, die auf Live-Bildberichterstattung von der Fußball-Bundesliga nicht verzichten wollten und denen die Wartezeit auf die Zusammenfassung ab 18 Uhr (zunächst in der ARD-Sportschau, später dann bei RTL in Anpfiff und in Ran auf SAT.1, schließlich wieder im Ersten) zu lang war. Andere wiederum wollten möglichst frühzeitig die Erstausstrahlung von aktuellen Kinofilmen erleben. Im Ausland dagegen bot das Free-TV mit seinen nur fünf bis sechs teils öffentlichen bzw. staatlichen Kanälen nur wenig Abwechslung und war auch nicht unbedingt mit vergleichbar üppigen Budgets ausgestattet wie sein gebühren- und werbefinanziertes deutsches Pendant. Kommerzielle Anbieter setzten daher von Vornherein auf Abo-Fernsehen, und es fiel ihnen nicht allzu schwer, größere Bevölkerungsteile davon zu überzeugen, dass sich ihnen gegen Bezahlung über Satellit eine völlig neue Fernsehwelt eröffnen würde. Wenn es ihnen dann noch gelang, sich die Ausstrahlungsrechte an der jeweiligen Nationalsportart exklusiv zu sichern, war ein schneller Erfolg praktisch garantiert. Das rasante Wachstum von BSkyB in Großbritannien nicht zuletzt dank der Fußball-Premier-League ist dafür das Musterbeispiel. Dementsprechend gewöhnte sich das Publikum schnell daran, dass mehr Fernsehen auch mehr Geld kostet, und eine große Zahl von Haushalten wurde frühzeitig mit entschlüsselungstauglichen, zunächst analogen Set-Top-Boxen ausgestattet. Damit war zugleich auch eine gute Grundlage für die Umstellung auf digitales Fernsehen geschaffen: Das Publikum war mit der Technik schon einigermaßen vertraut und mit der Aussicht auf noch mehr Auswahl im DigitalBereich relativ leicht zu locken. Wenn es dann einzelnen Anbietern gelang, eine marktbeherrschende Stellung zu erreichen, so wie Canal+ in Frankreich und Sky in England, erübrigten sich zugleich auch die meisten Streitigkeiten über technische Standards, unterschiedliche Verschlüsselungsverfahren oder die Durchführung interaktiver Anwendungen. Sky etwa verschenkte unter Einsatz erheblicher finanzieller Mittel digitale Receiver in einem Rutsch an alle seine AbonnentenHaushalte, so dass die Migration vom analogen zum digitalen Pay-TV praktisch über Nacht (in der Realität im Verlauf einiger Monate) erfolgte und alle Teilnehmer aus dem Stand heraus über die richtige technische Ausstattung verfügten. Nach dem Fehlstart des kommerziellen Anbieters ITV digital hat sich auf den britischen Inseln inzwischen mit einem neuen Konzept auch DVB-T sehr stark durchgesetzt: Unter dem Namen Freeview können die Zuschauer bis zu 30 Sender frei über Antenne empfangen – auch dies gegenüber der analogen Welt ein gewaltiger Fortschritt und damit ein starker Anreiz zum Umstieg. Nicht zuletzt deshalb wird Großbritannien immer wieder als Digitalisierungs-Musterland zitiert: Im Herbst 2005 hatten bereits knapp 66 Prozent aller
160
5 Wertschöpfungsketten und Geschäftsmodelle
Haushalte auf digitales Fernsehen umgestellt und konnten damit ein Angebot von bis zu 180 Kanälen im Free- und Pay-TV empfangen. Über 40 Prozent aller britischen Haushalte und mehr als 60 Prozent der Digital-Haushalte verfügten zum gleichen Zeitpunkt über ein Abonnement im Bezahlfernsehen (Quelle: Ofcom). Zum Vergleich: In Deutschland lag der Pay-TV-Anteil Ende 2005 erst bei rund 11 Prozent aller Fernsehhaushalte. Auch in Frankreich brach für die nicht ans Bezahlfernsehen angeschlossenen Zuschauer erst mit der Einführung von DVB-T (auf Französisch TNT, Télévision Numérique Terrestre) im Jahr 2005 das Zeitalter einer größeren Kanalvielfalt an; von fünf frei empfangbaren Sendern (darunter arte) stieg die Auswahl auf immerhin deren 18. Da Kabelfernsehen auch in Frankreich nur eine geringe Rolle spielt und das französische Telefonnetz sehr gut ausgebaut ist, wird dort bereits seit 2003 Fernsehen über DSL-Anschlüsse angeboten. Das Internet stellt so schon seit längerem eine Alternative zum Satelliten dar, wenn ein Haushalt an einer größeren Pay-TV-Auswahl interessiert ist – vor allem in den Großstädten und Ballungsräumen, wo die Installation einer Satellitenschüssel nicht immer ohne weiteres möglich ist. Dabei hat sich eine flexible Zusammenarbeit zwischen den Programmveranstaltern wie Canal+ und TPS und den großen Telekommunikationsanbietern wie der France Télécom etabliert: Teils treten die Telcos als reine Distributionsdienstleister für die Sender auf, teils bündeln sie die Inhalte mehrerer TV-Unternehmen unter eigenen Marken, darunter z.B. MaLigne TV von France Télécom.
5.2 Werbung im digitalen Fernsehen Die Werbung hat es im digitalen Fernsehen schwer: Noch mehr Kanäle als im analogen Fernsehen laden zum Zapping während des Werbeblocks ein, vor allem aber gestatten die neuen Technologien dem Publikum das systematische Ausweichen vor klassischen Werbeinseln, indem es mit Hilfe von PVRs zeitversetzt fernsieht und über die Werbung dann einfach hinwegspult. In amerikanischen Untersuchungen zum Verhalten von Besitzern des TiVo-Digitalrecorders deutete sich bereits im Jahr 2003 an, dass in diesen Haushalten rund zwei Drittel des gesamten Fernsehkonsums zeitversetzt erfolgte und drei Viertel der Werbeblöcke übersprungen wurden. Zwar handelte es sich bei diesen Personen um Early Adopter, d.h. Menschen mit besonders hoher Technikaffinität und der Bereitschaft, sich in die Benutzung eines neuen Gerätes intensiv einzuarbeiten, doch kann man solche ersten Erfahrungen durchaus als Vorschau auf kommende Masseneffekte werten. Die Tauglichkeit einer neuen Technologie für den breiten Markt der „normalen“ Fernsehzuschauer hängt vor allem davon ab, dass sie sehr
5.2 Werbung im digitalen Fernsehen
161
einfach zu bedienen ist; je intelligenter und stärker automatisiert die Geräte sind und je mehr Bequemlichkeiten sie bieten, desto schneller setzen sie sich durch. Deshalb sind die aktuellen Studien deutscher TV-Vermarkter, die darauf hindeuten, dass PVRs im Inland offenbar ungefähr genauso genutzt werden wie die bisherigen VHS-Recorder, noch kein Anlass zur Entwarnung für die werbefinanzierten Sender: Die bisher bei uns verkauften Geräte sind nämlich überwiegend noch nicht mit vollwertigen EPGs und lernfähigen Aufzeichnungsfunktionen ausgestattet, so dass sie in der Tat im Grunde nur besonders flexible herkömmliche Recorder sind, deren Hauptvorteil darin besteht, dass sie ohne Kassetten auskommen. Sobald die fortgeschrittenen Anwendungen ihren Weg auch in die deutschen Haushalte finden und auf simplen Knopfdruck zur Verfügung stehen, werden die Geräte auch hierzulande ihre revolutionäre Wirkung zu entfalten beginnen.
5.2.1 Sonderwerbeformen Das bedeutet, dass Werbeformen, die nicht voll in die eigentlichen Programminhalte integriert werden können, vom Aussterben bedroht sind. Einerseits werden sie von immer weniger Zuschauern noch geduldet, andererseits sehen sich die TV-Veranstalter ohnehin nach neuen Finanzierungsquellen um. Das heißt jedoch sicher nicht, dass Werbung aus dem Fernsehen völlig verschwinden und vollständig durch Pay-TV-Einnahmen substituiert werden wird. Alle Strategien, welche die Sender heute schon anwenden, um Werbeeinblendungen vorm Zapping abzusichern, funktionieren auch in der Welt der PVRs: Wenn die Werbung nur einen Teil des Bildschirms belegt, während in der verbleibenden Fläche das Programm weiterläuft (Splitscreen), kann der Zuschauer gar nicht anders, als die Botschaften der Reklame mitzubekommen – es sei denn, er wollte riskieren, einen Teil der eigentlichen Sendung zu verpassen. Andere Werbeinseln werden so kurz gehalten, dass sich ein Umschalten oder Vorspulen gar nicht lohnt. Ehe der Zuschauer zur Fernbedienung gegriffen hat, ist der Single Spot auch schon vorbei, und damit das Publikum das sehr kurze Intermezzo auch nur ja nicht mit einem langen Werbeblock verwechselt, wird zumeist sogar ein Countdown eingeblendet.
162
5 Wertschöpfungsketten und Geschäftsmodelle
Abbildung 12: Anteil der Sonderwerbeformen (grau) am Werbevolumen in %
1,4
2,1
3,3
3,9
4,7
6,1
9,0
98,6
97,9
96,7
96,1
95,3
93,9
91,0
1999
2000
2001
2002
2003
2004
2005
Quellen: Nielsen Media Research, zit. n. SevenOne Media, 2005 eigene Schätzung Diese Sonderwerbeformen sind medienrechtlich erst seit wenigen Jahren zulässig; bis Ende der neunziger Jahre herrschte noch Blockzwang, d.h. Spots mussten in allen Fällen zu mehreren in einer Werbeinsel zusammengefasst und durch einen optischen und akustischen Werbetrenner bzw. Werbejingle vom übrigen Programm getrennt werden. Diese Regelung gilt für vollständig bildschirmfüllende Werbung immer noch, doch heute dürfen dank neuer Klauseln im Rundfunkstaatsvertrag auch einzelne Spots ausgestrahlt werden, sogar mitten in einer Sendung: So lange ein Teil des Bildschirms mit redaktionellen Inhalten belegt wird – seien es Eigenwerbung des Senders, Wetterdaten, Nachrichten oder dergleichen – darf der Rest werblich genutzt werden, ohne dass dies als reguläre Werbeinsel definiert werden müsste. Die Kennzeichnung als Werbung erfolgt dann durch die grafische Gestaltung und die Einblendung eines schriftlichen Hinweises. Damit ist die Medienpolitik den Wünschen der kommerziellen Fernsehveranstalter nach Liberalisierung der ehemals sehr strengen Werberegeln ein weiteres Stück nachgekommen; von einer praktisch völligen Freigabe wie etwa in den USA sind wir zwar immer noch weit entfernt, doch werden die gesetzlichen Einschränkungen, denen sich die Sender unterwerfen müssen, immer weniger.
5.2 Werbung im digitalen Fernsehen
163
Eine weitere Variante zapping- und PVR-resistenter Werbung ist das Product Placement, das freilich von der verbotenen Schleichwerbung nur sehr schwer zu differenzieren ist, wie der Schleichwerbeskandal des Jahres 2005 gezeigt hat. Product Placement besteht in der Verwendung von Markenprodukten gewissermaßen in ihrem natürlichen Zusammenhang und ohne besondere Hervorhebung oder zusätzliche Qualifizierung. Der Fernsehkommissar etwa muss ab und zu auch einmal Auto fahren, und dieses Auto darf dann auch ohne weiteres das eines bestimmten Herstellers sein, und der Fernsehkoch darf, wenn er ohnehin Öl einsetzt, auch das von einer bekannten Marke benutzen. Sobald jedoch das verwendete Produkt optisch besonders hervorgehoben wird oder Mitwirkende in der Sendung es näher beschreiben oder gar loben, wird die Grenze zur Schleichwerbung überschritten – es sei denn natürlich, es handelt sich um einen Warentest, in dem mehrere Produkte nach redaktionellen Kriterien überparteilich miteinander verglichen werden. In Anbetracht dessen, dass Placement in Zukunft noch wichtiger zu werden verspricht, hat sich auch über diesen Bereich eine intensive Liberalisierungsdiskussion entwickelt: Wenn zu Beginn und/oder am Ende einer Sendung ausdrücklich auf den Einsatz dieser speziellen Werbeform hingewiesen wird, so der Vorschlag, soll sie generell erlaubt werden. Manche Forderungen gehen dabei so weit, die Werbung auch während der laufenden Sendung zu kennzeichnen, etwa durch die Einblendung eines WarnSymbols. Schleichwerbung bestünde dann lediglich darin, wenn ein Produkt gegen Bezahlung in einer den Zuschauer irreführenden Form in einer Sendung untergebracht würde und das Publikum sich nicht aus freien Stücken entweder gegen den Konsum der Sendung entscheiden oder sich zumindest über das Ausmaß der in das Programm eingebauten Werbemaßnahmen informieren könnte. Andere Methoden, konsumorientierte Botschaften in Fernsehprogrammen unterzubringen, sind Sponsorings und Titelpatronate. Beim erstgenannten wird ein Unternehmen oder ein Markenartikel als Präsentator einer Sendung positioniert („Das Wetter im Ersten präsentiert Ihnen X“), beim zweiten bestimmt der Werbekunde sogar den Titel des Programms („Der Y-Fußball-Stammtisch“) – ganz ähnlich wie es auch bei den meisten großen Sportstadien der Fall ist, die längst nicht mehr nach ihrem Standort benannt werden, sondern nach ihrem Sponsor. Eine inhaltliche Einflussnahme auf die Programme ist den Werbungtreibenden in diesen Fällen freilich nicht gestattet. Überhaupt erst durch digitale Produktionstechniken möglich geworden ist die virtuelle Werbung. Dabei wird in eine Sendung Werbung so eingebaut, dass sie scheinbar natürlicher Bestandteil des Schauplatzes der Handlung ist. Beispielsweise läuft ein Darsteller an einer Plakatwand vorbei, auf der regional unterschiedliche Inhalte eingeblendet werden, oder die fremdsprachige Bandenwerbung bei einem aus dem Ausland übertragenen Fußballspiel wird durch
164
5 Wertschöpfungsketten und Geschäftsmodelle
deutschsprachige Inserts ersetzt. Mit den Mitteln der modernen Computergraphik ist das technisch kein allzu großes Problem mehr; selbst geübte Beobachter haben mitunter Mühe, solche nachträglichen Manipulationen mit bloßem Auge zu erkennen. Auf diese Weise werden zumindest theoretisch auch in bereits fertiggestellten oder älteren Produktionen zahlreiche neue Werbemöglichkeiten eröffnet. Vom nachträglichen Austausch eines Accessoires oder des Etiketts einer Bierflasche bis hin zur Platzierung von Plakaten an Stellen, wo ursprünglich nur eine leere Wand zu sehen war, ist vieles denkbar. Nach geltendem deutschen Recht muss auch hierbei allerdings am Anfang und Ende der Sendung auf die virtuelle Werbung hingewiesen werden. Alle diese Werbeformen widersprechen sich im übrigen nicht mit Pay-TV; im Gegenteil werden sie auch dort in größerem Umfang zu den Gesamterlösen beitragen. Dies hängt nicht zuletzt damit zusammen, dass sie von den Zuschauern sehr viel leichter akzeptiert werden als herkömmliche, separate Werbeinseln oder Splittscreens. Auch Kinobesucher, die für ihre Eintrittskarte viel Geld bezahlt haben, stören sich kaum daran, wenn etwa James Bond penetrant von Luxus-Markenartikeln umgeben ist, solange die Dramaturgie des Films dadurch nicht gestört wird. Dennoch ist – von medienethischen Erwägungen einmal ganz abgesehen – eine gewisse Vorsicht vor einem Phänomen geboten, das als Reaktanz bezeichnet wird: Wer zu viel Werbung ausstrahlt, zu penetrantes Placement betreibt oder den Fernsehgenuss durch ein Übermaß an werblichen Grafik- und Schrifteinblendungen trübt, riskiert, vom Publikum durch Kanalwechsel oder Kündigung des Abonnements bestraft zu werden. Interessanterweise reagieren die Zuschauer auf direkte und indirekte Werbung in unterschiedlichen Programmumfeldern jeweils sehr verschieden: Während z.B. Sportübertragungen als ohnehin hochgradig kommerzialisierte Umgebung wahrgenommen werden und deshalb eine große Toleranz gegenüber noch mehr Reklame herrscht, kann der Sehgenuss einer Serie oder eines Spielfilms sehr viel leichter beeinträchtigt werden. Nachrichten und andere Informationssendungen büßen in der Wahrnehmung des Publikums sofort ihre Glaubwürdigkeit ein. Diese programmpsychologischen Beobachtungen lassen sich speziell in der digitalen Welt wiederum in entsprechende Geschäftsstrategien ummünzen. Werbung wird ja nur dann als störend empfunden, wenn sie dem Zuschauer entweder aufgezwungen wird oder ihn inhaltlich nicht interessiert. Das heißt, man kann das Publikum z.B. individuell vor die Wahl stellen, in welcher Variante es ein Programm geliefert bekommen möchte: Völlig werbefrei zu einem relativ hohen Preis, mit einer moderaten Anzahl von Spots vor und nach dem Programm (Scharnierwerbung) mit entsprechendem Rabatt, oder ganz billig bzw. sogar kostenlos bei Duldung eines umfangreichen Werbeprogramms, das auch Unterbrechungen der eigentlichen Sendung oder sonstige Eingriffe darin mit ein-
5.2 Werbung im digitalen Fernsehen
165
schließt. In den werbehaltigen Varianten muss dann allerdings mit DRMMaßnahmen dafür Sorge getragen werden, dass bei zeitversetztem Konsum ein Vorspulen über die Werbung nicht möglich ist. Vergleichbare Verfahren sind bei DVDs bereits üblich: Vielfach kann man nicht gleich zum Beginn des Films vorspringen, sondern muss sich vorher zumindest noch ein paar Trailer für andere Filme ansehen. Viele Verbraucher sind durchaus gerne bereit, sich einen finanziellen Vorteil durch kleine Unbequemlichkeiten zu erkaufen.
5.2.2 Interaktive Werbung Die zweite Möglichkeit, die mit der ersten ohne weiteres kombinierbar ist, besteht in interaktiver Werbung. Das bedeutet, dass ein Zuschauer nur diejenigen Spots und weiterführenden Produktinformationen zu sehen bekommt, die er ausdrücklich anfordert. Zwar reduziert sich dadurch die Anzahl der Publikumskontakte, die ein werbungtreibendes Unternehmen erreicht, aber dafür ist jeder tatsächliche Kontakt erheblich mehr wert – wird er doch in der Regel genau von denjenigen Menschen gesehen, die zumindest potentieller Kunde für das Produkt sind oder sich sogar mit einer konkreten Kaufabsicht tragen und deshalb für die Aussagen der Werbung besonders empfänglich sind. Streuverluste gehören dann der Vergangenheit an, denn indem sich der Zuschauer intensiv und freiwillig mit ihren Werbemaßnahmen beschäftigt, erreichen die Unternehmen die bei aller Reklame höchst begehrten hohen Erinnerungswerte (Recall) an das jeweilige Produkt. Interaktive Werbung bedeutet gewöhnlich, dass mit einem Spot oder auch im Rahmen einer regulären Sendung darauf hingewiesen wird, dass der interessierte Nutzer durch Drücken eines Knopfes auf seiner Fernbedienung ein Zusatzangebot wahrnehmen kann. Entscheidet er sich dafür, gelangt er vorübergehend auf einen anderen Übertragungskanal oder einen Zusatzdienst: Von der Vorführung lediglich ausführlicherer Produkt-Videos über Online-Spiele, Gewinnaktionen, Abstimmungen, Fan-Clubs, Communities und direkte Bestellungen bis hin zu eher simplen Text- und Grafik-Informationen im Stil einer Web-Seite ist eine große Bandbreite von Maßnahmen denkbar, die eine sehr genaue Anpassung an das Budget und die speziellen Anforderungen des Werbekunden erlauben. Eine der verlockendsten Eigenschaften von interaktiver Werbung im Fernsehen besteht darin, dass sie eine schnelle und direkte Verbindung zwischen massenmedialer Wirkung und direkter Ansprache von einzelnen Zielgruppen aufbauen kann. Das ist besonders für Unternehmen mit einem breiten Produktportfolio nützlich: Ein Möbelhersteller könnte beispielsweise einen allgemeinen Image-Spot schalten, der nicht einzelne Angebote hervorhebt, sondern das posi-
166
5 Wertschöpfungsketten und Geschäftsmodelle
tive Wohngefühl in einem gut ausgestatteten Haushalt darstellt. Zuschauer, die dann der Aufforderung nachkommen, in den interaktiven Bereich zu wechseln, können sich im nächsten Schritt z.B. für eine bestimmte Produktkategorie entscheiden, für Sofas, Betten, Küchen – je nach dem aktuellen Bedürfnis und Kaufinteresse. Mit einem einzigen generellen Spot kann so ein Maximum an Interessenten angesprochen und zugleich gefiltert werden. Und wenn die Interaktiv-Nutzer – etwa im Gegenzug für einen Rabatt-Gutschein – bereit sind, ihre Adresse, E-Mail oder Telefonnummer zu hinterlassen, können sie auf direktem Wege mit weiteren Prospekten oder Sonderangeboten versorgt werden. Der Schritt zum tatsächlichen Einkauf ist dann nur noch kurz. Ähnliches gilt auch für regionalisierte Werbung: Von der allgemeinen Werbebotschaft eines ElektronikSupermarktes geht es ohne Umweg zu den konkreten Angeboten der Filiale in der eigenen Stadt. Mit allen diesen Werbeformen ist im Bereich des Broadcast-Fernsehens freilich ein Problem verbunden: Sobald sich ein Zuschauer durch eine interaktive Maßnahme fesseln lässt, wird er zumindest für einen gewissen Zeitraum von dem eigentlichen Programmangebot abgelenkt. Wenn das dazu führt, dass er den Anfang des Films verpasst oder Teile einer Sendung nicht mitbekommt, kann sich das leicht kontraproduktiv in Frustration auswirken. Interaktive Werbung kommt daher erst in einem geeigneten technischen Kontext wirklich zu sich selbst: Entweder läuft sie über ein vollständig rückkanalfähiges Distributionsmedium mit Video-on-Demand-Funktionalitäten oder wird durch Personal Video Recorder unterstützt. Hat der Konsument nämlich die Gewissheit, dass er sich in aller Ruhe auf ein Werbeangebot einlassen und nach einer im Grunde beliebigen Zeitspanne das gewünschte Programm (weiter-)sehen kann, funktioniert die digitale Werbung optimal. Im linearen Fernsehen kann man sie dagegen am ehesten bei Teleshopping-Kanälen oder anderen von Hause aus auf eine direkte Reaktion des Publikums ausgerichteten Sendern einsetzen, so z.B. bei Ratespielen, Abstimmungen oder Wetten. Ziel solcher Sender ist schließlich nicht, dass ihr Programm gesehen wird; sobald sie eine direkte Interaktion mit einem Zuschauer erreichen, haben sie ihren Zweck erfüllt. So zeichnet sich auch im Bereich der TV-Werbung ein grundlegender Strukturwandel ab: War das Fernsehen bislang ein Medium, das in erster Linie nach dem Gießkannenprinzip schnell eine große Menge von Menschen erreichen konnte, aber wenig für den direkten Kontakt zwischen Unternehmen und Endverbrauchern tat, kann es in der digitalen Welt einen Beitrag zum Direktmarketing leisten. Das gelingt aber nur, indem die technologischen Grenzen zwischen Fernsehen und Online verschwinden, also im Rahmen der Medienkonvergenz. Die TV-Werbung, wie wir sie heute kennen, d.h. die Ausstrahlung von Spots in Werbeinseln und im Rahmen von Sonderwerbeformen in Form einer Einbahn-
5.3 Öffentlich-rechtliche Sender
167
straße vom Sender in Richtung des breiten Publikums, dürfte dagegen immer weiter an Volumen einbüßen, weil sie zur Vollfinanzierung von Programmangeboten immer untauglicher wird und es ihr zugleich als Marketingmaßnahme im Vergleich mit den interaktiven Werbeformen an Treffsicherheit und Effizienz mangelt.
5.3 Öffentlich-rechtliche Sender Die öffentlich-rechtlichen Sender, die sich um die Finanzierung freilich keine allzu großen Sorgen machen müssen, machen es den Privaten schon seit Jahren vor, wie eine breite Marktbesetzungsstrategie aussehen kann. Sie sind auf allen digitalen Plattformen mit einer Vielzahl von Kanälen vertreten. Nicht nur werden hier die Hauptprogramme ARD, ZDF, 3sat, KI.KA, Phoenix und arte zusätzlich digital verbreitet (Simulcast), sondern unabhängig vom jeweiligen Bundesland auch alle Dritten Programme einschließlich ihrer verschiedenen regionalen Varianten – womit alleine schon 15 Kanäle belegt werden. Hinzu kommen dann noch die tatsächlich ergänzenden Programmangebote, die im klassischen analogen Fernsehen nicht empfangbar sind, und die sich rund um die Uhr ausschließlich Themen aus den Bereichen Kultur, Bildung, Information und Service widmen. Insgesamt kommen so fast 30 Kanäle zusammen. Von dieser Hase-und-Igel-Taktik der Öffentlich-Rechtlichen können die kommerziellen TV-Anbieter durchaus etwas lernen: Auf jeder digitalen Broadcast-Plattform, der sich ein Konsument zuwendet – ob Satellit, Kabel oder DVB-T – findet er automatisch nicht nur das gewohnte Angebot der gebührenfinanzierten Rundfunkanstalten vor, sondern auch etwas Neues, das ihm gegenüber der analogen Welt zumindest einen Zuwachs an Auswahlmöglichkeiten beschert – auch wenn es sich bei den gezeigten Sendungen überwiegend um Wiederholungen aus den Hauptprogrammen handelt. Die Öffentlich-Rechtlichen verfügen durch den Rundfunkstaatsvertrag, der seit April 2005 in seiner achten überarbeiteten Fassung gültig ist, über eine doppelte Garantie: Zum einen erhalten sie eine finanzielle Ausstattung, die zur Erfüllung ihrer Aufgaben, aber auch zu ihrer Weiterentwicklung erforderlich ist (§ 13 Abs. 1 RfStV). Zum anderen bekommen die Anstalten in Ergänzung der bisherigen analogen TV-Kanäle ausdrücklich insgesamt sechs zusätzliche bundesweite digitale Programmangebote zugestanden, die ebenfalls aus den Rundfunkgebühren finanziert werden. Darüber hinaus dürfen weitere nationale Kanäle nur dann veranstaltet werden, wenn im Gegenzug andere eingestellt werden oder sie ohne Mehrkosten realisierbar sind. Zugleich beschränkt der Rundfunkstaatsvertrag die den Öffentlich-Rechtlichen gesetzlich fest zustehenden digitalen Übertragungs-
168
5 Wertschöpfungsketten und Geschäftsmodelle
kapazitäten auf den Umfang von insgesamt drei analogen Frequenzbändern (§ 19 Abs. 4-6 RfStV), also zwölf Programme. Die Dritten Programme sind hiervon nicht berührt. Abbildung 13: Gesamteinnahmen im dualen Fernsehsystem 2004 in Mio. € 5.629
3.923
Private
Öffentlich-Rechtliche
Quellen: ZAW, Media Perspektiven Basisdaten, eigene Berechnungen. Ohne Hörfunk, einschl. Diversifikation. Die Digitalisierung der öffentlich-rechtlichen Programmdistribution wird allgemein als Bestanteil des Grundversorgungsauftrags der Rundfunkanstalten betrachtet. Aufgrund gesetzlicher und staatsvertraglicher Regelungen sind sie nämlich verpflichtet, die gesamte Bevölkerung zu erreichen, und dabei ist es zunächst einmal gleichgültig, mit welchen technischen Mitteln das geschieht. Jeder Haushalt muss die Möglichkeit haben, wenigstens die wichtigsten öffentlich-rechtlichen Kanäle, d.h. ARD, ZDF und das jeweilige Dritte, zu empfangen. Und da die drei Empfangsebenen Terrestrik, Kabel und Satellit gewöhnlich exklusiv sind, also die Haushalte sich in der Regel für nur eine davon entscheiden, leitet sich daraus die Verpflichtung ab, auf allen dreien Präsenz zu zeigen. Im Zuge der Umstellung auf digitale Übertragungstechniken erfordert auch das eine lückenlose Beteiligung.
169
5.3 Öffentlich-rechtliche Sender
Tabelle 5: Digital verbreitete bundesweite öffentlich-rechtliche Programme Analoge Programme ARD digital
ZDF vision
ARD
eins plus
Dokukanal
ZDF
(Ratgeber, Service)
KI.KA
eins extra
3sat
(Nachrichten, Doku)
Phoenix
eins festival
Arte
(Unterhaltung)
Infokanal Theaterkanal
Freilich rechtfertigt dieser Auftrag an sich eigentlich noch keine zusätzlichen Kanäle. Es ist jedoch kein Zufall, dass die Ausweitung der öffentlich-rechtlichen Programmangebote parallel zur und in vielen Fällen sogar in Vorwegnahme der Entwicklung des kommerziellen Fernsehens stattgefunden hat, denn ihre Bestands- und Entwicklungsgarantie haben die Anstalten bisher noch immer als Rechtfertigung einer quantitativen Ausweitungsstrategie interpretiert, gewissermaßen als „Vorwärtsverteidigung“. In der Vergangenheit war das auch durchaus erfolgreich, denn von den notorisch knappen Übertragungskapazitäten haben die Öffentlich-Rechtlichen auf diese Weise stets einen signifikanten Teil für sich beansprucht und damit für private Interessenten blockiert. In der digitalen Welt beginnt sich diese Beschränkung zu erübrigen – mit einer Ausnahme: Beim digitalen Antennenfernsehen DVB-T belegen die gebührenfinanzierten Sender überall die Hälfte der Kapazitäten. Einmal abgesehen davon, dass DVB-T für die meisten Privatsender aus Kostengründen unattraktiv ist (vgl. Kap. 2.4), dient eine solche Vergabepraxis wohl kaum dem Ziel, das die Politik mit der digitalen Terrestrik verbunden hat, nämlich einer wirtschaftlich stimulierenden Erhöhung der Anbietervielfalt. Stattdessen hat sich eine Allianz aus Rundfunkanstalten und Politik gebildet, der es mehr noch als um kommerzielle Anwendungen um die Sicherung politischen Einflusses und gesellschaftspolitischer Zielsetzungen in den elektronischen Medien geht.
170
5 Wertschöpfungsketten und Geschäftsmodelle
Abbildung 14: Marktanteilsentwicklung von ARD und ZDF in % (E 14-49)
20,0 18,0
ARD
ZDF
16,0 14,0 12,0 10,0 8,0 6,0 4,0 2,0 0,0
1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005
Quellen: Basisfakten Fernsehen 2003, Kress-Report Bedeutsam ist noch eine weitere Vorschrift in diesem Zusammenhang: Die öffentlich-rechtlichen Anstalten dürfen für ihre Angebote über die Rundfunkgebühren hinaus keinen Preis erheben (§ 13 Abs. 1 RfStV). Dieser Umstand könnte unter den Bedingungen des zukünftigen digitalen Fernsehens noch sehr vorteilhaft werden. Denn wenn immer mehr kommerzielle Angebote aus Pay-TVAbonnements bestehen oder an die Zahlung von Entgelten für die Nutzung einzelner Sendungen gebunden sind, wirkt die an sich durchaus großzügige Alimentierung der Öffentlich-Rechtlichen mit einer Fernsehgebühr von 17,03 Euro pro Monat in der Relation zu deren umfangreichem Programm gar nicht mehr so teuer. Die Sender können diesen Umstand aktiv nutzen; wenn sie attraktive, qualitätsbewusste Sendungen und Kanäle produzieren, gewinnen sie dadurch die Chance, ihren Relevanzverlust bei den jüngeren Zielgruppen wieder wettzumachen. So könnte die Digitalisierung den dramatischen Schwund kompensieren, den die öffentlich-rechtlichen Kanäle seit Anfang der neunziger Jahre zu ver-
5.3 Öffentlich-rechtliche Sender
171
zeichnen hatten. Wiesen ARD und ZDF 1992 noch einen kumulierten Marktanteil von 36,5 Prozent bei den 14-49jährigen Zuschauern auf, hat sich dieser Wert bis 2005 auf 15,4 Prozent beinahe gedrittelt, während beim Publikum ab 50 Jahre nur ein Verlust von rund einem Viertel zu beobachten ist. Dieser Akzeptanzverlust ist also nicht nur mit der wachsenden Konkurrenz privater Anbieter zu erklären, sondern offensichtlich auch mit mangelnder Attraktivität des Programms für die nachwachsende Zuschauerschaft. Auch an dieser Stelle ein kurzer Blick ins Ausland: In Großbritannien entfaltet die öffentlich-rechtliche BBC intensive Digitalfernseh-Aktivitäten. Sie hat nicht nur mehrere neue Kanäle gestartet, sondern tut sich zudem durch Experimente mit gänzlich neuen Distributionsformen hervor. Mit einem proprietären Medien-Player (Interactive Media Player, iMP) erlaubt sie ihren Gebührenzahlern, einen Großteil des gesamten Programmangebots in voller Länge aus dem Internet herunterzuladen. Im Prinzip handelt es sich bei dem iMP um einen Electronic Program Guide mit Zusatzfunktionen: In einer grafischen Benutzeroberfläche werden jeweils eine Woche Programmvorschau und eine Woche Programmrückblick angezeigt. Der Benutzer kann sich über die ihn interessierenden Sendungen informieren und sie ganz normal zu ihrem regulären Termin im Fernsehen anschauen. Er verfügt aber zusätzlich auch über die Möglichkeit, Sendungen zum Download vorzusehen. Alle bereits ausgestrahlten Programme stehen dann für maximal sieben Tage nach dem Sendetermin zur Verfügung und können während dieser Zeit über ein Peer-to-Peer-Netzwerk bezogen und nach Erhalt einer kostenlosen Lizenz von der BBC beliebig oft angesehen werden. Nach Ablauf der Woche verfallen die Sendungen. Noch nicht ausgestrahlte Programme können im iMP vorgemerkt werden; ihr Download startet dann automatisch, sobald sie im Free-TV zu sehen waren. Die BBC kann sich einen solchen Service aus mehrerlei Hinsichten leisten. Sie erhöht (dank des P2P-Prinzips mit minimalem Kostenaufwand) die Chancen jeder einzelnen Sendung, von mehr Menschen gesehen zu werden. Wenn etwa Kollegen im Büro von einem Programm berichten, das man verpasst hat, kann man es sich auch im Nachhinein noch ohne weiteres anschauen, ohne dass man darauf angewiesen wäre, selbst seinen Videorecorder programmiert zu haben. Gleiches gilt für ungünstige Sendezeiten am Tag oder in der Nacht. Im Grunde ist iMP daher ein Videorecorder, der ohne Mengenbegrenzung pauschal alle Sendungen der vergangenen Woche aufzeichnet und bereithält, und der dem Publikum dadurch ein Maximum an Flexibilität verleiht. Da die BBC gebührenfinanziert ist, entgehen ihr durch etwaige Substitutionseffekte keine Erlöse; ein auf Werbeeinnahmen angewiesener Konkurrent könnte sich ein vergleichbares System dagegen eher nicht erlauben, drohen auf diese Weise doch Zuschauer vom linearen Live-Programm abzuwandern. Es wird jedoch wird verhindert,
172
5 Wertschöpfungsketten und Geschäftsmodelle
dass sich die Zuschauer ein umfangreiches eigenes Archiv von Sendungen anlegen und sich damit vom laufenden Angebot der Sendergruppe abkoppeln. Im Gegenteil bleibt die eigentliche Ausstrahlung auf der BBC das Maß aller Dinge. Die Verfügbarkeit über iMP kann man aus diesem Grund auch lizenzrechtlich als lediglich eine Ausweitung des Senderechtes interpretieren, aber nicht als separate Vermarktung von Programmen für die dauerhafte Nutzung durch den Konsumenten. Ein Kannibalisierungseffekt z.B. mit dem Verkauf von DVDs wird dadurch minimiert. Die Problematik dieses Verfahrens besteht zur Zeit noch in zwei Effekten: Zum einen lässt es sich nur auf dem PC in dem von der BBC bereitgestellten Player abspielen, ist also nicht universell genug, um die Konvergenz der digitalen Medien optimal zu nutzen. In den nächsten Ausbaustufen wäre iMP zweckmäßigerweise für andere Plattformen zu öffnen, darunter vor allem auch für PVRs und Set-Top-Boxen, die den Genuss der Sendung auf dem Fernseher gestatten. Zum anderen versperren sich P2P-Downloads (vgl. Kap. 1.3.1) per definitionem einer spontanen Bedürfnisbefriedigung; es reicht eben nicht, auf ein Programm aufmerksam (gemacht) zu werden, um es dann auf Abruf sofort ansehen zu können, sondern es sind immer ein bewusster Akt des Herunterladens und eine darauf folgende mindestens mehrstündige Wartezeit erforderlich. Streaming in Echtzeit wird, wohl in erster Linie aus Kostengründen, nicht angeboten. Das iMP-Prinzip leistet mithin eher einer reflektierten, von bewussten Interessen geprägten Fernsehnutzung Vorschub – eine Tendenz, die einem anspruchsvollen, qualitätsbewussten öffentlich-rechtlichen Anbieter zweifellos sehr gut zu Gesicht steht. Zugleich kann man in diesem Zusammenhang aber auch die kommerziellen Optionen des Verfahrens deutlich erkennen: Denkbar ist es z.B., alle Sendungen innerhalb eines kurzen Zeitraums rund um ihre Ausstrahlung per P2P gratis verfügbar zu machen. Ältere Programme, Archivzugriffe und besondere inhaltliche Highlights kosten dagegen Geld; das gleiche könnte für besonders schnelle, direkte Downloads gelten, welche die eingebaute Zeitverzögerung des Peer-toPeer-Systems umgehen. Eine weitere, separate Einkaufsmöglichkeit bestünde in dem dauerhaften Erwerb der Nutzungsrechte an Sendungen, vergleichbar dem Kauf einer DVD.
5.4 Kleinere Fernsehsender Für kleinere TV-Sender und Newcomer stellt sich die digitale Welt völlig anders dar als für die etablierten Großunternehmen. Im Gegensatz zu diesen können sie nämlich durch die neuen Distributionsmöglichkeiten nur gewinnen, denn spätes-
5.4 Kleinere Fernsehsender
173
tens seit Mitte der neunziger Jahre war es im analogen Fernsehen ausgesprochen schwierig und teuer, noch ein neues Angebot zu starten. Die Nachfrage nach Verbreitungskapazitäten im analogen Kabel übersteigt selbst heute noch die verfügbaren Kanäle. Um einen medienrechtlichen Anspruch auf einen davon zu erhalten, muss der Sender sehr strenge Kriterien erfüllen, d.h. glaubhaft machen, dass er in ganz besonderem Maße zur publizistischen Vielfalt beiträgt. Denn nur in diesem Fall hat er die Chance, in den Vorrangentscheidungen der Landesmedienanstalten (vgl. Kap. 2.3.2) berücksichtigt zu werden. Vielen Kanälen, die als Geschäftsmodell vielleicht sinnvoll sind, fällt eine solche medienpolitische Rechtfertigung schwer; ein Sender, der sich etwa auf die Verwertung alter Spielfilme oder auf Angebote für Oldtimer-Fans spezialisiert, ist selbst dann, wenn er sich kaufmännisch rechnet, für die öffentliche Meinungsbildung und die Unterhaltung der Massen irrelevant und kann aus seiner Existenz deshalb keinen Anspruch auf einen der begehrten Kabelplätze ableiten. Das zweite Problem in der analogen Welt sind die Distributionskosten an sich, die das Budget eines kleineren Anbieters derart belasten können, dass danach kein Geld mehr für die Beschaffung des eigentlichen Programms mehr übrig bleibt. Allein im Analog-Kabel können bei flächendeckender Aufschaltung vier bis fünf Millionen Euro pro Jahr fällig werden. Ersparnisse sind hier nur dadurch möglich, dass der Sender auf die Verbreitung in bestimmten Regionen verzichtet oder sich den Kanal mit einem anderen Unternehmen teilt – beides unter Marketing-Gesichtspunkten wenig wünschenswerte Lösungen. Hinzu käme ggf. ein weiterer Millionenbetrag für einen analogen Satelliten-Transponder. Die digitale Verbreitung über die Broadcast-Technologien Kabel und Satellit kostet dagegen erheblich weniger: Ein Sender dürfte sich schwer tun, für beide Empfangsebenen zusammen mehr als 1,5 bis 1,8 Mio. Euro auszugeben, und wenn er Bestandteil eines Pay-TV-Bouquets bei einem Kabel- oder Satellitenbetreiber ist, kann er unter Umständen sogar ein Arrangement treffen, das ihn von der Zahlung direkter Einspeisungsgebühren ganz entlastet und stattdessen auf einem Provisions-Modell basiert. Gleichwohl ist die digitale Verbreitung zur Zeit noch mit gewissen Einschränkungen belastet. So haben die Kabelnetzbetreiber im Zuge der allgemeinen Modernisierung ihrer Infrastruktur inzwischen den größeren Teil ihrer Kundenhaushalte auch digital anschließbar gemacht, doch nur die wenigsten Zuschauer nutzen bislang diese Möglichkeit. Das hängt vor allem mit zwei Ursachen zusammen: Solange alle relevanten Sender weiterhin analog zu sehen sind, also problemlos mit den vorhanden Endgeräten genutzt werden können, während im digitalen Bereich nur Spartenkanäle von eingeschränkter Attraktivität angeboten werden, gibt es für die Zuschauer keinen großen Anreiz, neue Technik anzuschaffen und obendrein zusätzliche monatliche Gebühren zu zahlen. Außerdem
174
5 Wertschöpfungsketten und Geschäftsmodelle
habe die meisten Kabelnetzbetreiber mit der Grundverschlüsselung (vgl. Kap. 2.3.4) noch eine weitere Hürde aufgebaut: Die technische Aufrüstung des Haushaltes allein reicht noch nicht, sondern selbst derjenige, der privates Free-TV digital nutzen möchte, wird gezwungen, sich eine Smartcard zu beschaffen und damit ein weiteres Vertragsverhältnis mit seinem Kabel-Provider einzugehen – ein Aufwand, den viele Haushalte heute noch scheuen. Im Ergebnis konnten die Kabelnetzbetreiber zum Jahresende 2005 erst geschätzte 550.000 Haushalte verbuchen, die sich für den Empfang eines ihrer deutschsprachigen Digitalpakete entschieden hatten, also lediglich 2,6 Prozent aller Kabelkunden. Die Steigerung der Anschlusszahlen verläuft seit dem Start der Angebote im Herbst 2004 allerdings durchaus dynamisch, so dass sich hier mit laufend vergrößertem Angebot auch ein Netzwerkeffekt einstellen dürfte: Je mehr Personen mitmachen, bei desto mehr Freunden, Bekannten und Nachbarn wächst das Interesse, ebenfalls dabei zu sein. Der allgemeine Trend zur Digitalisierung der Unterhaltungselektronik, speziell aber auch die Ausstrahlung von HDTV, wie sie bei Kabel Baden-Württemberg bereits Anfang 2006 begonnen hat, könnte zusätzlich in besonderem Maße zu einer Steigerung der Attraktivität des Digitalkabels beitragen. Abschwächende Effekte sind dagegen durch die zunehmende Verbreitung von ADSL- und VDSL-Internetzugängen zu erwarten. In der Summe bedeutet das, dass die technische Empfangbarkeit digitaler Sender im Kabel in den kommenden Jahren voraussichtlich kontinuierlich wachsen wird. Von dem noch eher bescheidenen Niveau Anfang 2006 aus ist also eine quasi automatische Verbesserung des geschäftlichen Potentials für die Sender zu erwarten. Während also das Kabel derzeit dabei ist, sich als Plattform sowohl für Payals auch für Free-TV zu etablieren, seine Betreiber es aber in der Hauptsache als Medium für Bezahlfernsehen etablieren wollen, sieht die Lage beim Satellitenfernsehen noch etwas anders aus. Zum einen ist die Digitalisierung hier bereits deutlich weiter fortgeschritten: Ende 2005 verwendeten bereits fast 40 Prozent aller Satelliten-Haushalte einen digitalen Empfänger, und es werden täglich mehr. Ursache dafür ist vor allem eine konsequente Politik des in Deutschland marktführenden Betreibers SES-Astra, der im Interesse der Erweiterung seiner Übertragungskapazitäten die Digitalisierung fördert, indem er schon seit einigen Jahren alle analog ausgestrahlten Fernsehprogramme automatisch und für die Sender weitgehend kostenneutral im digitalen Simulcast verbreitet. Dadurch werden die Zuschauer, die sich einen Digital-Receiver kaufen, belohnt: Sie können alle gewohnten Kanäle weiterhin sehen und bekommen als Zugabe eine noch größere Programmauswahl als zuvor, weil sich einige Sender – vor allem Spartenkanäle – von Vornherein nur digital ausstrahlen lassen. Dementsprechend schaffen alle Neukunden, aber auch diejenigen, die ihre ältere Satellitenempfangstechnik routinemäßig erneuern, automatisch die moderneren Geräte an, so
175
5.4 Kleinere Fernsehsender
dass sich ein kontinuierlicher Austausch ergibt. Spätestens um das Jahr 2010 herum wird der analoge Satellitenempfang endgültig der Vergangenheit angehören – und das (abgesehen von der auch auf diesem Sektor geplanten Grundverschlüsselung) ohne die Anwendung von Maßnahmen, welche die Nutzer des Mediums verärgern würden. Abbildung 15: Haushalte mit deutschsprachigen Digitalkabel-Paketen in Mio. 9 8 7 6 5 4 3 2 1
1 j1
1 E2 H
j1
0 E1 H
j1
0 E2 H
j0
j1 E1 H
9 E2 H
j0
j0
8 E1 H
8 E2 H
j0
j0
7 E1 H
7 E2 H
j0
j0
6 E1 H
6 E2 H
j0 E1 H
9
0
Quelle: Eigene Prognosen und Berechnungen Zum anderen ist der Markt für Satellitenfernsehen in Deutschland bisher fast vollständig auf Free-TV ausgerichtet. Der bislang einzige relevante Pay-Anbieter ist Premiere, das zudem fast alle mit Entschlüsselungseinrichtungen versehenen Satelliten-Receiver kontrolliert. Beim Verkauf seines Playout-Centers an SESAstra im Jahr 2004 hat sich das Unternehmen nämlich hohe Provisionen für den Fall gesichert, dass die ursprünglich von Premiere aufgebaute Infrastruktur für das Angebot von fremdem Pay-TV über Satellit genutzt wird. Auf diese Voraussetzungen ist aber bis auf weiteres jeder Fernseh-Veranstalter angewiesen, der mit Abo-Programmen auf diesem Weg schnell und ohne allzu großen technischen und finanziellen Aufwand eine hohe Verbreitung erreichen will. Die Mehrzahl der für den Empfang von Premiere genutzten Set-Top-Boxen verfügen nämlich nicht über ein Common Interface, sondern sind ausschließlich für das von Premiere verwendete Verschlüsselungssystem Nagravision geeignet. Ein
176
5 Wertschöpfungsketten und Geschäftsmodelle
Betreiber, der sich hiervon unabhängig machen möchte, muss alle von Premiere versorgten Satelliten-Haushalte entweder mit neuen Smartcards ausstatten und sie damit vor die Alternative stellen, entweder Premiere oder den neuen Anbieter zu nutzen, oder aber dafür sorgen, dass die potentiellen Zuschauer sich kostspielige neue Receiver anschaffen, die für verschiedene Systeme ausgelegt sind. Die Neigung der Haushalte, das zu tun, dürfte nur bei äußerst attraktiven Pay-TVAngeboten bestehen; will man also die Umstellung fördern, wäre das vermutlich nur unter Einsatz von hohen Subventionen für die Neugeräte zu schaffen (ähnlich wie im Mobilfunkmarkt mit seinen künstlich verbilligten Handys). Ein einzelner Sender kann das schon aus finanziellen Gründen kaum leisten, und auch die wirtschaftlichen Probleme, die Premiere lange Zeit gehabt hat, hingen unter anderem damit zusammen, dass das Unternehmen seinen Kunden die Empfangstechnik vermietet hat und dementsprechend in Vorleistungen für die Anschaffung der Hardware gehen musste. Daher unternehmen die Satellitenbetreiber selbst Anstrengungen, eine von Premiere getrennte Pay-TV-Plattform aufzubauen, die dann von einer Vielzahl von „Untermietern“ genutzt werden kann – ganz ähnlich wie bei der Grundverschlüsselungsstrategie der KabelAnbieter. Bis es so weit ist, sind mithin alle diejenigen Sender (und nicht nur die kleinen) in der Zwickmühle, die flächendeckendes Bezahlfernsehen anbieten wollen. Was im Kabel kein Problem darstellt, ist über Satellit zumindest schwierig, denn die technisch ohne weiteres verfügbaren Alternativen in den Bereichen Verschlüsselungssysteme und Satellitenbetreiber haben in Deutschland eine noch zu geringe Bedeutung für den Direktempfang. Zugleich ist es auch nicht hinnehmbar, die gleichen Programminhalte, für die Kabelkunden bezahlen müssen, über Astra gratis auszustrahlen, nur um eine möglichst große technische Empfangbarkeit zu bekommen. Einzelne Programmveranstalter behelfen sich daher mit einem Trick: Sie strahlen zwei Versionen des gleichen TV-Kanals aus. Eine PayVariante, die über besondere inhaltliche Highlights verfügt oder neue Sendungen exklusiv zu einem besonders frühen Zeitpunkt anbietet, und eine Free-Version, eine etwas geringere Wertigkeit hat. Auch mit der Werbung wird dabei unterschiedlich umgegangen: Bei dem gebührenpflichtigen Kanal wird auf Werbung verzichtet oder ihre Platzierung eingeschränkt, während der Gratis-Empfang für den Zuschauer mit voller Werbeberieselung verbunden ist. Kleinere, neue und innovative Sender gewinnen also durch das digitale Broadcasting vielfach überhaupt erst eine Existenzgrundlage, da die Distributionskosten niedrig sind und nur geringe Hürden für den Zugang bestehen. Diese Vorteile werden aber zunächst noch mit eingeschränkten Reichweiten beim Publikum erkauft – was wiederum mit entsprechend geringeren Erlösaussichten verbunden ist, ganz gleich, ob der Sender Pay-TV betreibt oder sich durch Wer-
5.5 Unterhaltungskonzerne und US-Majors
177
bung finanziert (wobei sich diese beiden Modelle gegenseitig keineswegs ausschließen). Dafür kann immerhin mit automatisch steigendem Empfang durch die fortschreitende Digitalisierung der Haushalte gerechnet werden. Die AstraSatelliten haben dabei noch einen großen Vorsprung gegenüber den KabelProvidern. Dafür ist die Veranstaltung von Pay-TV über Satellit noch mit etwas größeren Schwierigkeiten behaftet.
5.5 Unterhaltungskonzerne und US-Majors Die Hersteller von audiovisuellen Inhalten finden sich in der digitalen Welt in einer gänzlich neuen Position. Waren sie früher sehr stark von den ContentAggregatoren, sprich: Kinobetreibern, Videotheken und Fernsehsendern, abhängig, wenn sie ihre Produkte ans Publikum bringen wollten, hat sich die Lage nunmehr grundlegend verändert. Punkt eins: Digital ist gleichbedeutend mit global. DVDs sind mit Regionalcodes geschützt, die trotz identischer Technik dazu führen, dass man eine in den USA gekaufte Scheibe nicht ohne weiteres in Europa abspielen kann. Der Grund für diese noch recht simple DRM-Maßnahme war, dass die Kinofilm-Produzenten verhindern wollten, dass Filme, deren Kinostart in Europa, Südamerika oder Asien oft erst nach der US-Veröffentlichung der DVD stattfand, vorher in Form von importierten Datenträgern kursierten. Die Nachfolge-Formate Blu-Ray Disc und HD-DVD, die freilich ansonsten durch sehr starkes Digital Rights Management geschützt sind, sehen genau diese Beschränkung nicht mehr vor, denn sie ist weitgehend obsolet geworden. Um Raubkopierern die Arbeit möglichst schwer zu machen, werden Kinostart und DVD-Vermarktung immer häufiger weltweit abgestimmt, so dass die begehrten Inhalte auf allen Märkten gleichzeitig offiziell erhältlich sind. Außerdem haben die Umsätze mit DVDs diejenigen der Kino-Auswertung bereits übertroffen. Beim Fernsehen ist die amerikanische Studio-Branche dagegen noch nicht so weit wie beim Kino. Zwar schwappt über das Internet der Buzz, wie die Branche sagt, d.h. die PR- und Mundpropaganda für interessante Serien und andere Formate in den Vereinigten Staaten, zeitgleich mit den dortigen Erstausstrahlungsterminen nach Europa über, aber eine zeitnahe Verwertung auf den europäischen Sendern bleibt schwierig. Das hängt einerseits mit den Sprachfassungen zusammen. Mainstream-orientierte Free-TV-Sender können es sich im Interesse hoher Einschaltquoten nicht leisten, Programme in der englischen Originalfassung auszustrahlen, benötigen also Zeit für die Herstellung der jeweiligen Synchronisation. Ökonomisch sinnvoll lässt sich das nur dann organisieren, wenn bereits entweder die ganze Staffel oder wenigstens ein großer Teil davon vorliegt
178
5 Wertschöpfungsketten und Geschäftsmodelle
und bearbeitet werden kann. Einzelfolgen zu synchronisieren, sobald sie fertig werden, wäre viel zu teuer. Außerdem kann beim Free-TV nicht ausgeschlossen werden, dass z.B. die Sendung eines deutschen Anbieters auch im Ausland gesehen werden kann, denn über Satellit erreicht er das gesamte Mitteleuropa. Bei der Ausstrahlung des amerikanischen Originals würde der deutsche Kanal somit unter Umständen den Fernsehunternehmen im übrigen Europa zuvorkommen, welche das selbe Programm für ihr jeweiliges Territorium ebenfalls erworben haben. Auch dieser Umstand ist ein Argument für die Grundverschlüsselung aller Sendesignale, weil sich damit unabhängig von der Distribution kontrollieren lässt, in welchem Land der Zuschauer seinen Wohnsitz hat. Deshalb darf ein Pay-TVSender wie Premiere bereits heute in der Originalsprache ausstrahlen, denn er erreicht dank seines Abo-Systems zuverlässig nur einheimische Haushalte. Ein weiterer Hinderungsgrund besteht in den international sehr unterschiedlichen Fernsehgewohnheiten. In den USA werden die meist 22 Episoden einer Serienstaffel über eine ganze neunmonatige Fernsehsaison gestreckt, so dass zwischen zwei neuen Folgen mehrere Wochen oder sogar Monate vergehen können, während die restliche Zeit mit Wiederholungen (Repeats) oder Sonderprogrammierungen gefüllt wird. Der deutsche Fernsehzuschauer erwartet dagegen, dass jede Woche eine neue Episode kommt, sonst kündigt er der Sendung schnell seine Treue auf. Die amerikanischen und europäischen Programmpläne lassen sich daher nur schwer in Gleichklang bringen, und dementsprechend leiden die Produzenten unter der nicht autorisierten Verbreitung ihrer Programme über Peer-to-Peer-Tauschbörsen. Doch dank Digitalfernsehen und Internet stehen nun auch auf diesem Sektor reguläre und kontrollierte Vertriebswege zur Verfügung. Die Major Studios können über eigene Pay-TV-Kanäle und Download-Angebote den Weltmarkt mit vergleichsweise geringem technischem und organisatorischem Zusatzaufwand unmittelbar bedienen, indem sie den besonders ungeduldigen Zuschauern neue Sendungen in der Originalfassung gegen Bezahlung zur Verfügung stellen. Erste erfolgreiche Ansätze dazu gibt es bereits, darunter den Online-Verkauf von Serienepisoden des US-Networks ABC über die Apple-Plattform iTunes. Dass es dafür in Deutschland ein großes Potential gibt, kann man an mehreren Indikatoren ablesen. Fernsehprogramme machten trotz hoher Preise für die entsprechenden Box-Sets (Sammlungen vollständiger Staffeln) im Jahr 2004 bereits 11,3 Prozent des Umsatzes mit Kauf-DVDs aus und gehören zu den stärksten Wachstumstreibern in diesem Marktsegment. Der Boom hängt sicherlich in erster Linie damit zusammen, dass die Serienfans nicht mehr von den Ausstrahlungsterminen der Fernsehsender abhängig sein wollen; eine große Rolle spielt aber auch die Werbefreiheit der Episoden und die Verfügbarkeit der englischen Sprachfassung. Und dass die Fremdsprache Englisch eine immer
5.6 Produktionsfirmen
179
geringere Hürde darstellt, belegt auch das Phänomen, dass die jüngsten HarryPotter-Bände es lange vor dem Erscheinen ihrer deutschen Übersetzung in der Originalsprache auf Platz eins der deutschen Bestsellerlisten geschafft haben. Außerdem gibt es erste Anzeichen für die Umkehrung der Verwertungskette: Zwar werden nach wie vor die meisten Serien erst nach ihrer Free-TVAusstrahlung auf DVD veröffentlicht, aber es gibt bereits erste erfolgreiche Beispiele für das entgegengesetzte Verfahren, bei dem die deutsche Fassung unabhängig vom Fernsehen hergestellt und als Kauf-Video angeboten wird. Voraussetzung dafür, dass eine solche Direktvermarktung auch Online und im Pay-TV bei den Konsumenten gut ankommt, ist eine entsprechende Flexibilität des Angebotes. Im Idealfall sind jeweils angepasste Lösungen für die mobile Nutzung, für konventionelle Fernsehgeräte und HDTV-Zuschauer verfügbar, und das verwendete DRM eröffnet alle Möglichkeiten zwischen einmaligem Ansehen und dauerhaftem Erwerb einer Folge. Dafür werden die Hersteller der Programme mit gewachsenen Erlösmöglichkeiten belohnt: Eine populäre Serie wird allein in Deutschland bei ihrer Erstausstrahlung im Free-TV von bis zu sechs Millionen Menschen gesehen. Wenn davon nur 500.000 bereit sind, 50 Cent dafür zu bezahlen, eine Episode vor allen anderen sehen zu dürfen, kommt schon ungefähr die gleiche Summe zusammen, die der Fernsehsender für die reguläre Ausstrahlung bezahlt. Weitere Einnahmen folgen aus der späteren Verwertung, wenn die Folge über Jahre hinaus jederzeit zum Abruf bereit steht. Mit dem weltweiten Effekt multipliziert, sind auf diese Weise Umsätze möglich, die das bisherige Volumen aus dem Lizenzverkauf an lokale Free-TV-Sender und die DVD-Auswertung übersteigen – zumal im Gegensatz zum Geschäft mit DVDs die Herstellungskosten für den Datenträger und dessen Verpackung entfallen und die Einzelhandelsmarge durch eine vermutlich deutlich geringere Provision für einen Portal- und Inkasso-Dienstleister im Internet ersetzt werden kann. Und greift der Produzent zur P2P-Distribution, werden sogar die Datenübertragungskosten marginalisiert.
5.6 Produktionsfirmen Dieses Modell, dass für die großen Hollywood-Studios erfolgversprechend erscheint, lässt sich freilich nicht eins zu eins auf einheimische Produktionsfirmen übertragen. Diesen fehlt nämlich – wie oben bereits angemerkt – oftmals das notwendige Eigenkapital, vor allem aber die internationale Verwertbarkeit ihrer Programme, so dass der erreichbare Markt dementsprechend weitaus kleiner ist. Die Abhängigkeit von den Sendern bleibt hier also vorerst bestehen. Für die mittelständischen Produzenten kommt es daher besonders darauf an, sich Rechte
180
5 Wertschöpfungsketten und Geschäftsmodelle
für die Zweitverwertung ihrer eigenen Sendungen und Inhalte zu sichern, z.B. auch indem sie an das TV-Unternehmen nur die endgültige Schnittfassung einer Produktion abtreten, aber aus dem gedrehten Rohmaterial neue Angebote für andere Medien herstellen können. Das gilt um so mehr, weil die TV-Unternehmen ihre eigene wirtschaftlich unsichere Position dazu nutzen, die Programmlieferanten zu besonderem Entgegenkommen bei der Preisgestaltung zu bewegen.
5.6.1 Digitale Produktion Eine der wesentlichen Strategien von unabhängigen Produzenten besteht deshalb darin, die Herstellungskosten noch weiter zu senken, und dafür bietet die Digitaltechnologie mehrere Ansätze. Das beginnt bereits bei der Aufnahme. Kameras aus der DV-Familie (DV, DVCPRO, DVCAM) z.B. sind den großen, für den Studio-Einsatz oder mobile Teams gedachten Fernsehkameras zwar in der Bildqualität nicht ebenbürtig, liefern aber dennoch sendefähiges und für die wichtigsten Postproduktions-Schritte geeignetes Material, das lediglich für komplexere Bearbeitungen wie nachträgliche Farbkorrekturen und Spezialeffekte untauglich ist. Dafür sind die Geräte ebenso wie die benötigten Kassetten leicht um den Faktor 10 billiger, kleiner und leichter als das klassische professionelle Equipment und können im Prinzip auch von Laien bedient werden. Technisch bedingt eignen sich solche preisgünstigen Produktionsmittel also nicht für alle Arten von Sendungen. Sobald etwa Tricktechnik ins Spiel kommt oder besonders hohe optische Qualitätsansprüche erfüllt werden müssen, bleibt der Rückgriff auf teurere Ausstattung nicht erspart. Andererseits ist die Auswahl an Programmformen mit geringeren produktionstechnischen Anforderungen sehr groß, und einige von ihnen sind überhaupt erst aufgrund der Verfügbarkeit kleiner, tragbarer Kameras möglich geworden. Das trifft besonders auf Doku-Soaps und Real-People-Formate zu. Dabei werden einerseits echte Menschen in ihrem Alltag oder in besonderen Situationen beobachtet, so etwa in Die Super Nanny und Unser neues Zuhause bei RTL. Andererseits werden z.B. mit Hilfe von Laiendarstellern Geschichten erzählt, die auf einem Drehbuch beruhen, aber den Eindruck von Authentizität erwecken sollen, wie z.B. in den SAT.1-Serien Lenßen & Partner und K11 – Kommissare im Einsatz. Die Zahl der Formate, die in eine dieser beiden Kategorien fallen oder zumindest nach einem verwandten Prinzip funktionieren, ist Legion, und das ist auch unter dem Gesichtspunkt ihrer Herstellungsbedingungen kein Zufall. Diese Sendungen erreichen teils annehmbare und teils gute Einschaltquoten, weil sie der Lebenswelt des Publikums nahe sind oder dies zumindest zu sein vorgeben. Die Erzählprinzipen des Direct Cinema werden hier für die kostensparende TV-Produktion trivialisiert: Die Mit-
5.6 Produktionsfirmen
181
wirkenden dieser Programme legen ein natürlicher wirkendes Verhalten an den Tag, wenn die Kamerateams sich völlig nahtlos und unauffällig in ihren Alltag oder ihr Laientheater integrieren und einfach alles bruchlos mitschneiden können. Die klassischen Aufnahmetechniken erfordern dagegen vielfach das Hantieren mit einer umfangreichen Ausrüstung und den Auf- und Abbau von KameraStativ und einer der Situation angepassten künstlichen Beleuchtung – womit sie natürlich spontaneitätshemmend wirken. Auch die Studio- und Postproduktion haben sich durch den Einsatz digitaler Gerätschaften verändert. Man denke hierbei nur an das virtuelle Studio: Statt in einer physischen Kulisse oder an einem Originalschauplatz kann man Moderatoren vor einem neutralen Hintergrund (dem Bluescreen oder Greenscreen) platzieren, der dann auf elektronischem Wege durch eine im Computer generierte Umgebung ersetzt wird (Chroma-Key-Verfahren). Das gelingt schon recht realistisch; bei Bewegungen des Moderators oder der Kamera in dem virtuellen Raum passt sich sogar dessen perspektivische Darstellung automatisch an. Bei geeigneten Sendungen entfällt somit der Kulissenbau, und ein und dasselbe Studio kann in rascher Folge für die Aufzeichnung verschiedenster Inhalte benutzt werden, ohne dass ein aufwändiger Austausch seiner Einrichtung notwendig wäre. Bedeutende Veränderungen sind auch bei der Nachbearbeitung des gedrehten Materials festzustellen. Nonlineare Schnittsysteme (vgl. Kap. 1.2.2), bei denen das zur Bearbeitung vorgesehene Video statt auf Kassetten auf Festplatten vorliegt, haben die technischen Abläufe bei der Zusammenstellung fertiger Sendungen und Beiträge erheblich beschleunigt und verbilligt; im Extremfall lässt sich eine solche Software bereits auf einem leistungsfähigen Notebook-Computer unterbringen. Das gleiche gilt auch für Spezialeffekte, Schrift- und Grafikeinblendungen und die Audio-Nachbearbeitung. Die digitale Technik bringt es dabei ferner mit sich, dass sie ihren Benutzern intuitive oder leicht zu erlernende Benutzeroberflächen anbieten kann. Das hat weitreichende Auswirkungen auf das notwendige Personal, denn spezieller technischer Sachverstand ist zu ihrer Bedienung – zumindest bei Routine-Aufgaben – kaum mehr erforderlich. Der kostensparende und dabei freilich den Professionalitätsgrad senkende Trend in der Fernsehproduktion geht daher zu multifunktional eingesetzten Mitarbeitern: Der Nachrichtenredakteur benötigt keinen Grafiker mehr, um eine Statistik zu visualisieren, sondern trägt seine Daten einfach in eine Vorlage (Template) ein, die den Rest automatisch erledigt, und der Video-Journalist (VJ) zieht alleine mit Handkamera und Notebook los, um einen Beitrag zu drehen, diesen unterwegs bereits zu vertonen, zu schneiden und dann per UMTS oder Internet an die Sendezentrale zu übermitteln. All das steht in krassem Gegensatz zu einem klassischen, zwei- bis vierköpfigen Berichterstatterteam, das aus Redakteur, Kameramann, Tonassistent und Beleuchter besteht, und das mit seinem
182
5 Wertschöpfungsketten und Geschäftsmodelle
gedrehten Material in ein Studio fährt, wo der Redakteur im Zusammenspiel mit Cutter, Toningenieur, Grafiker und Sprecher das endgültige Arbeitsergebnis erstellt. Die Fernsehproduktion bewegt sich daher im digitalen Zeitalter aus technologischen wie wirtschaftlichen Gründen immer stärker zwischen zwei extremen Polen. Zum einen gibt es die ausgesprochene Billig-Variante, die vor allem in den Bereichen Nachrichten, Reportage, Doku-Soap, Daily Soap und Reality greift. Dieser Bereich arbeitet mit möglichst einfachen Mitteln und ist dramaturgisch eher spekulativ – man könnte auch sagen: Boulevard-orientiert. Zum anderen etabliert sich die Herstellung von HDTV-Programmen, die besondere inhaltliche Highlights darstellen und/oder für den Export geeignet sind. HDTV neutralisiert in mehreren Hinsichten die Einsparungen, die im konventionellen Fernsehen mit der Digitalisierung verbunden sind. Die hierfür erforderliche Technik muss nämlich erheblich höheren Kapazitätsanforderungen genügen und bewegt sich deshalb nach wie vor auf einem recht hohen Preisniveau. Zugleich verzeiht HDTV kleinere Nachlässigkeiten nicht so leicht wie das Fernsehen in StandardDefinition: Kameraführung und Beleuchtung orientieren sich in vielen Fällen eher an den Maßstäben des Kinofilms als an der gewohnten TV-Ästhetik, der Einsatz von unruhigen Handkameras bietet sich weit weniger an, und Fehler in den Spezialeffekten oder verschmutzte Kulissen fallen dem Publikum sehr viel eher auf. Dadurch steigen der Produktionsaufwand und die für Dreharbeiten benötigte Zeit.
5.7 Netzbetreiber Das Modewort, das seit Beginn der Digitalisierung der Telekommunikation die Runde macht, heißt Triple Play. Gemeint ist damit, dass Festnetz-Telefongespräche, der Zugang zum Internet und der Fernsehempfang über ein einziges Medium bzw. einen Anbieter abgewickelt werden. Neuerdings ist mitunter sogar von Quadruple Play die Rede, bei dem auch der Mobilfunk in das Paket mit eingeschlossen ist. Vor allem anderen bedeutet das zunächst einmal, dass das jeweilige Unternehmen seinen Umsatz pro Kunden (ARPU, Average Revenue per Unit) erhöhen und die Kundenbindung an seine Produkte erhöhen will, indem es sich vom Fachgeschäft für eine spezielle Dienstleistung wie die Vermittlung von Telefongesprächen oder die Distribution von TV-Kanälen zu einem Supermarkt für elektronische Informationsübermittlung entwickelt. Es geht in der Konsequenz also um einen Verdrängungswettbewerb zwischen den verschiedenen Anbietern. Der Verbraucher hat davon, wenn der Wettbewerb funktioniert, vor allem Vorteile bei Preis und/oder Leistung: Um ihn zur Kündigung seiner alten Verträge
5.7 Netzbetreiber
183
zu bewegen, muss man dem Kunden einen Mehrwert für das gleiche Geld bieten, also z.B. eine schnellere Verbindung ins Internet, oder bewährte Dienste billiger machen, wie etwa bei den Telefongebühren. Und die Vorteile für den Konsumenten müssen so groß sein, dass er etwaige Unbequemlichkeiten in Kauf zu nehmen bereit ist, also etwa die Anschaffung neuer Endgeräte oder die Verlegung neuer Kabel im Haushalt.
5.7.1 Kabelnetzbetreiber Die Voraussetzungen der Infrastruktur-Eigentümer für die Erschließung dieser neuen Geschäftsfelder sind jedoch sehr unterschiedlich. Als die Fernsehkabelnetze, die zuvor im Besitz der Deutschen Telekom gewesen waren, ab Ende der neunziger Jahre von privaten Investoren gekauft wurden, hatten diese vor allem die multimedialen Fähigkeiten des Kabels in der digitalen Welt vor Augen. Das Geschäft mit der Durchleitung von analogen Fernsehprogrammen erschien ihnen dagegen eher als Beiwerk. Gespeist wurden diese Visionen von den Erfahrungen in den USA, wo sich das TV-Kabel zu diesem Zeitpunkt bereits als renditestarkes Dual- und Triple-Play-Medium etabliert hatte: Es fungierte nicht mehr nur als Lieferant für Pay-TV, sondern stellte auch bandbreitenstarke Internet-Zugänge zur Verfügung und konkurrierte – vor allem bei Ortsgesprächen – intensiv mit den klassischen Telefonanbietern. Das, so dachten die Anleger, müsste auch in Deutschland mit seinem weitverzweigten Fernsehkabelnetz möglich sein, und zahlten hohe Milliardenbeträge an die Telekom. Doch die neuen Betreiber hatten eine Reihe von Umständen nicht ganz richtig eingeschätzt. Erstens hatte der Vorbesitzer Deutsche Telekom in den Jahren vor dem Verkauf kaum noch in das Netz investiert, denn das Unternehmen wusste, dass es diesen Bereich sowohl aus kartellrechtlichen als auch aus finanziellen Gründen abtreten müssen würde. So befand sich die Infrastruktur zwar in einem guten Zustand, war aber letztlich veraltet und musste mit hohem Kostenaufwand modernisiert werden. Zweitens erwies sich die Aufteilung des Kabelmarktes in die Netzebenen 3 und 4 als wesentlich stabiler, als die ausländischen Investoren erwartet hatten. Der Plan, die NE-4-Betreiber entweder einfach aufzukaufen oder mit der Aussicht auf neue Geschäftsmöglichkeiten zur schnellen Kooperation zu bewegen, versagte, und damit fehlte den großen Kabelgesellschaften der direkte technische Zugang zur Mehrheit der Endkunden ebenso wie die unmittelbare Vertragsbeziehung zu den Haushalten. Drittens schließlich betrieben die Deutsche Telekom und deren Konkurrenten im Telefon-Bereich mit höchster Priorität den Ausbau ihr Telefonnetze zu Breitband-Datennetzen und machten DSLAnschlüsse innerhalb kürzester Zeit populär. Für Ende 2006 wird bereits damit
184
5 Wertschöpfungsketten und Geschäftsmodelle
gerechnet, dass ein rund Drittel aller Haushalte mit DSL-Internetzugängen über das Telefonkabel ausgestattet ist. Während also die neuen Kabel-Provider noch damit beschäftigt waren, die Aufrüstung ihrer Netze zu finanzieren und in die Wege zu leiten und Modelle für die Zusammenarbeit mit den NE-4-Eignern zu finden, schlossen die Telcos längst schon in hoher Stückzahl Verträge mit Endkunden ab. Dabei kam ihnen zugute, dass praktisch 100 Prozent aller Haushalte über einen Telefonanschluss verfügen und sich viele davon bereits daran gewöhnt hatten, über das Telefonnetz mit Modem oder ISDN ins Internet zu gehen. Das Fernsehkabel erreicht dagegen „nur“ rund 55 Prozent der Bevölkerung; seine Nutzung für Telefonie und Internet ist zudem erst einmal ungewohnt. Die Betreiber der zu einem frühen Zeitpunkt verkauften Kabelnetze in Nordrhein-Westfalen und Hessen gerieten denn auch bald in finanzielle Schwierigkeiten. Hohen Investitionen standen zunächst minimale Fortschritte bei der Gewinnung neuer Kunden bzw. dem Angebot von Diensten, die über das analoge Fernsehen hinausgingen, gegenüber. In der Folge veränderten sich auch die Eigentümerstrukturen der Betreibergesellschaften: Die ursprünglichen Käufer wurden von neuen Besitzern abgelöst, die nunmehr alle aus dem Bereich der Kapitalanlagegesellschaften (Hedge Fonds) stammen, während zuvor zumindest teilweise Medienunternehmen beteiligt waren. Den Wandel der Erwartungen an das TV-Kabel kann man an seiner Preisentwicklung ablesen: Der US-Konzern Liberty Media hatte 2002 für die Regionen der heutigen Kabel Deutschland GmbH (die gesamte Bundesrepublik ohne Nordrhein-Westfalen, Hessen und Baden-Württemberg) rund 5,5 Mrd. Euro geboten. Nachdem diese Transaktion vom Bundeskartellamt gestoppt wurde, erwarb ein anderes Investorenkonsortium rund ein Jahr später das selbe Netz für nur noch gut 1,7 Mrd. Euro, also etwa 30 Prozent seines Marktwertes auf dem Höhepunkt der Kabel-Euphorie. Die Ökonomie der Fernsehkabel-Provider lässt sich in drei Bereiche aufteilen, deren erster das analoge Fernsehen ist. Auf diesem Sektor fließen stetige Einnahmen aus den monatlichen Anschlussgebühren der Privathaushalte und aus den Preisen, welche die Sender für ihre Einspeisung zahlen. Diesen Einnahmen steht ein existierendes Netz gegenüber, das nur noch geringe Kosten verursacht, weil lediglich ein gewisser Wartungs- und Kundenservice-Aufwand betrieben werden muss. Bei einem monatlichen ARPU von 7,25 Euro und knapp 9,6 Mio. angeschlossenen Kunden (Quelle: KDG-Quartalsbericht September 2005) summieren sich die jährlichen Umsatzerlöse allein des größten Betreibers Kabel Deutschland (KDG) auf über 835 Mio. Euro – ein sehr gutes Geschäft, zumal wenn man bedenkt, dass für den Kauf des Unternehmens nur etwa der doppelte Jahresumsatz gezahlt worden ist. Selbst unter der Prämisse, dass es sich beim analogen Kabelfernsehen um ein Auslaufmodell handelt, das ab dem Jahr 2010
5.7 Netzbetreiber
185
massiv an Bedeutung verlieren wird, könnte man bis dahin ganz in Ruhe sehr ansehnliche Gewinne erwirtschaften. Der zweite Bereich besteht aus digitalem Fernsehen, das im Anschluss an den Kauf des konventionellen Netzes moderate Aufrüstungsinvestitionen erforderlich macht, im wesentlichen einen Austausch der Verstärkertechnik. Für Kabelnetzbetreiber stellt die Verbreitung von Digital-TV zunächst einmal keinen Quantensprung dar, weil zwar erheblich mehr Sender übertragen werden können, zugleich aber auch der Preis, den die Programmveranstalter für die Einspeisung zahlen, sinkt. In Summe sind etwas höhere Margen erreichbar, doch ein echtes Zusatzgeschäft kann erst durch die Einführung von HDTV und die Einrichtung eines betreibereigenen Pay-TV-Angebotes gemacht werden. Da die analogen Kapazitäten für hochaufgelöste Videoübertragungen nicht ausreichen, kann das Digitalkabel so für die Kunden einen Mehrwert erzielen, für den sie zur Zahlung einer höheren Anschluss- oder Nutzungsgebühr bereit sind. Und indem er eigene Pay-TV-Bouquets anbietet, leitet der Kabelnetzbetreiber einen grundlegenden Funktionswechsel ein: Statt nur Distributionsdienstleister zu sein, übernimmt er nun gleichfalls die Rolle eines Content-Aggregators, gewissermaßen als MetaSender. Wie ein Kiosk bündelt er Angebote der unterschiedlichsten Fernsehunternehmen, leistet für diese einen komplexen Service – Vermarktung, Vertrieb, Verschlüsselung, Abrechnung –, und erlangt dadurch einen Anspruch auf einen Teil des so generierten Gesamtumsatzes. Free-TV ist daher nur insofern für die Kabel-Provider interessant, als es aus Sicht der Konsumenten zur Unverzichtbarkeit des Kabelanschlusses an sich beiträgt und erst einmal einen Grundstock von Nutzer-Haushalten anzieht. Das Ganze ist jedoch nur dann sinnvoll, wenn der Kabelnetzbetreiber selbst als Pay-TV-Plattform auftritt. Übernehmen ein Sender oder eine Sendergruppe die Endkundenbeziehungen in Eigenregie, wird das Kabel wieder zum reinen Verteil-Service reduziert. Bedingung für ein substantielles Zusatzgeschäft ist aber, dass möglichst viele von den Zuschauern besonders begehrte Kanäle Bestandteil des Angebots sind, und das ist bis Anfang 2006 nur eingeschränkt der Fall. Bei den Kanälen handelt es sich um Spartensender, die für ein Sammelsurium von Zielgruppen eine Ergänzung zu dem liefern, was im Free-TV ohnehin – wenn auch nicht in der gleichen Dichte – zu sehen ist: Spielfilme, Serien, Dokumentationen, Musiksendungen, Kochformate, Sport und Boulevard. Auch wenn sich sicherlich die Mehrheit des gesamten Fernsehpublikums für mindestens einen der enthaltenen Sender interessieren dürfte, heißt das noch lange nicht, dass es bereit ist, dafür neue Empfangsgeräte anzuschaffen und monatliche Extra-Gebühren zu zahlen. So lange das Free-TV-Angebot also nicht künstlich verknappt wird, werden daher von den Kabelgesellschaften unverzichtbare Inhalte
186
5 Wertschöpfungsketten und Geschäftsmodelle
dringend gesucht, die es im konventionellen Fernsehen gar nicht oder zumindest nicht in gleicher Form gibt. Tabelle 6: Sender im Pay-TV-Bouquet der Kabel Deutschland GmbH 2006 Sendername
Kategorie
Sendername
Kategorie
13th Street
Spielfilm/Serie
G.TV
Spiele
SciFi
Spielfilm/Serie
tv.gusto Premium
Essen & Trinken
AXN
Spielfilm/Serie
Playhouse Disney
Kinder
Kinowelt TV
Spielfilm/Serie
Toon Disney
Kinder
Silverline
Spielfilm/Serie
Toon Disney +1
Kinder
The History Channel Dokumentation
ESPN Classic
Sport
National Geographic Dokumentation
Motors TV
Sport
Spiegel TV Digital
Dokumentation
Sailing Channel
Sport
Planet
Dokumentation
NASN
Sport
Wetter Fernsehen
Wetter
Extreme Sports
Sport
Bibel TV
Religion
MTV Hits
Popmusik
K-TV
Religion
MTV Dance
Popmusik
E! Entertainment
Unterhaltung
Gute Laune TV
Volksmusik
BBC Prime
Unterhaltung
VH1 Classic
Popmusik
Fashion TV
Mode
Trace.TV
Popmusik
Wein TV
Essen & Trinken
Playboy TV
Erotik
Quelle: KDG Bislang hat sich die Strategie der Kabelnetzbetreiber weitgehend darin erschöpft, möglichst viele Sender für die eigenen Digital-Bouquets zu akquirieren. Der Hintergedanke: Wenn die Vielfalt erst groß genug ist, dann erhöht sich die Wahrscheinlichkeit, dass jeder Zuschauer irgendetwas Besonderes findet und ein Abonnement in Erwägung zieht. Um unter Marketing-Gesichtspunkten wichtige Medien-Marken und exklusive Programminhalte einzusammeln, gehen die Kabel-Unternehmen dabei auch finanziell in Vorleistung. Das geht teilweise so weit, dass die öffentliche Medienaufsichtseinrichtung KEK (Kommission zur Ermittlung der Konzentration im Medienbereich) einige der verbreiteten Programme, darunter z.B. Spiegel TV – XXP digital, den Kochsender tv.gusto und
5.7 Netzbetreiber
187
den Spielfilmkanal Kinowelt-TV, so einstuft, als sei die Kabel Deutschland GmbH auch als Gesellschafterin an ihnen beteiligt. Einen spektakulären Schritt zur Förderung ihrer Pay-TV-Aboverkäufe hat die Kabelbranche jedoch Ende 2005 gemacht. Eine Firma, die den gleichen Investoren gehört wie die Kabelnetze von Nordrhein-Westfalen und Hessen, hat sich für 250 Mio. Euro pro Saison für drei Jahre die Live-Fernsehübertragungsrechte an der Fußball-Bundesliga gesichert. Damit ist ein hohes Risiko verbunden: Zu den reinen Rechtekosten kommt noch ein großer Aufwand für Produktion und Vermarktung hinzu, so dass unterhalb einer Schwelle von rund drei Millionen verkauften Abonnements mit einem Verlustgeschäft zu rechnen ist. Zum Vergleich: Der bisherige Rechteinhaber Premiere hat seit seiner Gründung im Jahr 1990 mit viel Mühe erst eine Kundenbasis von 3,5 Mio. Haushalten aufbauen können – und das mit einem attraktiven Programm-Mix, zu dem außer Sportveranstaltungen aller Art auch aktuelle Kinofilme in TV-Erstaufführung, Serien und Spartenprogramme zählen. Und es geht bei Pay-TV ja nicht nur um den Verkauf von Abonnements, sondern die meisten in Frage kommenden Haushalte müssen erst noch mit der geeigneten Technik in Form von Set-Top-Boxen mit Entschlüsselungsmodul ausgestattet werden. Erreicht der Anbieter allerdings sein selbstgestecktes Ziel von sechs Millionen Kunden oder auch nur die kostendeckenden drei Millionen, macht er das digitale Kabelfernsehen damit endgültig massentauglich. Und für Haushalte, die dank der Fußball-Bundesliga erst einmal technisch in der Lage sind, Bezahlfernsehen ihres Kabel-Providers zu empfangen, ist die Schwelle niedrig, noch weitere Bouquets oder einzelne Sender zu kaufen. Angesichts der Kundenbasis von rund 21 Mio. Kabelhaushalten macht sich jeder einzelne Euro, um den sich der ARPU erhöht, massiv bemerkbar. Zugleich droht dem Fernsehkabel als bequemem Lieferanten von TVInhalten Konkurrenz vom Internet, dessen für den Endkunden nutzbare Bandbreiten zur Zeit vervielfacht werden. Bereits DSL-Anschlüsse mit 12 Mbit/s sind, sofern eine entsprechende Netz-Infrastruktur im Hintergrund bereitsteht, in der Lage, mehrere Fernsehprogramme gleichzeitig in hoher Qualität zu übertragen, und mit Datenraten zwischen 25 und 50 Mbit/s (VDSL) drängen die klassischen Telekommunikationsunternehmen massiv auf den TV-Distributionsmarkt vor. Sie können außerdem die Vorteile der eingebauten vollen Interaktivität ihrer Technologie ausspielen, sei es im Bereich Video-on-Demand oder beim elektronischen Handel oder anderen Forman von Transaktionsgeschäften. Hinzu kommt die Beobachtung, dass die Verbraucher bereit sind, für Internet- und Festnetztelefonanschlüsse weitaus höhere monatliche Grundgebühren zu bezahlen als für das TV-Kabel: Während letzteres den Einzelhaushalt rund 15 Euro im Monat kostet (bei größeren Wohnanlagen werden hohe Rabatte eingeräumt), stört es die meis-
188
5 Wertschöpfungsketten und Geschäftsmodelle
ten Telefonkunden anscheinend nicht, wenn sie für Sprache und Internet zwischen 40 und 60 Euro monatlich aufwenden müssen. Von diesem Kuchen möchten sich auch die Kabelnetzbetreiber ein Stück abschneiden und rüsten ihre Infrastruktur nach und nach rückkanalfähig auf. Die hiermit verbundenen Investitionen sind aber gewaltig, weil fast alle Bestandteile des Netzes entweder komplett ausgetauscht oder aufwändig an die neuen Erfordernisse angepasst werden müssen (vgl. Kap. 2.3.1). Außerdem erhöhen sich gegenüber dem konventionellen Netz mit seiner Einbahnstraßen-Struktur die laufenden Betriebskosten. Doch mit dieser Strategie hinken die Kabelunternehmen den Telcos massiv hinterher. Während sie den Sprung vom analogen zum digitalen Kabelfernsehen geradezu noch relativ leicht an die Öffentlichkeit vermitteln können, liegt Triple Play für die Konsumenten zunächst einmal gar nicht nahe. Ihre Aufmerksamkeit muss durch hohe Leistung und besonders niedrige Preise teuer erkauft werden. Ein Break Even im Internet- und Telefongeschäft rückt dadurch in weite Ferne, während gleichzeitig die Telcos vom BreitbandTrend schon in vollem Umfang profitieren und ihr Service-Niveau in aller Ruhe ausbauen und sichern können.
5.7.2 Telekommunikationsunternehmen Dabei stehen die Telekommunikationsunternehmen vor einem noch größeren geschäftlichen Paradigmenwechsel als die Betreiber des Fernsehkabels, befinden sich aber gleichwohl in einer durchaus günstigen Ausgangsposition, um den Wandel zu bewältigen. Kern der Entwicklung auf diesem Sektor ist der Umstand, dass es klassische, leitungsvermittelte Telefongespräche über das Festnetz bereits in wenigen Jahren gar nicht mehr geben wird. Denn zwei Faktoren tragen zu einer rapiden Erosion der bisherigen Geschäftsgrundlage der Telcos bei: Zum einen der Mobilfunk, der immer billiger wird und zunehmend auch die Verwendung von Festnetzanschlüssen ersetzt, und zum anderen die Voice-over-IPTechnik (VoIP). VoIP wiederum wirkt sich auf zwei Ebenen aus: Zwei Teilnehmer, die beide einen Internet-Zugang besitzen, können unter völliger Umgehung von Telefontechnik eine Sprach- oder Videoverbindung miteinander aufbauen. Über die Nutzung des Internet-Anschlusses hinaus fallen dann keine Kosten an; lediglich wenn einer der beiden Gesprächspartner ein herkömmliches Telefon benutzt, werden Gebühren für die Übergabe zwischen den Netzen fällig. Das heißt, dass früher oder später jeder entweder das Handy oder VoIP nutzen wird – sei es mit Hilfe eines PCs oder unter Einsatz eines anderen Gerätes, das wie ein Telefonapparat aussieht und funktioniert, aber aus Computer-Komponenten besteht. Die andere Ebene ist der interne Aufbau der Telefonnetze: Da es sich um
5.7 Netzbetreiber
189
eine wesentlich billigere, dabei aber unvermindert zuverlässige Technik handelt, stellen die Telcos die Übermittlung von Telefongesprächen auch intern auf die IP-Telefonie um und schaffen ihre Vermittlungsstellen bis Anfang der 2010er Jahre nach und nach ab. Auch heutige Telefonkunden führen ihre Gespräche deshalb mitunter schon per VoIP, ohne es zu merken. Die Konsequenz daraus ist das Bestreben der Telcos, ihre vorhandene NetzInfrastruktur systematisch für den Breitband-Markt auszubauen, denn bis auf weiteres sind Leitungen aus Kupferdraht und Glasfasern die bei weitem leistungsfähigsten und zugleich kosteneffizientesten Medien für den bidirektionalen Datentransport. Die konkurrierenden Funk-Techniken wie WiMAX und UMTS sind erheblich teurer und stoßen weitaus schneller an ihre Kapazitätsgrenzen. Die Positionierung des Festnetzes als IP-Autobahn verspricht daher auch auf Dauer gute Umsätze – vorausgesetzt, es gelingt, den Konsumenten einen Grund dafür zu liefern, warum sie unbedingt große Bandbreiten benötigen, und ihnen zugleich so attraktive Dienste anzubieten, dass sie bereit sind, auch weiterhin hohe oder sogar steigende Anschluss-Grundgebühren zu bezahlen. Und abgesehen von noch eher experimentellen Anwendungen, die in Bereichen wie dreidimensionaler Bildgebung und Telemedizin denkbar sind, gibt es heute eben nur ein Produkt, das von Hause aus so hohe Datenraten verschlingt, wie die modernsten DSL-Anschlüsse liefern können: Das Fernsehen. Denn beim gewohnten Surfen im Internet bedeutet es – wie bereits erwähnt – für den Nutzer keinen merklichen Unterschied mehr, ob er mit drei, sechs oder zwölf Mbit/s arbeitet. Die Informationsmenge, aus der selbst eine aufwändig gestaltete Website besteht, ist so verhältnismäßig gering, dass sie sich auch bei einstelligen MegabitRaten ohne Verzögerung auf dem Bildschirm aufbaut. Eher stellt hierbei noch die Leistungsfähigkeit des jeweiligen Computers ein Nadelöhr dar, vor allem bei Flash-Animationen und ähnlichen Verfahren, die Rechenkapazität auf dem lokalen Gerät erfordern. Der Bandbreitenhunger des Fernsehens ist dagegen fast unerschöpflich, zumal wenn es live als IPTV oder zum Video-on-Demand-Genuss ohne Wartezeit eingesetzt werden soll. Bei Anschlüssen von 12 Mbit/s an aufwärts können gleich mehrere Programme gleichzeitig übertragen werden, und das sogar in HDTV – etwa eine Sendung zum unmittelbaren Ansehen, während ein oder zwei andere parallel dazu aufgezeichnet werden, oder ein separates Programm für jedes Mitglied des Haushaltes. Gleichzeitig stehen den Nutzern und Anbietern alle Möglichkeiten der vollen Interaktivität offen, was dem Internet ein klares Differenzierungsmerkmal gegenüber den Broadcast-Verfahren verleiht und völlig neue Geschäftsfelder eröffnet. Wie so häufig, sind auch in diesem Bereich die Endgeräte zur Zeit noch der limitierende Faktor (vgl. Kap. 3.1). Damit TV-Anwendungen über das Internet
190
5 Wertschöpfungsketten und Geschäftsmodelle
wirklich zu einem Massenphänomen werden können, müssen sie sich vom Computer emanzipieren und genauso leicht vom bequemen Sofa aus mit der Fernbedienung verfügbar werden wie das herkömmliche Angebot. Das Zusammenspiel zwischen dem rückkanalfähigen Netz, lernfähigen EPGs und Personal Video Recordern verfügt dann aber über das Potential, die Fernsehnutzung und damit die gesamte Fernsehbranche grundlegend zu verändern.
5.7.3 Mobilfunk Das Thema mobiles Fernsehen wird nicht zuletzt deshalb sehr intensiv diskutiert, weil die Marktteilnehmer auf diesem Sektor eine besondere Zahlungsbereitschaft der Konsumenten wahrnehmen. Das Geschäft mit Klingeltönen ist dafür das Musterbeispiel: Während vor allem die jüngere Generation im Internet wenig Bereitschaft zeigt, für Musikstücke überhaupt Geld auszugeben, finden HandyKlingeltöne zu Preisen zwischen zwei und fünf Euro pro Stück reißenden Absatz. Auch angrenzende Gebiete wie Handy-Spiele, Display-Grafiken und dergleichen werden bereitwillig gekauft. Selbst teure Sonderrufnummern funktionieren im Mobil- wie auch Festnetzbereich erstklassig – ob die Abstimmung bei einer Live-Fernsehshow oder die Teilnahmechance an einem Gewinnspiel für 49 Cent oder Dienstleistungen aller Art von der Telefonauskunft bis hin zu ErotikHotlines. Daraus lässt sich erahnen, dass die Verbraucher mit den jeweiligen Medien unterschiedliche Vorstellungen von Kosten verbinden. Wenn sich eines in der öffentlichen Wahrnehmung erst einmal als „teuer“ festgesetzt hat, kann man diese Eigenschaft zu entsprechenden Mehrwert-Angeboten nutzen; ist es dagegen mit einer ausgesprochenen Gratis-Mentalität verknüpft wie Fernsehen und Internet, fällt es sehr schwer, selbst für hochwertige Leistungen einen Preis zu verlangen. Doch es ist nicht nur die Einstellung der Verbraucher, die den Mobilfunk ähnlich wie den herkömmlichen Telefonanschluss so lukrativ macht, sondern auch die zuverlässige und einfache Abrechnung. Bislang handelt es sich bei der Telefon- und Handyrechnung um das einzige Verfahren für Micropayments, d.h. die flexible und sichere Zahlung kleiner und kleinster Einzelbeträge, das massenhaft verbreitet, akzeptiert und leicht zu bedienen ist, und bei dem man außer zu seinem jeweiligen Telefon-Provider und dem Lieferanten der gekauften Dienstleistung nicht auch noch eine Kundenbeziehung mit einem separaten Abrechnungsunternehmen eingehen muss. Insofern gestattet der Mobilfunk auch eine Art Vorschau auf das, was in anderen Medien möglich ist, sobald geeignete Zahlungssysteme zur Verfügung stehen.
5.7 Netzbetreiber
191
Nach derzeit gegebener Lage der Dinge sehen eine Reihe von Anbietern im Mobile-TV eine Gelegenheit zur Realisierung von Erlösen, die sie im regulären Fernsehen oder im Internet nicht erzielen können. In vorderster Reihe stehen dabei die Mobilfunkunternehmen selbst, die – genau wie die Kabelnetzbetreiber – möglichst viel Kontrolle über die Inhalte, die sie transportieren, behalten möchten. Angesichts der stetig fallenden Preise für Telefongespräche suchen auch sie nach Möglichkeiten, ihre Netze mit Inhalten auszulasten, die den Konsumenten mehr Geld wert sind. Besondere Schwierigkeiten bereitet es ihnen, UMTS zu einem lukrativen Markt auszubauen. Die dafür verwendeten Frequenzbänder hatten sechs Betreiber im Jahr 2000 auf dem Höhepunkt der Medien- und Interneteuphorie für insgesamt 98,8 Mrd. Euro ersteigert; hinzu kamen weitere Milliardenbeträge für die Aufrüstung der Netz-Infrastruktur. Die Vision bestand damals in einer zügigen Refinanzierung dieser Investitionen durch das Angebot von schnellem mobilem Internet und Video-Anwendungen. Diese Perspektiven mussten rasch relativiert werden, denn während die UMTS-Technik nur relativ langsam vorankam und zugkräftige Inhalte fehlten, machten gleichzeitig alternative und in bestimmten Hinsichten leistungsfähigere und billigere Mobilfunk-Technologien wie DVB-H und Wireless LAN zügig Fortschritte. Hätten die Gesellschaften nicht gleichzeitig ein hervorragendes Geschäft auf dem GSM-Sektor gemacht, wären noch mehr von ihnen in existenzielle Schwierigkeiten geraten; ein Unternehmen hat seine UMTS-Lizenz inzwischen sogar zurückgegeben. Die Frontlinien, an deren Verlauf sich der Wettlauf um die Zukunft des mobilen Fernsehens abspielt, sind prinzipiell die gleichen wie in den anderen Bereichen der digitalen Welt: Endgeräte, Übertragungskosten, Rückkanal, Inhalte, Kundenbeziehung und Abrechnung. So ist es eigentlich unwirtschaftlich, die teuren und begrenzten Ressourcen von UMTS für die Weiterverbreitung von Fernsehprogrammen in Echtzeit zu nutzen; als relativ schnelles, bidirektionales Netz eignet es sich eher für interaktive Anwendungen, kurze Clips und Videoon-Demand. WLAN und WiMAX, die gegenüber leitungsgebundenen Anschlüssen nur einen geringe Geschwindigkeits-Rückstand haben, sind dagegen für eine echte breitbandige Internet-Nutzung optimal geeignet, und alles was schnell bei vielen Empfängern gleichzeitig ankommen soll, wird am zweckmäßigsten über DVB-H oder DMB übertragen. Doch während funktionsfähige UMTS-Handys längst verfügbar sind, gibt es erst kaum Endgeräte, die zwischen den verschiedenen Funktechniken je nach Verfügbarkeit, Standort und Anwendung hin- und herwechseln können. Dieser Mangel hängt einerseits mit der Unsicherheit darüber zusammen, welches der verschiedenen Funk-Verfahren sich nachhaltig etablieren wird, andererseits aber auch mit den Geschäftsmodellen.
192
5 Wertschöpfungsketten und Geschäftsmodelle
UMTS bedeutet nämlich, dass der Nutzer eindeutig identifizierbar ist und man ihm in Anspruch genommene Leistungen daher einfach berechnen kann. Dadurch haben die Mobilfunkbetreiber einen klaren Trumpf in der Hand: Sie können Dritte, die kostenpflichtige Inhalte über ihre Netze anbieten wollen, besonders leicht unter das Dach ihrer Abrechnungssysteme locken und auf diese Weise doppelt profitieren – der Anschluss an sich wird mit zunehmender inhaltlicher Auswahl attraktiver, und von den Fremdanbietern können Provisionen einbehalten werden. Werden dagegen Übertragungs-Alternativen zugelassen, droht eine zweifache Gefahr: Die Erhebung von Preisen für Programme ist erheblich schwieriger (wenn nicht sogar unmöglich), und den Mobilfunk-Providern droht das gleiche Schicksal wie den Festnetz-Unternehmen, indem die Nutzer bei sich bietender Gelegenheit auf nahezu kostenloses Voice-over-IP umsteigen. Außerdem erheben die öffentlich-rechtlichen Rundfunkanstalten bereits Anspruch auf die mobilen Broadcast-Techniken, die sie als logische Erweiterung des klassischen Fernsehens auffassen und die ihrer Ansicht nach deshalb Bestandteil der Bestands- und Entwicklungsgarantie sind. Am ehesten ist im Mobile-TV-Bereich daher einerseits mit öffentlichrechtlichem Free-TV und andererseits mit Kombinationslösungen zwischen den verschiedenen Technologien zu rechnen. Das könnte z.B. bedeuten, dass mit DVB-H frei empfangbare Programme auf Handys übertragen werden, die UMTS als Rückkanal für interaktive Anwendungen nutzen – vom Einkaufs- über den Sportwettenkanal bis hin zu Spielen oder Musikclip-Wunschkonzerten. Auf diese Weise werden die Vorteile beider Systeme optimal genutzt, nämlich die kostengünstige breitbandige Übermittlung von Videomaterial an mobile Endgeräte bei gleichzeitiger Möglichkeit zur Generierung von Erlösen.
5.8 Hersteller von Unterhaltungselektronik Schließlich spielen in diesem Konzert von einander teils heftig widerstreitenden Interessen auch die Hersteller der Konsumenten-Endgeräte (Consumer Electronics, CE) eine wichtige Rolle. Dabei sind meist zwei unterschiedliche Entwicklungen zu beobachten. Auf der einen Seite gibt es diejenigen technischen Innovationen, die von den CE-Herstellern selbst initiiert werden. Erfolgreiche Beispiele aus der Vergangenheit sind die CD und die DVD, weniger erfolgreiche DATAudiokassetten und die MiniDisc. Das jüngste herstellergetriebene Thema sind die DVD-Nachfolgeformate für den HDTV-Sektor. Durchaus typisch für alle diese Neuerungen ist, dass sie stets auf die Verwendung von Datenträgern in Kassetten- oder Scheibenform setzen, weil diese der Industrie auch nach erfolgter Anschaffung eines Gerätes langfristig Umsätze garantieren. Speziell bei den
5.8 Hersteller von Unterhaltungselektronik
193
neuen Formaten HD-DVD und Blu-Ray Disc ist dabei Eile geboten, denn mit zunehmender Durchsetzung schneller Internet-Zugänge werden solche physikalischen Medien immer überflüssiger: Spielfilme und Serien werden in Zukunft mehr und mehr online zum Kunden kommen, statt dass sie aus dem Elektrogroßmarkt, der Videothek oder dem Fachhandel nach Hause getragen werden. Oftmals sind solche Technik-Innovationen mit einem Streit um den entsprechenden Standard verbunden, bei dem mehrere Lager von CE-Herstellern um die Vormachtstellung im Markt kämpfen. Das führt dann genauso regelmäßig zu einem Verzögerungseffekt: Die Verbraucher sind unsicher, welches System mehr Zukunft hat, und üben sich deshalb in Kaufzurückhaltung. Das wiederum hat zur Konsequenz, dass die Hersteller keine hohen Stückzahlen produzieren können und die Preise für die Geräte hoch bleiben, was wiederum die Kundenresonanz bremst. Das ist um so schädlicher, weil bei Unterhaltungselektronik der Preis eine sehr wichtige Rolle spielt. Die Konsumenten mögen einen noch so klaren Vorteil in der neuen Technologie erkennen – sind die Geräte zu teuer, bleiben sie einem kleinen Kreis von Early Adopters, Technikenthusiasten mit großem Budget, vorbehalten, setzen sich im Massenmarkt aber nicht durch. Dabei sind die Schwellenpreise im Empfinden des Publikums je nach ApparateKategorie sehr unterschiedlich. Für einen Fernseher, der einen direkten sinnlichen Eindruck vermittelt und außerdem als Prunkstück der Heimausstattung an prominenter Stelle im Wohnzimmer platziert wird, werden bereitwillig wesentlich größere Beträge ausgegeben als für weniger sichtbare und spektakuläre Geräte wie Videorecorder, DVD-Player oder Set-Top-Boxen. Erschwerend kommt hinzu, dass im Digital-TV Komfort und Schnelligkeit fast per se mit entsprechend teureren Bauteilen einhergehen. In den Geräten geht es nämlich nicht mehr nur um die relativ simple Signalverarbeitung, wie noch im analogen Fernsehen, sondern um die Bereitstellung von schnellen Zwischenspeichern und Rechenkapazität (vgl. Kap. 3). Für die Darstellung eines in MPEG-4 codierten Programms ist die zwei- bis dreifache Leistung erforderlich wie für MPEG-2, und auch grafische Benutzeroberflächen, EPGs und intelligente Komfortfunktionen aller Art stellen hohe Anforderungen an die Ausstattung der Maschinen. Auch der Einbau mehrerer Empfänger, z.B. für analoges und digitales Kabelfernsehen, treibt den Preis eines Gerätes nach oben und schreckt damit potentielle Käufer ab, denen man nicht vermitteln kann, dass der kostspieligere Apparat im Ergebnis nicht nur Nerven, sondern auch Kosten spart, weil auf die Anschaffung einer separaten Set-Top-Box verzichtet werden kann. Auf der anderen Seite sind Entwicklungen zu verzeichnen, die nicht von den großen CE-Konzernen ausgehen, sondern sich aus anderen Quellen speisen. Ein prominentes Beispiel dafür ist der iPod, ein tragbarer Musik- und Videoplayer, der von dem freilich immer schon lifestyleorientierten Computerherstel-
194
5 Wertschöpfungsketten und Geschäftsmodelle
ler Apple sehr erfolgreich in den Markt gebracht worden ist. Die sonst üblichen Hersteller vergleichbarer Geräte (wie z.B. Sony mit dem Walkman) versuchen jetzt, noch schnell auf den Zug aufzuspringen, ehe Apple ihn vollständig monopolisieren kann. Der Personal Video Recorder TiVo fällt in eine ähnliche Kategorie: Experten, die eher aus der Computer-Ecke als aus der Unterhaltungsindustrie kamen, haben frühzeitig die enormen Möglichkeiten einer Verbindung der beiden Welten in einem benutzerfreundlichen Apparat erkannt und damit den Industrie-Giganten zumindest vorläufig den Rang abgelaufen. Gleiches lässt sich auch auf dem Markt der Set-Top-Boxen und universellen Fernseh-Receiver beobachten: Hier sind auch in Deutschland viele kleinere und kleinste Firmen aktiv, die bereits heute zukunftsweisende Geräte entwickeln und anbieten – nur weiß kaum jemand davon, und da die Preise naturgemäß eher hoch sind, erreichen sie auch (noch) keine Breitenwirkung. So verpassen die internationalen CE-Konzerne zahlreiche Entwicklungen. Speziell im digitalen Fernsehen sind sie bislang weder durch Innovationskraft noch durch besonders benutzerfreundliche Endgeräte aufgefallen, welche z.B. Empfänger für mehrere verschiedene analoge und digitale Distributionsverfahren gleichzeitig enthalten. Stattdessen konzentrieren sie sich auf Geräte, die leicht vermittelbar sind, darunter vor allem Bildschirme. Die Gründe für diese Zurückhaltung sind dreierlei: Erstens sind sie finanzkräftig genug, um kleine Firmen samt deren Entwicklungsergebnissen einfach aufzukaufen, sobald sie eine Eignung für den Massenmarkt erkennen. Zweitens geht es ihnen in der digitalen Fernsehwelt ganz ähnlich wie den etablierten TV-Sendern. Eine Strategie des Verhinderns und Bremsens der allgemeinen Entwicklung sichert ihnen desto länger den Absatz ihrer herkömmlichen Speichermedien samt Inhalten. Und drittens pflegen sie – auch wieder in erster Linie aufgrund der DVD-Vermarktung – intensive Beziehungen zu den dominierenden amerikanischen Programmherstellern, so dass sie eher deren Wünschen nach möglichst restriktivem Digital Rights Management nachkommen, als flexible und offene Apparate zu entwickeln. Dennoch besteht in dieser zurückhaltenden Position der großen Unterhaltungselektroniker auch für sie selbst eine Gefahr, wie das Beispiel des iPods zeigt: Mit Media Center PCs dringen die Computer- und Softwarehersteller immer stärker auf den CE-Markt vor, für dessen digitale Ausprägung sie technologisch bestens gerüstet sind. Und den einzigen wesentlichen Rückstand, den sie immer noch gegenüber den erfahrenen Großserienherstellern von KonsumentenEndgeräten haben, nämlich die schlechtere Usability, dürften sie recht schnell aufholen. Unternehmen wie Microsoft, Apple und RealNetworks halten bereits die Schlüsseltechnologien in Händen: Ihre Betriebssysteme und Media Player sind dabei, sich auch im Fernsehen der Zukunft als technische Standards zu etablieren. Das hängt damit zusammen, dass Hardware in Form von Prozessoren und
5.9 Electronic Program Guides und andere Dienste
195
Microchips zwar eine sehr wichtige Rolle für die möglichst schnelle und fehlerfreie Verarbeitung von digitalen Signalströmen spielt, die Betriebssoftware aber eine Brückenfunktion zwischen Inhalten und Geräten übernehmen kann. Durch Auswertung von Metadaten und angeliefertem Rohmaterial kann die Präsentation eines Programms an das jeweilige Endgerät und seinen individuellen Verwendungszweck angepasst werden, damit z.B. eine Fernsehsendung auf dem Handy-Display anders dargestellt wird als auf einem quadratmetergroßen Flachbildschirm, ein DVB-T-Datenstrom als platzsparende MPEG-4-Datei gespeichert wird, oder der Benutzer eines rückkanalfähigen Gerätes seine laufenden Pferdewetten in anderer Form vorgesetzt bekommt, als wenn er im Teletext des herkömmlichen Fernsehens nur einmal kurz den Stand der Dinge abfragen möchte.
5.9 Electronic Program Guides und andere Dienste Ein weiteres traditionelles Geschäftsfeld in der TV-Branche begibt sich in der digitalen Welt nach und nach vollständig in eine neue Sphäre: Die Programmzeitschrift wird zum Electronic Program Guide. Die Voraussetzungen der Verlage für diesen Übergang sind günstig, denn sie haben ein jahrzehntelanges Know-how darüber aufgebaut, wie Fernsehzuschauer über das Programm informiert werden möchten, und verfügen über umfangreiche Datenbanken mit teils von den Sendern geliefertem, teils selbst recherchiertem Material über unzählige Sendungen und Mitwirkende. Bereits heute bieten einzelne Verlage ihre Datenbanken als professionelle Informationsquelle auf dem Markt an. Und noch eine weitere Eigenschaft kommt ihnen zugute: Sie sind allenfalls in Form von Minderheitsbeteiligungen selbst an den TV-Veranstaltern selbst beteiligt, sodass sie eine Position relativer Unabhängigkeit von den Sendern beanspruchen können. In dem unübersichtlichen Angebot des digitalen Fernsehens ist diese Neutralität besonders wichtig, weil durch Manipulationen an der Sortierreihenfolge und den Suchalgorithmen sehr viel unauffälligere Einflussnahmen möglich sind als im Rahmen einer Zeitschrift. Wo sich der Leser im gedruckten Exemplar schnell einen eigenen Überblick verschaffen kann, ist der Zuschauer auf dem limitierten Platz, den ein Fernsehbildschirm zur Verfügung stellt, besonders stark darauf angewiesen, dass der EPG ihm Orientierung verschafft. Nicht zuletzt aus diesem Grund haben es sich die Landesmedienanstalten zur Aufgabe gemacht, EPGs bzw. Navigatoren, wie sie in der entsprechenden Satzung genannt werden, zu überprüfen und zu lizenzieren. Das Stichwort heißt dabei Zugangsfreiheit. Gemeint ist damit eigentlich, dass keinem legitimen Programm- und Diensteanbieter der Zugang zum Publikum versperrt werden darf, aber längst wird auch umgekehrt ein Schuh daraus: Es ist immer wichtiger, umgekehrt auch den Zu-
196
5 Wertschöpfungsketten und Geschäftsmodelle
schauern eine unbeeinflusste Entscheidung zwischen den verfügbaren Dienstleistungen zu ermöglichen. EPGs bieten dazu zwei Ansätze: Einerseits durch ihren inneren Aufbau, andererseits aber auch dadurch, dass der Nutzer eine Auswahl unter verschiedenen EPGs aus unterschiedlichen Quellen hat, ganz ähnlich wie heute am Kiosk, und nicht dazu gezwungen wird, ausschließlich denjenigen Navigator zu benutzen, welchen der Hersteller seines Empfangsgerätes oder der jeweilige Netzbetreiber anbietet. Neben diesen medienpolitischen Implikationen haben EPGs aber auch das Zeug dazu, ein eigener Wirtschaftsfaktor zu werden. Die TV-Zeitschriften gehören ungeachtet einer in den letzten Jahren zu beobachtenden Erosion immer noch zu den auflagen- und umsatzstärksten Titeln. Das beruht auf dem hohen Stellenwert, den das Fernsehen für die Freizeitgestaltung besitzt, aber natürlich auch auf dem Unterhaltungsangebot im Mantelteil der Magazine. Nicht zu vergessen ist schließlich das Anzeigengeschäft, das – je nach Publikation – gegenüber dem Verkaufspreis des Heftes den größeren Umsatzanteil ausmachen kann. Die Herausforderung für die Verlage besteht darin, alle drei Faktoren in die digitale Welt zu transferieren. Bei den Programminformationen ist das noch eher einfach und naheliegend, und wenn man einen sehr guten Service anbietet, wird man die Verbraucher vielleicht sogar zur Zahlung eines Preises für die Dienstleistung bewegen können. Die wahrscheinlichere Variante besteht zunächst aber in EPGs, die entweder durch Werbung, durch die Netzbetreiber bzw. Bouquet-Anbieter oder die Hersteller der Endgeräte mitfinanziert werden. Denn erst wenn der Mehrwert, d.h. der Bequemlichkeitsvorteil, für die EPG-Nutzer sehr deutlich wird, dürfte sich eine entsprechende Zahlungsbereitschaft einstellen. Voraussetzung dafür ist jedoch eine nahtlose Integration der Programmnavigatoren in die Hardware-Landschaft der Haushalte. Wenn ein EPG erfolgreich die Programmvorlieben seines Benutzers gelernt hat, wenn er zur einfachen Programmierung von Mitschnitten, zur unkomplizierten Bestellung und Abrechnung von Videoon-Demand taugt, interaktive Werbung unterstützt und überdies auch noch die Option zur Fernbedienung via Handy oder Internet bietet, dann kann das der Fall sein. Der Weg dorthin ist für die Verlage jedoch ausgesprochen beschwerlich, solange es keinen einheitlichen, massenhaft verbreiteten Middleware-Standard gibt, weil für jedes Gerät und jede individuelle Konfiguration ein separater Programmieraufwand notwendig wäre (vgl. Kap. 3.3.2). Noch schwieriger ist es, die anderen beiden Eigenschaften der Print-Magazine elektronisch zu substituieren. Ob es wirklich gelingen kann, EPGs mit einem eigenen redaktionellen Teil auszustatten, welcher die Unterhaltungsfunktion der Zeitschriften übernimmt, ist ebenso fraglich wie die Akzeptanz von Werbung. Denn wie Pop-Ups und andere aufdringliche Internet-Werbeformen dürften werblich bedingte Verzögerungen und Behinderungen der Navigator-Benut-
5.9 Electronic Program Guides und andere Dienste
197
zung auf Ablehnung stoßen. Erschwerend kommt die Erfolgskontrolle der Werbeschaltungen hinzu, soweit diese nicht auf Rückkanal-Anwendungen beruhen (vgl. Kap. 4). Ein Schattendasein führen im Fernsehen ferner bislang jene Themen, die als user generated content oder Web 2.0 im Internet viel beachtet werden: Dass nämlich Privatpersonen das Netz dazu nutzen, der Welt eigene Gedanken mitzuteilen, selbstgemachte, subjektiv gefärbte Inhalte zu veröffentlichen und Communities zu bilden, d.h. technisch vermittelt eine soziale Interaktion mit Gleichgesinnten aufzunehmen. Im Bereich von TV-Programmen ist Vergleichbares bislang beinahe nur im Rahmen von SMS-Chats auf jugendorientierten Kanälen zu finden, dürfte aber über ein großes Potential verfügen. Dies gilt besonders, da die notwendigen Produktionsmittel ohnehin bereits in den Händen der Konsumenten sind. Video-Handys, kompakte und bezahlbare Kameras selbst für HDTV, einfache und leistungsfähige Schnittsysteme auf dem PC – alle diese Mittel werden im Internet bereits genutzt, und der Sprung ins digitale Fernsehen ist nur noch eine Frage der Zeit. Spätestens wenn die großen Medienkonzerne in diesen Markt eintreten (wie man es in den USA bereits beobachten kann), steht die Popularisierung und Industrialisierung dessen bevor, was man in einer anderen Ära noch offene Kanäle nannte. In Ergänzung zu den bereits vereinzelt existierenden netzbasierten PVRLösungen (vgl. Kap. 3.5.2) harren viele weitere Dienste und neue Werbeformen erst noch ihrer Erfindung. Besonders vielversprechend erscheinen dabei z.B. alle Ansätze, die auf Personalisierung und Lokalisierung setzen, denn neben der Funktion des Eskapismus, der Ablenkung vom eigenen Alltag, besteht die zweitstärkste Domäne der Medien ausgerechnet in ihrer Nähe zur jeweils eigenen Lebenswelt des Nutzers. Der Autounfall auf der Kreuzung nebenan und das Sonderangebot im nahegelegenen Supermarkt interessieren im Zweifel mehr als eine weit entfernte Katastrophe oder der Image-Werbespot für ein neues Produkt. Dank der flexiblen und mengenmäßig kaum begrenzten Distributionsmöglichkeiten in der digitalen Welt wird das Fernsehen erstmals wirklich in die Lage versetzt, sich diesen Sektor zu erschließen.
6.1 Medienpolitik
199
6 Herausforderungen und Perspektiven
6.1 Medienpolitik Medienpolitische Fragestellungen kreisen um immer die gleiche Handvoll Interessen, die entweder mit wirtschaftlichen Gesichtspunkten zusammenhängen oder bei denen es um die öffentliche Meinungsbildung geht. Zwei der wichtigsten Themen sind dabei die zukünftige Rolle der öffentlich-rechtlichen Anstalten und die öffentliche Aufsicht über die privaten Rundfunkveranstalter.
6.1.1 Finanzierung und Funktion der Öffentlich-Rechtlichen Im Fall der Öffentlich-Rechtlichen steht vor allem die Finanzierung durch Gebühren zur Debatte. Im Vorfeld der jüngsten Gebührenperiode ab 1. April 2005 kam es zu einem Präzedenzfall: Zum ersten Mal schlossen sich die Bundesländer nicht der Empfehlung der zuständigen Kommission zur Überprüfung und Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF) an, sondern gestanden den Sendern eine geringere Erhöhung zu, als die KEF vorgeschlagen hatte. Dennoch gab es eine Erhöhung um 88 Cent pro Monat, was bei über 30 Mio. angemeldeten Geräten immerhin einem Plus von rund 350 Mio. Euro im Jahr entspricht – garantierte, von der Konjunktur unabhängige Mehreinnahmen in einer Zeit, in der die private Konkurrenz Jahr für Jahr reale Einbußen hatte hinnehmen müssen. Außer bei einer Befreiung aus sozialen Gründen sind alle Haushalte zur Gebührenzahlung verpflichtet, die ein Empfangsgerät auch nur bereithalten. Das heißt, es kommt gar nicht darauf an, ob jemand tatsächlich öffentlich-rechtliches Fernsehen nutzt, sondern nur darauf, dass er es grundsätzlich könnte. Und auch diejenigen, die z.B. keinen Digital-Receiver besitzen, zahlen für die digitalen Bouquets von ARD und ZDF mit (vgl. Kap. 5.3). Dass das so ist, hat einen verfassungsrechtlichen und historischen Hintergrund: Als Reaktion auf die Erfahrungen mit den gleichgeschalteten Medien in der Nazi-Zeit sieht die Verfassung der Bundesrepublik vor, dass ein von staatlichen Stellen unabhängiger Rundfunk existieren muss, welcher der Bevölkerung die volle Bandbreite von Information, Bildung, Kultur und Unterhaltung zur Verfügung stellt. Zwar kann, will und darf man niemanden zwingen, dieses Angebot auch anzunehmen, aber es muss zumindest verfügbar sein. Der öffentlichrechtliche Rundfunk ist nach diesem Verständnis ein meritorisches Gut – unsere
200
6 Herausforderungen und Perspektiven
Gesellschaft benötigt ihn, um funktionieren zu können, und deswegen darf er weder alleine an Kriterien von Markt und Ökonomie gemessen werden, noch in seiner Finanzierung von einer konkreten Nutzung oder Nachfrage abhängig gemacht werden. Diese Argumentation gilt auch im dualen System (das in diesem Fall nichts mit Abfallwirtschaft zu tun hat) aus kommerziellen und öffentlichrechtlichen Veranstaltern weiter, solange die Privaten einer gesellschaftspolitischen Funktion als Medien einer unabhängigen und fundierten Meinungsbildung der Bevölkerung nicht vollständig nachkommen. Dabei gibt es aber eine Reihe von praktischen Problemen. Deren erstes ist das, was in den achtziger und neunziger Jahren unter dem Stichwort der programmlichen Konvergenz diskutiert wurde: Das öffentlich-rechtliche Fernsehen der fünfziger bis siebziger Jahre, also aus der Ära vor der Einführung von Privatfernsehen, hat mit dem heutigen kaum noch etwas gemein. Die Anstalten müssen natürlich mit der Zeit gehen und ihr Programm laufend modernisieren, bewegen sich aber an vielen Stellen auch auf einem Terrain, das sie von den kommerziellen Wettbewerbern ununterscheidbar macht. Während man z.B. argumentieren kann, dass Formate wie der Musikantenstadl berechtigterweise mit Hilfe von Gebühren hergestellt werden, weil sich die werbefinanzierten Privatsender für die Unterhaltungsbedürfnisse älterer Zuschauer nicht interessieren, ist es durchaus zweifelhaft, ob eine ähnliche Begründung etwa auch für Daily Soaps und Telenovelas gilt, die sich eher an jüngere Publikumsschichten wenden und von denen es bei den Privaten ebenfalls reichlich Auswahl gibt. Nicht zuletzt aus diesem Grund setzen die Digitalbouquets der Anstalten starke Schwerpunkte auf Information und Kultur; würden sie dagegen aus dem reichhaltigen Unterhaltungsfundus der Sender bestückt, wäre ihre Existenz kaum zu rechtfertigen. An zweiter Stelle und schwerwiegender ist der Umstand, dass sich die Öffentlich-Rechtlichen trotz ihrer Gebühreneinnahmen in mehrerlei Hinsicht auf kommerziellen Märkten bewegen. Selbst wenn man einmal die Vergabe von Produktionsaufträgen an externe Unternehmen außer acht lässt (eine Praxis, die in der Frühzeit der Anstalten unüblich war), bleiben die Werbevermarktung im Nachmittags- und Vorabendprogramm, der Verkauf von Sponsoring in allen Zeitschienen und die Aktivitäten beim Erwerb von kommerziellen Programmund Sportrechten. Die Anstalten führen zur Rechtfertigung ihrer Werbeerlöse an, dass sie auf diese Weise den Gebührenzahler entlasten und sich zugleich von den Launen der Politiker unabhängiger machen, die über ihre reguläre Finanzierung entscheiden. Zugleich brauchen sie aber nicht unbedingt die Regeln der wirtschaftlichen Rentabilität anzuwenden, wenn sie z.B. die Rechte an der Free-TVBerichterstattung von der Fußball-Bundesliga oder an Spielfilmpaketen einkaufen. Wo private Unternehmen mit dem Bieten aufhören müssen, weil die Refinanzierung durch die Werbe- oder Pay-TV-Vermarktung nicht mehr gesichert
6.1 Medienpolitik
201
erscheint, können die Öffentlich-Rechtlichen aus ihrem Gebührenaufkommen durchaus noch höhere Preise zahlen. Allein die Rechtekosten für die Bundesliga in der ARD-Sportschau haben sich von 2004 bis 2006 auf rund 100 Mio. Euro pro Saison verdoppelt. Die Tatsache der Kostensteigerung alleine wäre dabei noch nicht unbedingt zu beanstanden, wenn es sich hier um eine Angelegenheit des Gemeinwohls handeln würde, die der Markt nicht finanzieren könnte. Doch bei einem so attraktiven Sport wie dem Fußball fände sich ohne Zweifel auch ein privater Sender, der die Information der Fans übernehmen würde – nur dass der dafür zu zahlende Preis ohne die Intervention der Öffentlich-Rechtlichen kaum eine solche Höhe erreicht hätte. Das heißt, die Anstalten überbieten mitunter ihre private Konkurrenz, weil sie nicht nach den gleichen ökonomischen Kriterien arbeiten müssen, wildern aber zugleich auf deren ureigenstem Erlös-Terrain, nämlich der Werbung. Der Markt wird dadurch verzerrt, und diese Tatsache hat auch bereits die Wettbewerbskommission der Europäischen Union auf den Plan gerufen. Diese Debatte wird ganz allgemein um die Öffentlich-Rechtlichen geführt, hat aber auch Konsequenzen für das digitale Fernsehen, und zwar ganz besonders da, wo die Ressourcen immer noch knapp sind. Müssen etwa bei DVB-T die Hälfte aller Kapazitäten pauschal an öffentlich-rechtliche Programme vergeben werden, darunter an Programme mit minimalem Zuschauerpotential wie etwa den ZDF-Theaterkanal? Dies gilt um so mehr, als man davon ausgehen kann, dass die Zielgruppe dieses kulturpolitisch gewiss wünschenswerten Angebotes mit Sicherheit entweder über einen Kabel- oder Satellitenanschluss verfügt, aber längst kein terrestrisches Fernsehen mehr empfängt. Eine andere Diskussion bezieht sich auf die Diversifikationsstrategie der Anstalten: Parallel zur Entwicklung des Privatfernsehens haben sie Inhalte aus den Hauptprogrammen von ARD und ZDF in Spartenkanäle ausgelagert. Prominentestes und erfolgreichstes Beispiel dafür ist der KI.KA, gleiches gilt aber auch für die Digitalbouquets. Handelt es sich dabei um die Reaktion auf ein Vakuum in der Grundversorgung, oder sind die Spezial-Sender nur Ausdruck einer Frequenzbesetzungs-Taktik und zugleich Feigenblatt für die inhaltliche Verflachung der massenorientierten Angebote? Beim Kinderprogramm ist die Argumentation gut nachzuvollziehen: Im Interesse der Allgemeinheit des Publikums wäre es kaum sinnvoll, auch am Vorabend und bis in die Primetime hinein etwa im Ersten kinderorientierte Sendungen auszustrahlen. Bei Kultur, politischer Dokumentation oder Autorenfilm kann man dagegen geteilter Meinung sein. Besteht nicht gerade die Integrationsfunktion der großen öffentlich-rechtlichen Kanäle darin, dass das Publikum in ihnen auch mit Themen jenseits des Mainstreams in Berührung kommen kann? Die Rundfunkanstalten befinden sich hier spätestens seit dem Start des kommerziellen Fernsehens in einer Zwickmühle: Lassen sie zu, dass ihre Haupt-
202
6 Herausforderungen und Perspektiven
programme infolge pädagogisch und gesellschaftspolitisch wünschenswerter, aber unpopulärer Sendungen immer weniger genutzt werden (vom Schwund der jüngeren Zuschauer ganz zu schweigen), dann gefährden sie die Legitimation ihrer Gebührenfinanzierung und damit früher oder später auch den Konsens über die Notwendigkeit ihres eigenen Fortbestandes. Passen sie sich jedoch in Programminhalten und Strategie allzu stark an die private Konkurrenz an, droht ihnen das gleiche Schicksal, weil man ihre Leistung immer weniger von dem unterscheiden kann, was der Markt aus seiner eigenen Dynamik heraus ohnehin anbietet. Insofern bietet sich den öffentlich-rechtlichen Sendern in der gegenwärtigen Umbruchsituation des Fernsehempfangs und der Finanzierung der privaten Angebote eine neue Chance. Wenn alle relevanten Privatkanäle nur mehr verschlüsselt und gegen Zahlung eines gesonderten Abonnementspreises gesehen werden können, sind die ursprünglichen verfassungsrechtlichen Voraussetzungen für die Grundversorgung der Bevölkerung mit Hörfunk und Fernsehen in besonderem Maße wiederhergestellt. Begleiten die Anstalten diese Situation mit einer Relevanz-Offensive, machen sich also programmlich unverzichtbar und gewinnen jüngere Zuschauer zurück, kann ihnen eine glänzende Zukunft bevorstehen. Ungeachtet dessen gibt es in ihnen einen erheblichen Reformbedarf, denn ob die Öffentlich-Rechtlichen mit ihren vielfach behördenmäßigen Strukturen für den anstehenden Prozess der Neudefinition ihrer Funktionen bereits fit genug sind, ist zumindest zweifelhaft.
6.1.2 Medienaufsicht Je mehr es sich durchsetzt, desto stärker gefährdet das digitale Fernsehen ferner die Existenzgrundlage der Landesmedienanstalten, denn zu deren wichtigsten Aufgaben gehören die Lizenzierung von privatem Rundfunk und die medienpolitisch sinnvolle Verteilung von Übertragungskapazitäten an kommerzielle Anbieter. Die letztere Aufgabe erübrigt sich zusehends, da eine echte Knappheit, die eine öffentliche Bewirtschaftung der Frequenzen und Kanäle erforderlich machen würde, außer bei DVB-T nur im analogen Bereich existiert. Speziell im Digitalkabel haben die Medienaufseher aufgrund des aktuellen Rundfunkstaatsvertrags (RfStV) ohnehin bereits den größten Teil ihrer Funktion als Torwächter verloren (vgl. Kap. 2.3.2). Abgesehen von den Öffentlich-Rechtlichen, deren Verbreitung durch den RfStV garantiert wird, ist die digitale Distribution weiterer Kanäle nämlich weitgehend dem freien Spiel der Kräfte überlassen: Wer ausgestrahlt werden möchte, verhandelt mit den Plattformbetreibern seiner Wahl, und so lange dabei nicht ein eklatant einseitiges Gesamtangebot zustande
6.1 Medienpolitik
203
kommt, gibt es kaum noch Gelegenheit oder Erfordernis zum regulierenden Eingriff. Erschwerend kommt aus der Sicht der Medienkontrolleure hinzu, dass immer mehr digitale Angebote nicht als Rundfunk, sondern als Mediendienst eingestuft werden müssen und damit qua Gesetz ohnedies zulassungsfrei sind. Diese Entwicklung wird von den Medienanstalten selbst, aber auch von der Politik mit einer gewissen Nervosität gesehen – bedeutet geringere öffentliche Kontrolle doch zugleich auch, dass den Aufsehern selbst und den Parteien immer weniger Möglichkeiten zur Verfügung stehen, auf die Sender Einfluss zu nehmen. Ein Unternehmen, das auf hoheitliche Akte angewiesen ist, um sein Geschäft zu betreiben, wirbt natürlich weit intensiver um politische Unterstützung als eines, das völlig unabhängig agieren kann, und ausgerechnet diejenigen Sendungsformen, die der Politik am wichtigsten sind – politische Talkshows, Nachrichten und Übertragungen von Parteitagen und ähnlichen Veranstaltungen – funktionieren unter kommerziellen Gesichtspunkten am schlechtesten. Zugleich haben im Laufe der neunziger Jahre die Versuche, privaten Sendern durch Landesmediengesetze oder die jeweils erteilte Lizenz einen besonders hohen Anteil an Informationsprogrammen vorzuschreiben, an Popularität verloren. Selbst ein Sender wie VOX, ursprünglich zugelassen als informationsorientiertes Vollprogramm mit hohem Nachrichtenanteil, hat sich von diesen Limitierungen längst befreit; die dennoch eher hochwertige Positionierung des Kanals hat ihren Sinn aufgrund von Marketing-Erwägungen, beruht aber nicht wirklich auf Gehorsam gegenüber den Lizenzbedingungen. Dieser Trend von einer auch inhaltlichen Regulierung hin zu dem heute gepflegten Laisser-faire-Stil dürfte zwei Ursachen haben: Zum einen hat die Politik nach dem Start des Privatfernsehens bald erkannt, dass sie in diesem Umfeld wohl niemals wirklich zu Hause sein wird, und ihre Zuneigung zu den Öffentlich-Rechtlichen wiederentdeckt. Zum anderen ist es den TV-Unternehmen gelungen, die Vorstellung von Rundfunk als Kulturgut, die in Deutschland traditionell verwurzelt war, in der Wahrnehmung sowohl der Allgemeinheit, als auch der Politik und der Medienaufsicht praktisch abzuschaffen: Die Medien werden heute als Wirtschaftsfaktor begriffen, und allein schon dieser Umstand bringt es mit sich, dass gänzlich andere Maßstäbe an sie angelegt werden. Das Kartellrecht, also die Beschränkung der Konzentration wirtschaftlicher Macht, reicht – so zumindest die verbreitete Auffassung – zu ihrer wirkungsvollen Kontrolle aus. Der Widerstand der Kommission zur Ermittlung der Konzentration im Medienbereich (KEK) gegen die Übernahme der ProSiebenSAT.1 AG durch den Axel-Springer-Verlag Anfang 2006 wird daher wahrscheinlich als das letzte Rückzugsgefecht der klassischen, an Meinungsvielfalt orientierten Medienaufsicht in die Geschichte eingehen. Die KEK hatte die Zustimmung zu der Transaktion verweigert, weil sie in der Kombination der Fernsehsender der ProSieben-
204
6 Herausforderungen und Perspektiven
Gruppe mit den Zeitungen und Zeitschriften von Springer (darunter vor allem der BILD-Zeitung) eine potenziell risikobehaftete Zusammenballung von Meinungsmacht erblickte. Als Bedingung für eine Genehmigung der Fusion forderte sie, dass für SAT.1, den aus KEK-Perspektive publizistisch relevantesten Kanal der Senderfamilie, ein pluralistisch besetzter Programmbeirat nach dem Vorbild der öffentlich-rechtlichen Rundfunkräte mit sehr weitreichenden Kompetenzen und hohen programmlichen Standards eingerichtet werden sollte. Dieses Ansinnen wurde allerdings nicht nur von der Axel Springer AG abgelehnt, die dadurch letztlich sogar die wirtschaftliche Kontrolle über den Sender verloren hätte, sondern ironischerweise auch von den Landesmedienanstalten, die der KEK vorgesetzt sind. Die alten Maßstäbe galten nun auch den Medien-Regulierern als überholt. Unabhängig davon scheiterte die Übernahme freilich auch am Einspruch des Bundeskartellamtes, das ausschließlich unter Markt-Gesichtspunkten argumentierte. Im Gefolge dieser Auseinandersetzung werden denn seither auch Forderungen nach einer generellen Modernisierung des Medienrechts laut – nur worin diese bestehen soll, bleibt noch unklar. Vermutlich steht den Medienanstalten ein Rückzug auf zwei Felder bevor, die sie ohnehin bereits beackern: Die Aufsicht über Verstöße gegen Werberecht und Jugendschutz sowie die Förderung von Medienkompetenz. Gerade letztere ist wiederum als ein meritorisches Gut einzustufen, das wünschenswert und erforderlich ist, aber unter den Bedingungen eines sich selbst überlassenen Marktes kaum funktionieren kann. Und im Gegensatz zur traditionellen deutschen Medienpolitik, die stets von einem Argwohn gegenüber den Inhalten privater TV-Aktivitäten geprägt war, scheint es heute immer weniger darum zu gehen, die Bürger vor dem Fernsehen zu beschützen (das tut ja bei den Printmedien auch niemand), sondern vielmehr darum, ihre Teilhabe daran zu garantieren (vgl. Kap. 6.2).
6.1.3 Wirtschaftsförderung und Standortpolitik Die Medien – und unter diesen vor allem Fernsehen und Film – haben es stets geschafft, sich im Blickfeld der öffentlichen Subventionspolitik zu positionieren, und das liegt nicht nur an ihrer gesamtwirtschaftlichen und arbeitsmarktpolitischen Bedeutung, sondern vor allem auch schlicht daran, dass sie von Hause aus über besonders gute Möglichkeiten verfügen, ihren Interessen Gehör zu verschaffen. Nimmt man dann noch die Hoffnungen der Politik hinzu, durch medienfreundliches Verhalten besonders viel Publicity zu bekommen, sind die Faktoren beisammen, die vor allem in den neunziger Jahren, aber auch noch in der
6.1 Medienpolitik
205
Gegenwart die deutsche Förderungslandschaft bestimmt haben und weiter beeinflussen. Die beiden gängigsten Instrumente sind dabei die Standortpolitik und die Förderung von einzelnen Film- und Fernsehproduktionen. Im Hinblick auf die Standorte wird der Wettbewerb vor allem zwischen Köln, München, Berlin und den jeweiligen Umlandregionen ausgetragen; verteilt werden dabei direkte Subventionen, vor allem aber auch Steuer-Nachlässe und praktische Unterstützungsmaßnahmen von Infrastruktur bis hin zu Entgegenkommen bei der Lizenzerteilung. Teilweise wurde sogar versucht, wirtschaftliche Problemregionen gezielt durch die künstliche Ansiedlung von Medienunternehmen zu unterstützen. Das gelang meist nicht, unter anderem weil der TV-Arbeitsmarkt auf ein vorhandenes Reservoir von freiberuflichen Fachkräften angewiesen ist, die abseits der Branchen-Zentren kaum zu finden sind. Während die direkten standortpolitischen Maßnahmen schon aufgrund der Probleme der öffentlichen Haushalte in den letzten Jahren nachgelassen haben, steigen die für die Filmförderung zur Verfügung stehenden Mittel nach wie vor eher noch an. Doch auch dabei stehen meist regionale Wirtschaftsinteressen im Vordergrund: Unterstützt werden gewöhnlich Produktionen, die mindestens einen Teil ihrer Dreharbeiten oder der Nachbearbeitung im jeweils fördernden Bundesland ansiedeln; ob das Projekt unter künstlerischen Gesichtspunkten unterstützungswürdig oder auf dem freien Markt nicht finanzierbar ist, spielt dabei vielfach nur eine untergeordnete Rolle. Dadurch gehen öffentliche Fördergelder in großem Umfang auch an erfolgreiche Wirtschaftsunternehmen, die das Geld aus verständlichen Gründen gerne entgegennehmen, es aber eigentlich nicht gebraucht hätten. Wenn es dagegen um die Unterstützung des digitalen Wandels und um regulatorischen Einfluss geht, sind die medienpolitischen Initiativen weitaus dünner gesät; manche konzentrieren sich auch auf eigentlich weniger wichtige Nebenschauplätze. Die Subventionen für die DVB-T-Verbreitung von Privatsendern sind dafür ein Beispiel: Das digitale terrestrische Fernsehen ist hochgradig unwirtschaftlich, weil zu hohen Kosten nur eine geringe Anzahl von Empfangshaushalten erreicht werden (vgl. Kap. 2.4). Um kommerzielle Sender trotzdem zu einer Beteiligung zu bewegen, wurde neben politischem Druck auch Geld eingesetzt – Geld, das zum größten Teil den marktbeherrschenden und ohnedies zahlungskräftigen Senderfamilien zugute kam. Das öffentliche Engagement ausgerechnet in diesem Bereich hängt unter anderem damit zusammen, dass hier der staatliche und politische Zugriff besonders einfach ist, denn im Gegensatz zu den Kabel- und Telefonnetzen und den Fernsehsatelliten sind die Funkfrequenzen nach wie vor nicht in Privatbesitz. Ihre Nutzung ist weiterhin und auch auf Dauer von einer regulatorischen Bewirt-
206
6 Herausforderungen und Perspektiven
schaftung abhängig. Die Zielsetzung der Bundesregierung, bis ins Jahr 2010 den gesamten TV-Empfang zu digitalisieren, war mithin durch Maßnahmen im Bereich der Terrestrik am leichtesten anzustoßen. Aus den übrigen Bereichen der Telekommunikation hat sich die Medienpolitik dagegen weitgehend zurückgezogen und das Feld dem Kartellamt und der Bundesnetzagentur (ehemals Regulierungsbehörde für Telekommunikation und Post, RegTP) überlassen. So kann man ein gewisses Ungleichgewicht diagnostizieren: Während einerseits die Digitalisierung des Fernsehens politisch ausdrücklich gewünscht ist und durch Behörden und öffentliche Institutionen wie die Landesmedienanstalten unterstützt wird, hält sich der Staat zugleich aus vielen dafür relevanten Bereichen heraus. Dabei könnte sich die Durchsetzung von digitalem Fernsehen durchaus beschleunigen, wenn es z.B. Vorschriften über einheitliche Standards der Video-Datenreduktion, der Endgeräte-Ausstattung oder des Digital Rights Managements gäbe und ein verpflichtendes Datum für die Beendigung analoger Ausstrahlungen über Antenne und Kabel existieren würde. Doch abgesehen von den Aktivitäten der Öffentlich-Rechtlichen bleibt der Markt bei den meisten dieser Themen auf sich selbst gestellt. Das geschieht einerseits aus gutem Grund, denn es gehört wohl kaum zu den Aufgaben des Staates und der Politik, sich in die Feinheiten wirtschaftlichen Handelns einzumischen, solange nicht schutzbedürftige Interessen der Allgemeinheit berührt sind – schon gar nicht, sofern die betroffene Branche sehr wohl finanziell in der Lage ist, den Wandel aus eigener Kraft zu bewältigen. Wenn für die Medien ein rein wirtschaftspolitisches Paradigma gilt, darf man sie nicht anders behandeln als die übrigen Wirtschaftszweige auch. Andererseits hat sich die deutsche Öffentlichkeit noch keineswegs von der Idee verabschiedet, dass den Medien eine große Bedeutung für Meinungsbildung und Meinungsfreiheit und auf dem Sektor der Kultur zukommt. Dieser schwierig aufzulösende Spagat wird in der aktuellen Umbruchphase besonders stark spürbar.
6.2 Endgeräte Was die Maschinen angeht, die für den Medienkonsum und die elektronische Kommunikation verwendet werden, gibt es noch eine Menge Entwicklungsarbeit zu leisten, und das nicht nur auf technischer Ebene, sondern auch im Hinblick auf das Bewusstsein der Konsumenten. Zunächst einmal dürfte der Trend zur Personalisierung, Integration und Miniaturisierung der elektronischen Geräte weitergehen. Die Entwicklung von Handys ist dafür ein gutes Beispiel: Vom bloßen Schnurlos-Telefon hin zum Multimedia-Apparat hat es nur wenige Jahre gedauert. Diese Entwicklung ist
6.2 Endgeräte
207
noch lange nicht zuende, denn bald schon wird es möglich sein, die Rechenleistung und Speicherkapazität von vollwertigen PCs in die winzigen Geräte einzubauen. Das gleiche gilt auch für den Empfang von Fernsehen und die Nutzung von Video-on-Demand; vermutlich trägt man irgendwann seine persönliche Unterhaltungszentrale immer bei sich. Das Gerät registriert dann von alleine, ob man sich in der Nähe eines großen Flachbild-Fernsehapparates befindet, auf dem es ein Programm in HDTV-Qualität ausgeben kann, oder ob man unterwegs ist und ein Video lediglich in kleinerer Auflösung auf dem eingebauten Display anzusehen vermag. Genauso wird es erkennen, dass sich sein Besitzer an einem Arbeitsplatz befindet, an dem er eine Verbindung ins firmeninterne Netzwerk benötigt und eine Textverarbeitung oder eine Datenbank verwenden möchte. Natürlich ist dieses Gerät auch übergreifendes Nachrichtenmedium; für jede gerade gewünschte Kommunikationsform – Sprache, Text, Fax, Foto, Video – sucht es sich unabhängig vom aktuellen Standort automatisch die beste Verbindungsart aus. Eingaben können wahlweise über Tastaturen, Datenschnittstellen, Schrift- oder Spracherkennungssysteme erfolgen; es tauscht Mitteilungen mit anderen Haushaltsmitgliedern und sogar mit Haushaltsgeräten aus, so dass der Kaffee gerade schon fertig ist, wenn man im Büro eintrifft, oder man die Einkaufsliste von unterwegs aus beim Kühlschrank und der Speisekammer abfragen kann. Außerdem dient es im Zusammenhang mit einem Fingerabdruck-Lesegerät als Finanz-Zentrale, mit der man Lastschriften autorisieren, aber auch anonyme Micropayments vornehmen kann – selbstverständlich drahtlos und unabhängig davon, ob es sich um die Bezahlung an einer Parkuhr handelt oder ob gerade der Film für die abendliche Unterhaltung geordert wird. Der Phantasie sind bei der Geräte-Entwicklung kaum Grenzen gesetzt. Konvergenz der Endgeräte bedeutet in diesem Zusammenhang, dass man bei vielen Geräten nicht mehr unterscheiden kann, welcher Welt sie angehören: Unterhaltungselektronik, Informationstechnologie, Telefonie, Datenspeicherung, Fernsehempfang, Arbeit oder Medienkonsum. Das heißt jedoch nicht, dass auch die Nutzungssituationen miteinander verschwimmen. Das Lean-Back-Fernseherlebnis auf der Wohnzimmercouch vor dem Großbildschirm wird ebenso erhalten bleiben wie die Lean-Forward-Arbeitshaltung am Schreibtisch mit Tastatur und Computermonitor – nur dass beide Displays vom selben Personal Server oder Home Server aus mit Daten, Software und Rechenleistung versorgt werden. Aber es kommen neue Anwendungsmöglichkeiten hinzu, wie beispielsweise der gegen Fettspritzer resistente Monitor in der Küche, auf dem man sich Kochrezepte mit interaktiver Anleitung ansieht, oder das persönliche Fernsehprogramm im Fitness-Studio, wo man während des Trainings die am Vorabend zu Hause aufgezeichneten Sendungen nachholt.
208
6 Herausforderungen und Perspektiven
Entscheidend dafür, dass die Verbraucher komplexe Apparate – auch auf weniger avanciertem Niveau – anschaffen, ist aber, dass Leistungsfähigkeit, Flexibilität und Zuverlässigkeit der Geräte Hand in Hand gehen. Es geht nicht an, dass Consumer Electronics mit obskuren Fehlermeldungen aufwarten, wie man sie aus dem PC-Bereich kennt, oder dass es zu Systemabstürzen kommt, die man teilweise nur durch Ziehen des Stromkabels korrigieren kann. Genau das passiert den aktuellen Apparaten aber noch mit entnervender Regelmäßigkeit. Gleiches gilt auch für die weitreichenden Pläne der Industrie zum Digital Rights Management: Viele der bereits eingeführten und geplanten Maßnahmen verhindern die Benutzung von technischen Einrichtungen mehr als dass sie einen Zusatznutzen bieten, und sind damit gewissermaßen anti-konvergent (vgl. Kap. 1.5). Viele DRM-Maßnahmen wirken sich so aus, als würde man einem Kunden ein Buch verkaufen, das er nur in seiner aktuellen Wohnung und mit Hilfe einer Leuchte lesen kann, die Licht einer ganz bestimmten Wellenlänge spendet. Nach einem Umzug oder auch nur dem Austausch einer defekten Glühbirne, sowie erst recht in der Straßenbahn auf dem Weg zur Arbeit oder im Urlaub blieben die Buchseiten leer. Eine absurde Vorstellung – aber auf genau diesem Weg befindet sich zumindest ein Teil der Unterhaltungselektronik-Industrie und der InhalteLieferanten. Es gilt also einen vernünftigen Ausgleich zu finden zwischen den zweifellos legitimen Interessen der Rechteinhaber und dem nicht minder schützenswerten Wunsch der Konsumenten nach dem freien Einsatz der in ihrem Eigentum befindlichen Geräte. Denn genau darauf läuft das ungebremste DRM hinaus: Die großen Lieferanten von Inhalten und Software möchten am liebsten die Hardware unter ihre Kontrolle bringen, die bei den Konsumenten zu Hause verwendet wird und für die diese bezahlt haben. Damit ist die Verfügung der Eigentümer über ihre eigene Technik nicht mehr in jedem Fall gegeben, und auch z.B. Reparaturen oder gewollte Veränderungen können diese komplett unbrauchbar machen. Ferner wird durch die radikalen DRM-Vorhaben auch eine Abschottung des Marktes gegenüber unabhängigen Inhalte-Anbietern möglich, weil deren Videos, wenn sie ohne oder mit einem eigenen Rechtemanagement zur Verfügung gestellt werden, unter Umständen auf den Standard-Maschinen der großen CE-Hersteller nicht lauffähig sind. Gleiches gilt für Software, die vom Hersteller eines PCs oder Betriebssystems nicht zertifiziert ist. Das ist ein wenig so, als wenn man ein Auto kauft, weil man uneingeschränkt mobil sein möchte. Doch dann stellt sich heraus, dass der Wagen nur mit dem Benzin einer bestimmten Marke betrieben werden kann, und dass der Kraftstofflieferant dann auch noch darüber entscheidet, ob und wohin man fahren darf.
6.3 Geschäftsmodelle und -strategien
209
6.3 Geschäftsmodelle und -strategien Die mit dem digitalen Fernsehen verbundenen Geschäfts- und Erlösmodelle bilden zusammen mit den technischen Rahmenbedingungen einen Mix, der Prognosen besonders schwierig macht. Ein Beispiel dafür ist der Personal Video Recorder: Einerseits ermöglicht er dem Publikum einen selbstbestimmten, zeitlich flexiblen TV-Konsum, die Ausblendung von Werbespots und eine Automatisierung der Programmauswahl. Dies geht aber nur unter der Voraussetzung, dass sowohl die Programmveranstalter als auch die Geräte dies auch tatsächlich zulassen. Möglicherweise versuchen die Sender oder Produzenten ja auch, das Mitschneiden von Fernsehsendungen durch DRM generell zu unterbinden und die EPG-Lösungen unter ihre Kontrolle zu bringen. Vielleicht formt sich auch eine Allianz zwischen den CE-Herstellern und der werbungtreibenden Wirtschaft, die mit Hilfe von PVRs die Fernseh- und Konsumgewohnheiten der Bevölkerung auskundschaftet und die Geräte dann zur Distribution von zielgruppenorientierter Werbung verwendet, die aufgrund technischer Sperren nicht übersprungen oder vorgespult werden kann. Falls die Konsumenten das nicht akzeptieren, bleibt unter solchen Bedingungen auf Dauer die Nutzung von PVRs unbedeutend. Oder es könnten sich auf breiter Front netzbasierte PVR-Lösungen durchsetzen, welche die Struktur des TV-Werbemarktes massiv verändern, weil die Werbung dann eher von den Netzbetreibern als von den Programmveranstaltern vermarktet wird (vgl. Kap. 3.5.2). Auch das Verhältnis von Free- zu Pay-TV dürfte massiven Veränderungen unterworfen sein. Wenn die Grundverschlüsselungspläne der großen Senderfamilien, die mitunter als Pay-TV light bezeichnet werden, aufgehen, wandelt sich Fernsehen im Abonnement von einem spezialisierten Unterhaltungsangebot für zahlungswillige Fans bestimmter Programmsparten zu einem Massenphänomen. Dementsprechend geht die Ära einer vielfältigen, insgesamt eher hochwertigen Auswahl unter frei empfangbaren Sendern zu Ende; je attraktiver ein Inhalt, desto höher die Wahrscheinlichkeit, dass man für ihn extra bezahlen muss. Für einige Nischensender mit Inhalten, die kaum jemandem tatsächlich Geld wert sind, kann dieser Trend das Aus bedeuten; das gleiche gilt für Spartenkanäle, deren bisheriges Free-TV-Programm aus Formaten besteht, die sich besonders gut fürs Bezahlfernsehen eignen. Andererseits ist es denkbar, dass sich die Umsätze der Fernsehwerbung dann noch stärker als bisher auf einige wenige Kanäle konzentrieren, die entweder nach wie vor gratis gesehen werden können oder Bestandteil eines in fast allen Haushalten empfangbaren Basispaketes sind. Für diese Sender wäre die vollständige Finanzierung durch Werbung kein Problem mehr, weil sie als einzige elektronische Medien schnell große Publikumsreichweiten aufbauen könnten
210
6 Herausforderungen und Perspektiven
und dadurch für große Image- und Produkteinführungskampagnen unverzichtbar wären. In den Pay-Sendern könnte dagegen genau fokussierte ZielgruppenWerbung gemacht werden, deren Volumen die Erlöse aus direkten AboEinnahmen lediglich ergänzen müsste. Insofern nähern sich die Fernsehverhältnisse in Deutschland zunehmend denen in den USA an; die Grundverschlüsselung über Kabel und Satellit – und in der Konsequenz früher oder später auch über DVB-T – ist für den einheimischen Markt ein geradezu revolutionärer Schritt in diese Richtung. Freilich wird sich in Deutschland niemals eine vergleichbare Menge an Kanälen aus Kabel- und Satellitengebühren finanzieren lassen wie in Amerika, denn dafür ist der Binnenmarkt zu klein: 35 Mio. Haushalte hierzulande stehen 105 Mio. Haushalten in den USA gegenüber. Ungeachtet dessen wird es spannend sein, zu beobachten, wie sich die eingeführten Sender-Marken weiterentwickeln. Die Tendenz vor allem amerikanischer Unterhaltungskonzerne, sich im deutschen Fernsehen durch eigene Kanäle direkten Einfluss zu sichern, ist bereits seit einigen Jahren zu beobachten; wann ihnen große einheimische TV-Produzenten, aber auch Markenartikel-Konzerne folgen, ist nur noch eine Frage der Zeit. Auf diese Weise werden Erlösströme um die etablierten Senderfamilien herum geleitet – mit potentiell existenzbedrohenden Konsequenzen. Der Kampf der RTL- und der ProSieben-Gruppe sowie des lange Zeit einzigen Pay-TV-Anbieters Premiere um die Hoheit über die Bildschirme hat deshalb gerade erst begonnen. Auch dies ist eine der Motivationen für die möglichst weitreichende Verwandlung von Free- in Pay-TV: Es gilt, den Markt für die Direktvermarktung lukrativer Inhalte zu besetzen und den USKonzernen und Produzenten eine so reichweitenstarke Plattform zu bieten, dass sich eigene Aktivitäten für sie kaum mehr lohnen. Gleichfalls umwälzende Konsequenzen kann die Entwicklung von Videoon-Demand für die Fernsehlandschaft haben. Wenn VoD erst technisch sehr leicht zu haben und zu bedienen ist, und wenn sich vertrauenswürdige Methoden für elektronische Micropayments durchgesetzt haben, wird sich herausstellen, wie hoch der Stellenwert des linearen, rein passiv genutzten Fernsehens tatsächlich ist. Sofern – unterstützt durch Personal Video Recorder und elektronische Suchassistenten – eine besonders attraktive, bevorzugte Einzelsendung auf der Fernbedienung genauso nahe liegt und jederzeit so leicht verfügbar ist wie ein Sender, der ein kontinuierliches Programm mit Höhe-, aber auch Tiefpunkten ausstrahlt, wird der Systemwettbewerb auf diesem Feld erst richtig eröffnet. Die heutigen Studien, die beobachten, dass die Fernsehzuschauer sich mehrheitlich eben nicht aktiv für ein Angebot entscheiden wollen, sondern sich lieber berieseln lassen, könnten sich dann als Momentaufnahmen aus der Frühzeit des Mediums erweisen. Vielleicht triumphiert langfristig aber auch die passive Couch Potato und mit ihr die herkömmliche Programmstruktur.
6.3 Geschäftsmodelle und -strategien
211
7 Literatur
Im Folgenden – ohne Anspruch auf Vollständigkeit – einige Hinweise zu empfehlenswerter weiterführender Literatur:
ARD/ZDF-Projektgruppe Digital: Berlin/Potsdam: Erste DVB-T-Region Deutschlands. Ergebnisse der Begleituntersuchung der ARD/ZDF-Medienkommission. In: Media Perspektiven, Heft 12/2003, S. 558-569 Aschentrup, Arnd/Beate Schneider/Christoph Klimmt: Chancen und Probleme von Video on Demand in Deutschland. In: MedienWirtschaft, Heft 4/2004, S. 182-192 Bayerische Landeszentrale für neue Medien (Hg.): Call Media – Mehrwertdienste in TV und Hörfunk. München: Reinhard Fischer, 2005 Colwell, Tim: Interaktives TV: Als Ergänzung zum traditionellen Fernsehen akzeptiert. Eine britische Studie zur Nutzung interaktiver Angebote. In: Media Perspektiven, Heft 3/2005, S. 125-133 Ellis, John: Seeing Things. Television in the Age of Uncertainty. London/New York: Tauris, 2002 Engel, Bernhard: Digitales Fernsehen - neue Aufgaben für die Zuschauerforschung. In: Media Perspektiven, Heft 9/2001, S. 480-485 Engell, Lorenz/Britta Neitzel (Hg.): Das Gesicht der Welt. Medien in der digitalen Kultur. München: Fink, 2004 Franz, Gerhard: Digitales Fernsehen: Herausforderungen für TV-Forschung und TVWerbung. In: Media Perspektiven, Heft 10/2003, S. 463-469 Gleich, Uli: Neue Werbeformate im Fernsehen. Forschungsergebnisse zu ihrer Wirkung und Akzeptanz. In: Media Perspektiven, Heft 1/2005, S. 33-36 Haas, Ingrid M.: Digitale Zukunft und die Auswirkung auf die Programmkosten. Die Sicht eines privaten Programmanbieters. In: Media Perspektiven, Heft 11/2004, S. 524528 Harries, Dan (Hg.): The New Media Book. London: BFI Publishing, 2002 Hickethier, Knut: Geschichte des deutschen Fernsehens. Stuttgart: Metzler, 1998 Karstens, Eric/Jörg Schütte: Praxishandbuch Fernsehen. Wie TV-Sender arbeiten. Wiesbaden: VS-Verlag, 2005 Krömker, Heidi/Paul Klimsa (Hg.): Medienproduktion. Ein Handbuch für die Produktion von Film, Fernsehen, Hörfunk, Print, Internet, Mobilfunk und Musik. Wiesbaden: VS-Verlag, 2005 Lauff, Werner: Schöner, schneller, breiter. Die ungeahnten Möglichkeiten von Kabel, DSL, Satellit und UMTS. Frankfurt/Wien: Redline/Ueberreuter, 2002
212
7 Literatur
Loitz, Kurt-Michael/Hans-Henning Arnold/Dirk Schmitz/Jan Isenbart (Hg.): Handbuch des Rundfunkwerberechts. Positionen – Praxis – Perspektiven. Köln: Heymanns, 2004 McGougan, Julian: Digitale Zukunft und die Auswirkungen auf die Programmkosten. Die Erfahrungen in Großbritannien – Was ist auf Deutschland übertragbar? In: Media Perspektiven, Heft 11/2004, S. 538-546 Mücher, Michael: Broadcast Fachwörterbuch. 15. Auflage, Hamburg: BET, 2004 Negroponte, Nicholas: Being Digital. New York: Knopf, 1995 Plake, Klaus: Handbuch Fernsehforschung. Befunde und Perspektiven. Wiesbaden: VSVerlag, 2004 Reevell, Philip: Konsolidierungsphase für Digital-TV in Großbritannien. Erfahrungen mit der Nutzung digitaler Angebote. In: Media Perspektiven, Heft 7/2005, S. 343-350 Renner, Tim: Kinder, der Tod ist gar nicht so schlimm! Über die Zukunft der Musik- und Medienindustrie. Frankfurt/New York: Campus, 2004 Salm, Christiane zu (Hg.): Zaubermaschine interaktives Fernsehen? TV-Zukunft zwischen Blütenträumen und Businessmodellen. Wiesbaden: Gabler, 2004 Zervos, Frank: Digitales Fernsehen in Deutschland. Medienpolitische und medienwirtschaftliche Herausforderungen des zukünftigen Fernsehens. Wiesbaden: Westdeutscher Verlag, 2003
8 Glossar
213
8 Glossar
Adressierbarkeit. Möglichkeit, den Empfang von Signalen auf bestimmte Endgeräte einzuschränken, die mit einer geeigneten Autorisierung (in der Regel einer oSmartcard) ausgestattet sind. Der Herausgeber der Autorisierung kann diese aus der Ferne widerrufen und so unberechtigte Nutzer sperren, aber auch z.B. einzelne oPay-per-View-Sendungen gezielt freischalten. Nicht notwendigerweise gleichbedeutend mit Pay-TV. ADSL. Asymmetric Digital Subscriber Line. Technik für Internet-Zugänge über Telefonleitungen mit oDatenraten bis 25 oMbit/s. API. Application Programming Interface. oMiddleware. ARPU. Average Revenue per Unit. Umsatz eines Unternehmens je Einheit, z.B. pro Abonnent. Artefakt. Grafischer Fremdkörper in der Darstellung eines datenreduzierten Bildes, der dadurch entsteht, dass dem jeweiligen oDecoder nicht genügend Informationen vorliegen, um das betroffene Bildsegment in höherer Genauigkeit darzustellen. AVC. Advanced Video Coding. Verfahren zur starken Datenreduktion von Videomaterial auf der Basis von oMPEG-4, meist synonym mit oH.264. AVI. Audio Video Interleaved. Verbreitetes oContainerformat für digitale Videos. Backbone. Sammelbegriff für den Teil der Infrastruktur eines Telekommunikationsnetzes, der auf Leitungen mit hoher Kapazität den Datenfluss vieler Teilnehmer bündelt und über längere Strecken transportiert. Bandbreite. Umgangssprachlich für oDatenrate bzw. oDatenübertragungsrate. Bezeichnet die Menge der in einem bestimmten Zeitraum auf einer Verbindung übertragbaren Daten. B-Frame. Bidirectional Frame. Datenreduziertes Video-Einzelbild, das nur durch seinen Bezug zu vorhergehenden und nachfolgenden vollständigen Referenzbildern (oI-Frames) rekonstruierbar ist. Bit. Kleinste digitale Informationseinheit, die aus den Werten 1 oder 0 bestehen kann. 8 Bit bilden ein oByte. oDatenübertragungsraten werden in Bit pro Sekunde (Bits/s) angegeben, Speicherkapazitäten in Byte.
214
8 Glossar
BitTorrent. Übertragungsverfahren für große Dateien, z.B. Videos, in oPeerto-Peer-Netzwerken. Dabei werden die Dateien in viele kleine Einheiten aufgeteilt. Jeder Teilnehmer, bei dem mindestens eine vollständige Einheit einer zu verteilenden Datei vorliegt, stellt diese automatisch anderen Teilnehmern zum Download zur Verfügung. Dadurch verteilt sich die Belastung des verwendeten Netzes: Statt dass alle Interessenten auf einen zentralen Server zugreifen müssen, stehen ihnen zahlreiche Quellen zur Verfügung. Blu-Ray Disc. DVD-Nachfolgeformat, das durch Verwendung feiner, blauvioletter Laserstrahlen besonders große Datenmengen (ab 27 GB) auf einer Disc speichern und schnell (bis 35 Mbit/s) auslesen kann. Konkurriert mit der oHD-DVD. Ausgestattet mit starkem oDigital Rights Management. Bouquet. Zusammenstellung einer Gruppe verschiedener Fernsehsender zu einem kommerziellen bzw. öffentlich-rechtlichen Gesamtangebot oder deren Bündelung zu einem oMultiplex. Broadcast. oRundfunk. Gleichzeitige Ausstrahlung eines Inhaltes an eine beliebige, unbegrenzte Anzahl von Empfängern. Wer Rundfunk veranstaltet, benötigt eine Sendelizenz der Landesmedienanstalten. Broadcaster. Rundfunkveranstalter. Byte. Digitale Informationseinheit, die aus 8 oBit besteht und z.B. ein Zeichen (Buchstabe, Zahl, Symbol) darstellen kann. Speicherkapazitäten werden in Byte gemessen, oDatenübertragungsraten dagegen in Bit pro Sekunde (Bit/s). Client. Gerät, das zur Erfüllung seiner Aufgaben auf einen zentralen Datenbestand und ggf. auch auf externe Rechenleistung in einem über Leitungen angeschlossenen oServer zugreift. Beim Surfen im Internet ist z.B. der PC des Nutzers der Client, während der Rechner, der die Web-Seite ausliefert, als Server fungiert. Codec. Zusammengesetzt aus o (En-)Coder und oDecoder. Verfahren zur Datenreduktion von digitalem Videomaterial, z.B. oMPEG-4 oder oXviD. Common Interface. CI. Schnittstelle eines Empfangsgerätes, an die ein beliebiges oConditional Access Module angeschlossen werden kann. Conditional Access. An eine Bedingung (z.B. ein Abonnement) geknüpfter Zugang zu einem Inhaltsangebot, der durch Verschlüsselung der Inhalte nicht autorisierte Nutzer ausschließt. Conditional Access Module. CAM. Komponente von Empfangsgeräten, die zur Entschlüsselung von Signalen dient, deren Nutzung von einer speziellen Autorisierung (meist durch eine oSmartcard) abhängig ist. Jedes Verschlüsselungssystem verwendet ein spezifisches CAM.
8 Glossar
215
Containerformat. Standardisierter Behälter für eine oder mehrere verschiedenartige Dateien, z.B. für Videodaten und die zugehörigen Tonspuren. Um einen solchen Container (z.B. oAVI oder oMXF) zu speichern oder zu übermitteln, ist es nicht notwendig, seinen Inhalt öffnen oder verarbeiten zu können; daher eignet er sich zum plattformübergreifenden Datenaustausch. Datenkompression. Im Gegensatz zur oDatenreduktion verlustfreie Verkleinerung der Größe einer Datei durch die Anwendung statistischer Verfahren und die Zusammenfassung von Redundanzen. Die Ausgangsdatei kann jederzeit vollständig wiederhergestellt werden. Datenrate. oDatenübertragungsrate. Datenreduktion. Im Gegensatz zur oDatenkompression verlustbehaftete Verkleinerung der Größe einer Datei durch die Eliminierung weniger wichtiger Informationsbestandteile und ggf. die Anwendung mathematischer Verfahren zur Beschreibung der Datei-Inhalte. Datenreduktion wird (wie bei den oJPEG- und oMPEG-Verfahren) vor allem bei Video- und Audio-Materialien eingesetzt, da viele feine Nuancen z.B. der Helligkeit oder Farbe, von der menschlichen Wahrnehmung gar nicht erkannt werden. Datenübertragungsrate. Menge der in einem bestimmten Zeitraum auf einer Verbindung übertragbaren Daten, üblicherweise angegeben in oBit pro Sekunde (Bit/s). Speicherplatz wird dagegen in oByte gemessen. Decoder. Elektronische Einrichtung, die aus odatenreduziert gespeichertem Videomaterial darstellbare Bilder rekonstruiert. Deinterlacing. Verarbeitung von Bildmaterial, das mit dem oZeilensprungverfahren aufgenommen worden ist, für die Darstellung auf Flachbildschirmen. Beim Deinterlacing wird mit unterschiedlichen Methoden aus den zwei Halbbildern ein vollständiges Gesamtbild (oFrame) erzeugt. Digital Rights Management. DRM. Weiterentwicklung des oKopierschutzes. Komplexe Lösung zur Verwaltung von Rechten an Inhalten aller Art, die durch den Einsatz spezieller Hard- und/oder Software kontrolliert, wer einen Inhalt wie oft und in welchem Zeitraum nutzen darf, und mit Hilfe welcher Endgeräte dies geschieht. DivX. Mit oMPEG-4 verwandtes Verfahren zur starken Datenreduktion von Videomaterial, vor allem für den Einsatz im Internet. DMB. Digital Multimedia Broadcasting. Standard für die Übertragung von Videodiensten auf mobile Endgeräte, der eine Weiterentwicklung des digitalen Hörfunk-Standards DAB (Digital Audio Broadcasting) darstellt. Konkurriert mit der Mobil-Broadcasting-Variante von oDVB. DRM. oDigital Rights Management.
216
8 Glossar
DVB. Digital Video Broadcasting. Standard für die Übertragung von digitalem Fernsehen über Kabel, Satellit oder oTerrestrik sowie für verschiedene damit verbundene Zusatzdienste, darunter z.B. oService-Informationen und oMHP. DVD. Digital Versatile Disc. Digitales optisches Speichermedium mit Speicherkapazität ab 4,7 GB. Video-DVDs arbeiten mit dem Datenreduktionsstandard oMPEG-2. DVR. Digital Video Recorder. oPersonal Video Recorder. Electronic Program Guide. EPG. Elektronische Programmzeitschrift. Umfangreiche Datenbank mit Programminhalten, Anfangszeiten, Programmquellen und weiteren oMetadaten, die mit Hilfe verschiedenster Endgeräte genutzt werden kann. Einfache EPGs beschränken sich auf die Anzeige ausgewählter Basisdaten, z.B. des Titels einer gerade laufenden Sendung, höher entwickelte Varianten bieten zahlreiche Komfortfunktionen wie Suche nach Programminhalten, Lernfähigkeit, Programmierung von Videorecordern etc. Encoder. Elektronische Einrichtung zur oDatenreduktion von Videomaterial nach Standards wie z.B. oMPEG oder oAVC. EPG. oElectronic Program Guide. Field. Halbbild bei Videomaterialien, die nach dem oZeilensprungverfahren aufgenommen worden sind. Frame. Einzelbild bei Fernsehsendungen, Videos und Filmen. Kinofilm arbeitet mit 24 Frames pro Sekunde, das europäische Fernsehen mit 25 Frames, das amerikanische mit 30 Frames. Bei Digitalvideos sind auch viele andere Einzelbild-Raten möglich. Im Auge des Betrachters erscheinen die schnell aufeinanderfolgenden Standbilder als durchgehende Bewegung. Free-TV. Für den Zuschauer gratis empfangbares Fernsehen, das sich in der Regel durch den Verkauf von Werbezeiten finanziert. Gegensatz: oPayTV. Frequenzband. Ausschnitt aus dem gesamten existierenden Frequenzspektrum, der für eine bestimmte technische Anwendung genutzt wird, z.B. für die Übertragung von Fernsehprogrammen. GOP. Group of Pictures. Bei datenreduzierten Videomaterialien die Anzahl derjenigen Einzelbilder (oFrames), die aufeinander Bezug nehmen. Je größer die GOP, desto stärker ist die oDatenreduktion und desto mehr technischer Aufwand ist erforderlich, um die Bilder darzustellen oder zu bearbeiten.
8 Glossar
217
Grundverschlüsselung. Verschlüsselte Ausstrahlung auch von Free-TV-Programmen. Ziel ist es, auch die Seher von frei empfangbaren Sendern zum Besitz einer oSmartcard zu zwingen, um deren Empfangsgeräte oadressierbar zu machen und eine Vertragsbeziehung mit den Nutzern aufzubauen. H.264. Verfahren zur starken Datenreduktion von Videomaterial auf der Basis von oMPEG-4, meist synonym mit oAVC. HD-DVD. DVD-Nachfolgeformat, das durch Verwendung feiner, blauvioletter Laserstrahlen besonders große Datenmengen (ab 15 GB) auf einer Disc speichern und schnell (bis 36 Mbit/s) auslesen kann. Konkurriert mit der oBlu-Ray Disc. Ausgestattet mit starkem oDigital Rights Management. HD-SDI. High Definition Serial Digital Interface. Schnittstellenstandard zwischen professionellen digitalen Geräten in der oHDTV-Fernsehproduktion mit einer Datenrate bis 1,5 Gbit/s. HDTV. High Definition Television. Fernsehen mit einer gegenüber dem herkömmlichen Fernsehen (oSDTV) bis zu fünfmal höheren Auflösung und einem Breitbild-Seitenverhältnis von 16:9. Dadurch ist die Wiedergabe von Videomaterial mit erheblich mehr Details, besserer Schärfe und brillanteren Farben möglich. Das europäische System arbeitet mit 1.080 Zeilen zu je 1.920 oPixeln, das amerikanisch-japanische System mit 720 Zeilen à 1.280 Pixel. HFC-Netz. Hybrid Fiber-Coaxial-Netz. Telekommunikationsnetz, das aus einer Kombination von Kupferkabeln und Glasfaserverbindungen besteht. Dabei stellt das Kupferkabel als oTeilnehmeranschlussleitung meist die Verbindung zum Endkunden her, während die Glasfaser den oBackbone des Netzes bildet. I-Frame. Intra Coded Frame. Mit dem oJPEG-Verfahren datenreduziertes Einzelbild, das als Referenz für benachbarte Bilder vollständig gespeichert wird. Bei den nachfolgenden oP-Frames bzw. den vorhergehenden und folgenden oB-Frames werden nur die Unterschiede zum I-Frame gespeichert. iMP. Interactive Media Player. Proprietäre Download- und Abspiel-Software der BBC für deren oVideo-on-Demand-Dienst. Interlacing. oZeilensprungverfahren. IP. Internet Protocol. oPaketbasiertes Datenübertragungsverfahren für Netzwerke.
218
8 Glossar
IPTV. Internet Protocol Television. Über das Internet ausgestrahlte Fernsehprogramme. Im Gegensatz zum oVideo-on-Demand werden die Inhalte nicht auf ausdrückliche Auswahl und Anforderung des Nutzers übertragen, sondern der Zuschauer kann sich lediglich in eine laufende Übertragung einschalten. iTunes. Proprietäre Abspiel- und Verwaltungssoftware für Audio-Dateien von Apple. JPEG. Joint Photographic Experts Group. Verfahren zur oDatenreduktion von Einzelbildern, bei dem vor allem solche Bildinformationen gelöscht oder vereinheitlicht werden, deren Fehlen der menschlichen Wahrnehmung nicht oder nicht allzu störend auffällt. Kanal. Festgelegtes oFrequenzband, auf dem ein analoger Fernsehsender oder ein digitaler oMultiplex übertragen wird. KEK. Kommission zur Ermittlung der Konzentration im Medienbereich. Organ der Landesmedienanstalten, das die Aufgabe hat, den Markt der elektronischen Medien daraufhin zu prüfen, ob eine nach dem oRundfunkstaatsvertrag unzulässige Zusammenballung von Meinungsmacht entsteht oder vorliegt. Sendelizenzen für TV-Veranstalter dürfen in der Regel nur nach Freigabe durch die KEK erteilt werden. Kopierschutz. Hardware- oder Software-basierte Einrichtung, die das Kopieren von urheberrechtlich geschützten Inhalten verhindert. Ein weiteres oDigital Rights Management ist mit Kopierschutz nicht notwendigerweise verbunden, aber umgekehrt enthält DRM fast immer auch Maßnahmen zum Kopierschutz. Landesmediengesetze. Aufgrund der Kulturhoheit der Bundesländer sind diese auch für die Medien zuständig. In den Landesmediengesetzen schaffen sie die rechtlichen Rahmenbedingungen für die Zulassung und den Betrieb von Fernseh- und Hörfunksendern und stellen teilweise programminhaltliche Mindestanforderungen. Lean-Forward/Lean-Backward. Beschreibung der unterschiedlichen Nutzungssituationen bei verschiedenen Medien. Der PC ist ein Lean-ForwardMedium, da der Nutzer mit Hilfe von Tastatur und Maus aktiv und komplex mit dem Gerät interagiert, während das Fernsehen ein Lean-Back-Medium ist, welches in entspannter Haltung und mit einem Minimum an Bedienungsaufwand genossen wird. Leitungsvermittlung. Schaltung einer exklusiven Verbindung zwischen zwei oder mehr Teilnehmern, deren Kapazität auch dann zur Verfügung steht, wenn gar keine Informationen übertragen werden (z.B. wenn ein Gesprächspartner schweigt). Gegensatz: oPaketvermittlung.
8 Glossar
219
Major Studios. Große, den Weltmarkt für Film- und Fernsehproduktionen dominierende Unternehmen der US-Unterhaltungsindustrie, die überwiegend in Los Angeles angesiedelt sind, unter anderem Universal, Warner Bros., Paramount, Sony Pictures, Twentieth Century Fox, Disney und MetroGoldwyn-Mayer. MAZ. Magnetaufzeichnung. Sammelbegriff für Verfahren zur Speicherung von Daten (vor allem Videomaterial) auf Bändern und Bandkassetten. Mbit/s. Datenübertragungsleistung in Megabit bzw. 1.048.576 oBit pro Sekunde. MByte. MB. Datei- oder Speichergröße in Megabyte bzw. 1.048.576 oByte. Mediendienst. Elektronisches Medienangebot, das im Gegensatz zum oRundfunk entweder lediglich dem Verkauf von Waren oder Dienstleistungen dient (oTeleshopping) oder das seine Programminhalte nur auf ausdrückliche Bestellung oder Anforderung des Nutzers ausliefert, z.B. oVideo-onDemand. Anders als oRundfunk benötigt ein Mediendienst keine Sendelizenz der Landesmedienanstalten. Mediendienstestaatsvertrag. MDStV. Staatsvertrag der Bundesländer, welcher die Rahmenbedingungen für die Veranstaltung von oMediendiensten regelt. Metadaten. Beschreibende Informationen aller Art über Inhalt, Herkunft, Verwendungszweck und sonstige Eigenschaften von Videomaterial. Ein Standard hierfür ist oMPEG-7. MHP. Multimedia Home Platform. Auf der Software-Plattform Java basierende, im oDVB-Standard festgelegte einheitliche oMiddleware für interaktive Anwendungen auf oSet-Top-Boxen und anderen digitalen Endgeräten. Middleware. Betriebssystem von Set-Top-Boxen und anderen digitalen Endgeräten. Die Middleware erlaubt die Ausführung von Anwendungen aller Art auf der Hardware des entsprechenden Gerätes, auch wenn diese Anwendung von Dritten programmiert wurde. Modulator/Demodulator. Modem. Elektronische Einrichtung, die ein Nutzsignal auf eine Trägerfrequenz schreibt bzw. es am Bestimmungsort wieder ausliest. Der Träger wird durch diesen Prozess moduliert, d.h. verändert. MOV. Verbreitetes oContainerformat für digitale Videos im Apple-Standard Quicktime.
220
8 Glossar
MPEG. Motion Picture Experts Group. MPEG-1, MPEG-2 und MPEG-4 sind Verfahren zur Datenreduktion von bewegten Bildern. Dabei werden innerhalb einer oGroup of Pictures in frei definierbaren Abständen zuvor mit JPEG datenreduzierte oI-Frames vollständig gespeichert, während bei allen dazwischenliegenden Bildern nur die Unterschiede zu einem oder mehreren benachbarten I-Frames gespeichert werden müssen. MPEG-4 und die daraus abgeleiteten Standards wie oH.264, oAVC, oDivX und oXviD setzen zusätzlich noch mathematische Verfahren zur Analyse der Bildinhalte ein und erreichen dadurch eine sehr starke Datenreduktion bei hoher Bildqualität. MPEG-7 ist ein Standard für oMetadaten zu Videomaterialien. Multicast. Verfahren zur effizienten gleichzeitigen Übertragung eines Inhaltes über das Internet an eine sehr große Anzahl von Nutzern. Dabei wird der Datenstrom an den Netzknotenpunkten jeweils kopiert, so dass nicht jeder Nutzer eine eigene direkte Verbindung zur ursprünglichen Quelle der Daten aufbauen muss. Multicrypt. Ausstattung eines Empfangsgerätes mit mehreren verschiedenen Entschlüsselungssystemen. Multiplex. Ausstrahlung mehrerer separater Fernsehprogramme über einen gemeinsamen oKanal. Dies wird durch Aufteilung des Kanals in mehrere Datenströme erreicht, die entweder parallel zueinander (Frequenzmultiplex) oder in kurzer zeitlicher Abfolge (Zeitmultiplex) nacheinander übertragen werden. Multiplexer/Demultiplexer. Elektronische Einrichtung, die mehrere Datenströme in einem oKanal zusammenfasst bzw. die verschiedenen Signale am Bestimmungsort wieder voneinander trennt und einzeln weiterverarbeitet. MXF. Material Exchange Format. Verbreitetes oContainerformat für digitale Videos in der professionellen Fernsehtechnik. Netzwerkeffekt. Sich selbst automatisch verstärkendes Massenphänomen. Wenn z.B. eine Mehrheit der Freunde und Bekannten ein Handy besitzt, kann man selbst kaum noch anders, als sich ebenfalls eines anzuschaffen. NTSC. National Television Standards Committee. US-amerikanische Farbfernsehnorm für oSDTV mit 525 Zeilen und einer Bildwechselfrequenz von 60 Hz. P2P. oPeer-to-Peer. Paketvermittlung. Im Gegensatz zur oLeitungsvermittlung werden die Ressourcen des Telekommunikationsnetzes von einer Verbindung nicht exklusiv belegt. Stattdessen werden die Informationen in einzelne Datenpakete aufgeteilt, die dann selbständig ihren Weg zum Zielort finden.
8 Glossar
221
PAL. Phase Alternating Line. Europäische Farbfernsehnorm für oSDTV mit 625 Zeilen und einer Bildwechselfrequenz von 50 Hz. Pay-per-Channel. Abonnement für ein TV-Programm, bei dem der pauschal erworbene Kanal beliebig häufig genutzt werden kann. Pay-per-View. Bezahlung für eine einzelne Fernsehsendung, die nur einmal oder ggf. mehrfach innerhalb eines eng begrenzten Zeitfensters genutzt werden kann. Pay-TV. Fernsehen gegen direkte Bezahlung. Gegensatz: oFree-TV. Peer-to-Peer. Übertragungsverfahren für Inhalte in einem Netzwerk aus gleichberechtigten Partnern. Dabei fungiert jeder Teilnehmer zugleich als Server und Client, d.h. als Datenquelle und Datenbezieher wie z.B. bei oBitTorrent. Vorteile sind eine gleichmäßige Verteilung der Netzauslastung und die Verfügbarkeit zahlreicher Fundstellen für einen gewünschten Inhalt. Personal Video Recorder. PVR. Festplattenbasierter Videorecorder mit sehr großer Speicherkapazität, grafischer Benutzeroberfläche und zusätzlichen Service- und Komfort-Funktionen wie oEPG, zeitversetztes Fernsehen, Lernfähigkeit, schnelles Überspringen von Werbeinseln usw. PVRs können als selbständige Geräte auftreten oder als Funktionalität in andere Endgeräte wie oSet-Top-Boxen, Computer oder Fernsehapparate eingebaut sein. P-Frame. Predictive Coded Frame. Datenreduziertes Video-Einzelbild, das nur durch seinen Bezug zu einem vorhergehenden vollständigen Referenzbild (oI-Frame) rekonstruierbar ist. Pixel. Picture Element. Die elektronische Bildverarbeitung löst Bilder in einzelne Rasterpunkte auf, die bei Farbbildern jeweils aus drei Farbpunkten in den Farben rot, grün und blau bestehen. Die Anzahl der Pixel bestimmt die Auflösung, d.h. die erkennbaren Details und die Schärfe der Wiedergabe. Ein PAL-Fernsehbild hat rund 400.000 Pixel, ein HDTV-Bild in 1.080Zeilen-Auflösung rund 2,1 Mio. Postproduktion. Nachbearbeitung. Alle Schritte der Bearbeitung zwischen der eigentlichen Aufnahme des Bild- und Tonmaterials bis zum fertigen Beitrag, d.h. unter anderem Schnitt, Vertonung, Tonmischung, Grafik usw. Professional Disc. Variante der oBlu-Ray Disc als leistungsfähiges Aufnahmemedium für den Einsatz in der professionellen Fernsehtechnik, vor allem in tragbaren Kameras.
222
8 Glossar
Progressive Abtastung. Auch oProgressive Scan. Bei diesem Verfahren wird jedes Einzelbild im Gegensatz zum oZeilensprungverfahren vollständig aufgenommen, gespeichert und angezeigt. Es eignet sich vor allem für Flachbildschirme, die ausschließlich nach dieser Methode funktionieren, und sorgt für einen gesättigten, „filmischen“ Bildeindruck. Fernsehgeräte mit Röhrenbildschirm sind nicht in der Lage, progressive Bildinformationen darzustellen. Progressive Scan. oProgressive Abtastung. Punkt-zu-Punkt-Verbindung. Übermittlung von Daten an einen bestimmten Adressaten. Auch oUnicast. Push/Pull. Art der Lieferung von Daten. Push-Daten werden ohne Zutun des Empfängers an diesen übertragen, Pull-Daten hingegen nur auf ausdrückliche Anforderung hin. Herkömmliches Fernsehen ist ein Push-Medium, das Word Wide Web dagegen ein Pull-Medium. PVR. oPersonal Video Recorder. Receiver. Im Unterschied zu einem oTuner empfängt ein Receiver eine Übertragung nicht nur, sondern verarbeitet das Signal auch weiter, z.B. indem er es verstärkt oder einen Bildschirm ansteuert. Receiver können als selbständige Geräte auftreten, sind aber oft auch Bestandteil größerer Endgeräte. Bei selbständigen digitalen Receivern spricht man meist von oSet-TopBoxen. Rundfunk. oBroadcast. Rundfunkstaatsvertrag. RfSTV. Staatsvertrag der Bundesländer, welcher die Rahmenbedingungen für die Veranstaltung von bundesweitem oder länderübergreifendem oRundfunk regelt und insofern über die oLandesmediengesetze hinausgeht. Er bestimmt unter anderem die Finanzierung des öffentlich-rechtlichen und privaten Rundfunks, soll die Zusammenballung von Meinungsmacht verhindern und schreibt Richtlinien für die Werbung vor. Scrambler/Descrambler. Elektronische Einrichtung, die Nutzsignale verschlüsselt bzw. am Bestimmungsort wieder entschlüsselt. Zur Verwendung ist eine spezielle Autorisierung erforderlich, die meist in Form einer oSmartcard vorliegt. SDI. Serial Digital Interface. Schnittstellenstandard zwischen professionellen digitalen Geräten in der oSDTV-Fernsehproduktion mit einer Datenrate bis 270 oMbit/s. SDTV. Standard Definition Television. Herkömmliches Fernsehen mit niedriger Bildauflösung in den Normen oPAL oder oNTSC.
8 Glossar
223
Service-Informationen. SI. Im oDVB-Standard festgeschriebene Mindestanforderung an oMetadaten, die mit dem Sendesignal eines TV-Anbieters übertragen werden müssen, unter anderem der Name des Senders, der Titel der Sendung, deren Anfangszeit und Informationen über die nachfolgenden Programmpunkte. Server. Netzwerkrechner. Gerät, das dafür konstruiert ist, den auf ihm gespeicherten Datenbestand und seine Rechenleistung einer Vielzahl von über Leitung angeschlossenen anderen Geräten (oClients) zur Verfügung zu stellen, z.B. im Internet. Set-Top-Box. Allgemein ein Empfangsgerät für digitales Fernsehen, das unter Umständen mit Zusatzfunktionen ausgestattet sein kann, aber nicht muss, darunter z.B. oPersonal Video Recorder, oEPG, interaktiven Anwendungen etc. Set-Top-Boxen dienen in der Regel dazu, digital empfangene Signale für andere Endgeräte aufzubereiten. Simulcast. Parallele Ausstrahlung eines Senders sowohl in analoger als auch in digitaler Form. Simulcrypt. Ausstrahlung eines Signals mit mehreren verschiedenen Verschlüsselungsinformationen gleichzeitig, damit es von unterschiedlich ausgestatteten Empfängern entschlüsselt werden kann. Skalierung. Anpassung eines Videobildes an die Größe des jeweiligen Bildschirms durch rechnerische Vergrößerung oder Verkleinerung. Skalierung ist immer dann notwendig, wenn auf einem Flachbildschirm ein Bild angezeigt werden soll, das nicht in der nativen oPixelanzahl des Bildschirms vorliegt. Da Vergrößerungen nur durch Interpolation, d.h. das künstliche Hinzufügen von Bildinformationen möglich ist, leidet die Bildqualität. Smartcard. Chipkarte, welche als technischer Berechtigungsausweis für den Empfang verschlüsselter Signale dient. Sie wird in oConditional-AccessModule eingesteckt, und mit Hilfe des auf ihr enthaltenen Schlüssels und ihrer Identifikationsdaten kann der oDescrambler einer oSet-Top-Box oder eines anderen oReceivers die gesendeten Informationen entschlüsseln. Smartcards können aus der Ferne oadressiert, d.h. durch einen mit dem Sendesignal mitgelieferten Impuls freigeschaltet oder gesperrt werden. Splitscreen. Aufteilung der Bildschirmoberfläche in mehrere Teilsegmente, die für die Darstellung unterschiedlicher Inhalte genutzt werden, z.B. Programm und Werbung. Streaming. Übermittlung von Videomaterial an einen Empfänger in (zumindest annähernder) Echtzeit, z.B. bei Live-Übertragungen oder in Fällen, in denen der Nutzer das Material nicht auf seinem eigenen Gerät speichern kann oder darf.
224
8 Glossar
Superdistribution. Verfahren, bei dem die Empfänger bzw. Nutzer eines Inhaltes diesen zugleich auch andere Interessenten weiterverteilen, z.B. in oPeer-to-Peer-Netzwerken. Switching. Begriff für das gleichzeitige Ansehen mehrerer Sendungen auf verschiedenen Kanälen durch ständiges Hin- und Herschalten. TAL. oTeilnehmeranschlussleitung. T-Commerce. Verkauf von Waren oder Dienstleistungen über das Fernsehgerät, im Unterschied zum oTeleshopping meist durch direkte Interaktion mit Hilfe der Fernbedienung. Teilnehmeranschlussleitung. Leitung, die von der nächstgelegenen Ortsvermittlungsstelle oder Kabelkopfstation direkt in den Haushalt eines Kunden führt, meist in Form eines Kupferkabels. Teleshopping. Verkauf von Waren oder Dienstleistungen mit Hilfe von Fernsehprogrammen, wobei der Kunde im Unterschied zum oT-Commerce zwecks Bestellung zum Telefon greifen muss. Teletext. Grafisch sehr einfacher Zusatz-Informationsdienst, der gemeinsam mit dem analogen Sendesignal von Fernsehsendern übertragen wird. Terrestrik. Ausstrahlung von Fernseh- oder Hörfunksendungen oder anderen Diensten über Funkfrequenzen von erdgebundenen Sendemasten aus. Der Empfang erfolgt über einfache Antennen. Transaktionsfernsehen. Mitmach-Fernsehen, bei dem die Zuschauer aufgefordert sind, sich durch Anrufe oder SMS zu kostenpflichtigen Premium-Rufnummern direkt an einer Sendung zu beteiligen, vor allem bei Ratespielen. Transponder. Zusammengesetzt aus Transmitter und Responder. Eine elektronische Einrichtung, die ein Signal empfängt und dieses entweder automatisch weiterleitet oder eine Antwort sendet, z.B. bei Fernsehsatelliten. Diese werden von der Erde aus mit einem Signal beliefert, das sie dann umgehend an ein großes Sendegebiet übertragen. Triple Play. Begriff für das Angebot von Festnetz-Telefonie, Internet-Zugang und Fernsehen über einen einzigen Anschluss, z.B. das Telefonkabel oder das Fernsehkabel. Tuner. Empfangsgerät, das im Gegensatz zum oReceiver über den eigentlichen Empfang von Signalen hinaus keine weiteren Fähigkeiten besitzt. Die empfangenen Daten werden zur Weiterverarbeitung an andere Geräte oder elektronische Komponenten übermittelt. Tuner können als selbständige Geräte auftreten oder lediglich Bestandteil größerer Apparate sein. TV-Anytime. oMetadaten-System zur umfassenden Beschreibung und praktischen Verwendung von Fernseh-Inhalten.
8 Glossar
225
UMTS. Universal Mobile Telecommunications System. Mobilfunkstandard der dritten Generation, der höhere Datenraten ermöglicht und sich deshalb unter anderem für mobile Internet-Zugänge oder die Übertragung von Videomaterial auf Handys eignet. Unicast. Übermittlung von Daten an einen bestimmten Adressaten. Auch oPunkt-zu-Punkt-Verbindung. Usability. Benutzerfreundlichkeit und Ergonomie von Geräten und Software. VDSL. Very High Speed Digital Subscriber Line. Technik für Internet-Zugänge über Telefonleitungen mit oDatenraten bis 100 oMbit/s. Video-on-Demand. Auslieferung eines Videos an einen Nutzer auf dessen ausdrückliche Anforderung und zu einem beliebigen, vom Nutzer bestimmten Zeitpunkt. Meist gegen Zahlung eines Kauf- oder Mietpreises für die jeweilige Sendung. Virtuelle Werbung. Tricktechnische Einfügung von Werbung in den Inhalt von Fernsehprogrammen, z.B. Austausch von Plakatwänden in einem Film durch aktuelle oder landestypische Produktwerbung, oder die Einblendung von Werbebotschaften auf den Rasen eines Fußballfeldes etc. VoD. oVideo-on-Demand. VoIP. Voice-over-IP. Vermittlung von Telefongesprächen über das Internet, d.h. unter Umgehung der herkömmlichen Telefonnetze. WiMAX. Worldwide Interoperability for Microwave Access. Dem oWLAN verwandte Funktechnik mit einer Reichweite von mehreren Dutzend Kilometern, die sich für breitbandige Internet-Zugänge in weniger dicht besiedelten Regionen eignet, in denen die Installation eines DSL-Netzes unrentabel wäre. WLAN. Wireless Local Area Network. Funktechnik zur breitbandigen Netzwerkanbindung von Geräten innerhalb eines Haushaltes oder einer Firma mit einer Reichweite von bis zu 80 Metern. WMV. Windows Media Video. Verbreitetes oContainerformat für digitale Videos im Microsoft-Standard. XviD. Mit oMPEG-4 verwandtes Verfahren zur starken Datenreduktion von Videomaterial, vor allem für den Einsatz im Internet. Open-SourceWeiterentwicklung von oDivX. Zapping. Begriff für die Suche des Zuschauers nach einem ihn in der aktuellen Situation gerade besonders befriedigenden Fernsehprogramm bzw. Programmfragment durch ständiges Wechseln des Kanals. Zapping-Box. Einfache oSet-Top-Box ohne oConditional Access Module, d.h. ohne die Fähigkeit zur Entschlüsselung von Videomaterial.
226
8 Glossar
Zeilensprungverfahren. Auch oInterlacing. Verfahren, bei dem jedes Einzelbild (oFrame) in zwei Halbbilder aufgeteilt wird, die unmittelbar nacheinander aufgenommen und auf Röhrenbildschirmen wiedergegeben werden. Die beiden Halbbilder sind kammartig ineinander verschachtelt. Dadurch erreicht man ein flimmerfreies Bild und eine gute Auflösung von Bewegungen. Flachbildschirme können jedoch keinen Zeilensprung darstellen, sondern müssen entsprechend angeliefertes Videomaterial zuerst odeinterlacen. Gegensatz: oProgressive Abtastung.
8 Glossar
227
Register
3G............................................... 42 9live ................................. 124, 151 Abonnement............................... 59 Abwärtskompatibilität ............... 61 Adressierbarkeit........ 81, 103, 120, 127 ADSL ................................. 39, 174 AGF ......................................... 128 AGF/GfK-Fernsehforschung ... 131 Aggregation ............................. 132 AGOF .............................. 135, 140 Amplitude .................................. 63 Amplitudenmodulation .............. 64 API ........................................... 107 Apple........................................ 194 Arbeitsgemeinschaft Fernsehforschung................. 128 Archivierung .............................. 27 Arcor .......................................... 92 ARD digital................................ 78 ARPU......................... 76, 182, 184 Artefakte .................................... 15 Astra....................... 11, 38, 68, 174 Audience Flow......................... 142 Audio-on-Demand ..................... 39 Ausleuchtzone............................ 66 AVC ........................................... 20 AVI ............................................ 21 Backbone ................................... 90 Bandbreite............................ 32, 64 BBC ......................................... 171 Begleitmedium......................... 146 Benutzerprofil ............................ 62 Bestands- und Entwicklungsgarantie .......... 169
Betacrypt .................................. 102 Betriebssystem ........... 94, 106, 194 B-Frame ..................................... 17 Bildfrequenz................. 44, 47, 112 Bitratenmanagement .................. 67 BitTorrent................................... 32 Blockzwang.............................. 162 Bluescreen................................ 181 Bluetooth.................................. 126 Blu-Ray Disc.............. 28, 113, 193 Bouquet ................ 38, 79, 128, 186 Breitbandvermittlungsnetz......... 76 Breitbandverteilnetz ................... 74 Broadcasting............................... 31 BSkyB ...................................... 159 Bundesnetzagentur ................... 206 Buy-Out.................................... 151 Canal+ ...................................... 159 Casting-Shows ......................... 145 CD .............................................. 55 CD-Brenner................................ 55 CD-Player................................... 56 Central Processing Unit ........... 106 Client .................................... 32, 59 Cluster ........................................ 77 Clutter............................... 140, 144 CNN ......................................... 155 Codec ................................. 20, 105 Common Interface.... 100, 104, 175 Compact Disc............................. 55 Computerchip..................... 94, 105 CONAX ................................... 102 Conditional Access Module..... 102 Conditional Access System...... 102
228 Consumer Electronics..... 109, 192, 208 Containerformat......................... 21 Content-Aggregatoren .... 137, 147, 185 Couch Potato............................ 210 Cryptoworks ............................ 102 Datenfusion.............................. 136 Datenkompression ..................... 14 Datenreduktion .......................... 13 Datenschutz........................ 61, 135 d-box .......................................... 99 Decoder.............................. 18, 100 Deinterlacer.............................. 113 Demodulator ............................ 100 Demultiplexer .................... 67, 100 Descrambler ............................. 102 Deutsche Bundespost................. 72 Deutsche Telekom ........ 42, 68, 73, 86, 91, 183 Digital Betacam ......................... 16 Digital Rights Management..... 53, 135, 194, 206, 208 Digitalisierung ........................... 26 Digitalreceiver ........................... 98 Direct-to-Household .................. 67 direkter Lizenzerwerb................ 59 Distribution ........................ 30, 149 Distributionskosten .................. 173 Diversifikation ................. 147, 201 DivX........................................... 20 DMB ............................ 36, 88, 191 Doku-Soap ............................... 145 Downlink ................................... 68 DRM .......................................... 53 DSL............................................ 39 duales System .......................... 200 DVB ........................................... 35 DVB-C ....................................... 35 DVB-H......................... 35, 87, 191
Register
DVB-S........................................ 35 DVB-T ......... 35, 83, 169, 201, 205 DVCPRO ................................... 16 DVD ......... 16, 17, 18, 28, 172, 178 DVD-Brenner............................. 57 DVD-Player ............................. 141 DVD-Recorder ........................... 57 Early Adopter............. 96, 160, 193 Echtzeit-Fernsehkonsum.......... 144 EDL ............................................ 26 Einspeisungskosten ............ 75, 173 Electronic Program Guide......... 85, 117, 129, 195 embedded Conditional Access. 104 Empfangsebene ............ 36, 84, 168 Encoder ...................................... 18 Endgeräte ........... 93, 189, 195, 206 EPG ............................ 85, 117, 129 Eutelsat....................................... 68 FairPlay ...................................... 58 Fernsehkanal .............................. 64 Fernsehnutzung ........................ 139 Fernsehproduktion ................... 181 Fernsehwerbung ....................... 209 Festnetz .................................... 188 Festplatte .................................... 25 Festplatten-Videorecorder.......... 27 Field ................................... 44, 113 Flachbildschirm.................. 44, 109 Flash-Speicher............................ 29 Focus TV.................................. 157 Fragmentierung ........................ 131 Frame ........................... 16, 44, 112 Frankreich ................................ 158 Free-TV .................................... 137 Freeview................................... 159 Freischaltung............................ 103 Frequenz..................................... 63 Frequenzband ....................... 37, 64 Frequenzmodulation .................. 64
Register
Frequenzmultiplex ..................... 67 Fußball-Bundesliga.................. 187 Gerätegenerationen .................... 97 GEZ...................................... 79, 86 GfK .......................................... 130 GfK-Meter ............................... 127 GOP ........................................... 17 GPRS ................................. 42, 126 Greenscreen ............................. 181 Großbritannien......................... 158 Group of Pictures....................... 17 Grundverschlüsselung....... 81, 102, 155, 157, 174, 178, 209 Grundversorgung ............... 85, 168 GSM..................................... 42, 97 H.264.......................................... 20 Halbbild ............................. 44, 113 HD ready............................ 57, 114 HDCP......................................... 57 HD-DVD.................... 28, 113, 193 HD-SDI...................................... 22 HDTV ......... 20, 22, 45, 57, 90, 94, 111, 114, 156, 174, 182, 185 Hertz........................................... 63 HFC-Netz................................... 77 Hintergrundbeleuchtung .......... 111 Hollywood-Studios ......... 109, 148, 177, 210 Home Server ............................ 207 Hotbird ....................................... 69 HSE.......................................... 152 Hyperband.................................. 74 I-Frame ...................................... 17 IMX............................................ 18 indirekter Lizenzerwerb............. 59 interaktive Werbung ................ 165 Interaktivität............. 123, 134, 189 Interlacing .................... 44, 47, 112 Internet ....................................... 35 Interpolation............................. 113
229 IP Datacast ........................... 36, 88 IP-Telefonie ............................... 35 IPTV............................. 40, 91, 189 Irdeto ........................................ 102 iTunes......................................... 61 Jahresbuchung.......................... 140 JPEG........................................... 15 Jugendschutz ........................ 54, 62 Kabel .......................................... 71 Kabel Deutschland GmbH ........ 73, 82, 184 Kabelbelegung ........................... 78 Kabelempfang ............................ 74 Kabelgebühren ........................... 74 Kabelgroschen............................ 72 Kabelkopfstation ........................ 76 Kabelnetz-Ausbau.............. 75, 185 Kabelnetzbetreiber ........... 173, 183 Kanal .......................................... 37 Kartellrecht....................... 148, 206 Kaskadierungsverluste ............... 20 Kathodenstrahlröhre................. 110 KEF .......................................... 199 KEK ................................. 186, 203 Killer-Applikation.................... 126 Kinofilm ..................................... 44 Kinofilm-Produktion................ 151 Kommission für Jugendmedienschutz .............. 62 Kompatibilität ............................ 97 konsekutive Rezeption ............. 146 Konvergenz ................ 93, 200, 207 Kopierschutz .............................. 57 Kumulation............................... 129 Landesmedienanstalt.......... 79, 202 Layer .......................................... 28 LCD-Bildschirm....................... 111 Lean-Back ................................ 207 Lean-Forward........................... 207 Leitungsvermittlung ................... 34
230 letzte Meile ................................ 73 Liberalisierung ......................... 162 Liberty Media .......................... 184 linearer Schnitt........................... 25 Linearität.................................. 141 Lizenz......................................... 59 Lizenzerwerb ............................. 59 Lizenzhandel............................ 150 Lizenzrechte............................. 150 LNB ........................................... 70 Lokalisierung ........................... 197 Long-GOP.................................. 17 M6............................................ 152 Magnetaufzeichnung.................. 23 Markenartikelhersteller............ 133 Marketing................................. 147 Marketing-Zielgruppen............ 133 Marktanteil............................... 129 Maschinenlesbarkeit .................. 49 Matching .................................. 128 MAZ........................................... 23 Media Center ................... 108, 194 Media-Agenturen..................... 132 Mediaplanung .......................... 132 Media-Zielgruppen .................. 132 Medienaufsicht ........................ 202 Mediendienst...................... 62, 151 Medienkompetenz.................... 204 Medienkonzentration ............... 148 Medienpolitik....... 7, 162, 169, 199 Metadaten ...... 21, 48, 94, 117, 195 Metadaten-Marketing ................ 53 MHP......................................... 107 Micropayment.......... 190, 207, 210 Microsoft.......................... 108, 194 Middleware ...................... 107, 196 Mitschnitt ................................... 54 Mobile-TV ......................... 87, 191 Mobilfunk ................................ 190 Mobilfunk-Geräte ...................... 95
Register
Modem ..................................... 100 MP3 ...................................... 20, 55 MPEG......................................... 17 MPEG-1 ..................................... 19 MPEG-2 ....................... 19, 90, 193 MPEG-4 ....................... 20, 90, 193 MPEG-7 ..................................... 49 Multicasting ................... 31, 89, 91 Multicrypt................................. 104 Multiplex.............................. 66, 71 Multiplexer................................. 67 Musikindustrie ........................... 55 Must-Carry ........................... 78, 86 MXF ........................................... 21 Nagravision ...................... 102, 175 Napster ....................................... 55 native Übertragung..................... 20 Navigator.................................. 196 netzbasierte Videorecorder ..... 121, 197 Netzebenen................................. 72 Netzwerkeffekt..................... 91, 96 nichtlineares Schnittsystem....... 24, 181 Nonlinearität..................... 115, 141 Normwandlung........................... 44 NTSC ......................................... 43 Nutzungsbedingungen................ 59 Nutzungsprofil ......................... 135 Nutzungsrechte........................... 60 Öffentlich-Rechtliche....... 167, 199 Offline-Schnittsystem ................ 26 One Screen ............................... 125 Online-Schnittsystem ................. 26 Overspill..................................... 85 P2P ............................................. 32 Paketvermittlung ........................ 34 PAL ............................................ 43 Panel......................................... 127 Panel-Show .............................. 145
Register
Parabolantenne..................... 68, 69 Pay-per-View................... 103, 134 Pay-TV........ 6, 7, 9, 11, 31, 69, 78, 134, 154, 156, 164, 185, 209 PCMCIA .................................. 104 Peer-to-Peer-Netzwerk . 32, 55, 91, 120, 171, 178 Personal Computer............. 94, 105 Personal Server ........................ 207 Personal Video Recorder .......... 27, 109, 115, 129, 141, 146, 160, 166, 210 Personalisierung....................... 197 P-Frame...................................... 17 Phasenmodulation...................... 65 Piraterie...................................... 60 Pixel ................................... 45, 111 Plasmabildschirm..................... 112 Podcast ....................................... 39 Polarisation .............................. 111 Portfolio-Ergänzung ................ 152 Postproduktion................... 25, 181 Premiere ...... 79, 99, 102, 134, 175, 187 Product Placement ... 133, 143, 163 Produktion................................ 180 Produktionsfirmen ........... 149, 179 Professional Disc ....................... 29 Programmbeirat ....................... 204 Programminformationen.......... 196 Programmumfeld ..................... 140 Programmzeitschriften............. 196 progressive Abtastung ............... 44 progressive Scan ........................ 44 proprietäre Geräte ...................... 99 proprietäre Software ................ 106 ProSiebenSAT.1 ........ 79, 137, 203 Protokoll .................................... 31 Proxy-Server .............................. 41 Pull ............................................. 30
231 Punkt-zu-Punkt-Verbindung ...... 31 Push ...................................... 30, 89 PVR ............................................ 27 QPSK ......................................... 65 Quadraturamplitudenmodulation ... 65 QVC ......................................... 152 Real Video.................................. 20 Reality ...................................... 145 RealNetworks........................... 194 Regionalcode............................ 177 Relevant Set ..... 119, 131, 142, 153 Relevanz................................... 144 Röhrenbildschirm............... 44, 110 Router......................................... 31 RTL Shop................................. 151 RTL-Gruppe....................... 79, 138 Rückkanal................... 31, 124, 134 Rundfunk.................................... 31 Rundfunkanstalten ... 151, 167, 201 Rundfunkgebühren........... 170, 199 Rundfunkstaatsvertrag .... 162, 167, 202 Satelliten............................. 67, 174 Satellitenempfang............... 69, 175 Satellitenreceiver........................ 70 Scharnierwerbung .................... 164 Schleichwerbung...................... 163 Schlüssel............................. 59, 102 Schnittliste.................................. 26 Schrägspuraufzeichnung ............ 23 SD-Card ..................................... 30 SDI ............................................. 22 SDTV ................................. 22, 113 SECAM...................................... 43 Seitenverhältnis.......................... 46 Selektivseher .............................. 84 Senderfamilien ................. 137, 152 Server ................................... 32, 59 Service-Informationen ..... 108, 128
232 Set-Top-Box ..... 36, 57, 81, 85, 98 SI-Daten ................................... 108 SIM-Karte .................................. 81 Simulcast.............. 70, 81, 167, 174 Simulcrypt................................ 103 Single Source ........................... 136 Single Spot............................... 161 Skalierung ................................ 114 Sky digital ................................ 125 Smartcard ................... 81, 102, 174 SMS ........................................... 97 Sonderkanal ............................... 74 Sonderwerbeformen......... 143, 161 Spartenkanal .................... 133, 209 Special Ads .............................. 143 Spiegel TV ............................... 157 Splitscreen........................ 130, 161 Sponsoring ............................... 163 Sportschau................................ 201 Sport-Übertragungen ............... 144 Standortpolitik ......................... 205 Streaming ................................... 40 Streuverluste .................... 132, 140 Subventionen ........................... 205 Suchmaschine .......................... 119 Super RTL ............................... 154 Superdistribution................ 91, 120 Switching ................................. 122 TAL............................................ 39 Taschenbuch .............................. 53 Tauschbörsen ............................. 55 T-Commerce ............................ 124 TCP/IP-Protokoll ....................... 35 Teilnehmeranschlussleitung ..... 39, 72 Telefonnetz .............................. 188 Telekommunikationsunternehmen ........ 155, 187, 188 Terrestrik.............................. 35, 83 TFT-Bildschirm ....................... 111
Register
Titelpatronat ............................. 163 TiVo ................. 118, 142, 160, 194 Toggo ....................................... 154 Traffic......................................... 90 Träger ......................................... 63 Transaktionsfernsehen ............. 124 Transponder ............................... 68 Traumpartner TV ..................... 152 Triple Play.................... 40, 76, 182 Tuner ........................................ 100 TV-Anytime ............................... 51 TV-Produktion ......................... 180 TV-Werbung ............................ 127 Two Screens............................. 125 Übertragungskosten ............. 38, 90 UMTS...... 42, 66, 88, 89, 126, 181, 189, 191 unabhängige Dritte................... 157 Unicast ....................................... 31 Unity Media ......................... 73, 82 Unterhaltungselektronik..... 94, 109 Unterhaltungsgeräte ................. 192 Unterhaltungsindustrie ..... 148, 177 Uplink......................................... 68 USA.......................................... 178 Usability ............................... 95, 97 User Generated Content ........... 197 VDSL ......................................... 40 Verfassungsrecht...................... 199 Verschlüsselung ....................... 102 VHS...................................... 23, 54 Viaccess ................................... 102 Video-Journalist ....................... 181 Videokassette ............................. 54 Video-on-Demand....... 40, 76, 120, 134, 146, 166, 189, 210 Videorecorder............................. 54 Videoserver ................................ 26 Videothek ................................... 54 virtuelle Werbung .................... 163
Register
virtuelles Studio ....................... 181 VoD............................................ 40 Voice-over-IP ............ 35, 188, 192 VoIP ........................................... 35 Vorrangentscheidung......... 78, 173 Web 2.0.................................... 197 Wellenlänge ............................... 63 Werbemarkt ............................. 138 Werbetrenner ........................... 162 Werbeumsätze.......................... 138 Werbewirkung ......................... 140 Wertschöpfungskette ............... 147 Widerrufsliste ............................ 60 WiMAX ....................... 43, 88, 189 Windows Media DRM............... 58
233 WLAN.................................. 43, 88 WMV ......................................... 20 World Wide Web ....................... 90 XviD........................................... 20 Zahlungsbereitschaft ................ 190 Zapping ............................ 122, 142 Zapping-Box ...................... 81, 104 ZDF vision ................................. 78 Zeilensprungverfahren ........ 44, 45, 112 Zeitmultiplex.............................. 67 Zielgruppen .............................. 165 Zugangsfreiheit ........................ 195 Zweitgeräte................................. 85 Zwischenfrequenz ...................... 70