Digitale Kommunikation: Vernetzen, Multimedia, Sicherheit [1 ed.] 3540929223, 9783540929222

Mit Internet und WWW lassen sich dank modernster Netzwerktechnologien Informationen und Medien jedweder Art in digitalis

314 121 6MB

German Pages 422 [425] Year 2009

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter....Pages 1-9
Prolog....Pages 1-17
Geschichtlicher Rückblick....Pages 19-91
Grundlagen der Kommunikation in Rechnernetzen....Pages 93-160
Multimediale Daten und ihre Kodierung....Pages 161-305
Digitale Sicherheit....Pages 307-357
Epilog....Pages 359-368
Back Matter....Pages 1-51
Recommend Papers

Digitale Kommunikation: Vernetzen, Multimedia, Sicherheit [1 ed.]
 3540929223, 9783540929222

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Christoph Meinel · Harald Sack

Digitale Kommunikation Vernetzen, Multimedia, Sicherheit

123

Prof. Dr. Christoph Meinel Hasso-Plattner-Institut f¨ur Softwaresystemtechnik GmbH Prof.-Dr.-Helmert-Str. 2–3 14482 Potsdam Germany [email protected]

Dr. Harald Sack Hasso-Plattner-Institut f¨ur Softwaresystemtechnik GmbH Prof.-Dr.-Helmert-Str. 2–3 14482 Potsdam Germany [email protected]

ISSN 1439-3107 ISBN 978-3-540-92922-2 e-ISBN 978-3-540-92923-9 DOI 10.1007/978-3-540-92923-9 Springer Dordrecht Heidelberg London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet u¨ ber http://dnb.d-nb.de abrufbar. c Springer-Verlag Berlin Heidelberg 2009  Dieses Werk ist urheberrechtlich gesch¨utzt. Die dadurch begr¨undeten Rechte, insbesondere die der ¨ Ubersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielf¨altigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielf¨altigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zul¨assig. Sie ist grunds¨atzlich verg¨utungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten w¨aren und daher von jedermann benutzt werden d¨urften. Einbandabbildung: K¨uenkelLopka GmbH, Heidelberg Printed on acid-free paper Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)

Vorwort

Was eigentlich immer noch zum Staunen ist, scheint heute im Alltag vielen schon ganz selbstverst¨andlich: Der alte, die ganze Menschheitsentwicklung antreibende Traum von einer Mobilit¨at u¨ ber die Grenzen von Zeit und Raum hinweg hat sich in den letzten Jahrzehnten in einem Maße verwirklicht, wie nie zuvor in der Menschheitsgeschichte. Und dabei wurde kein einziges physikalisches Gesetz gebrochen. Der Mensch hat vielmehr gelernt, mit unerwartet vielen Dingen des Lebens in einer entmaterialisierten, virtuellen Form umzugehen. Entmaterialisiert in dem Sinne, dass anstelle mit den Dingen selbst lediglich mit ihren digitalen Schatten“ umge” gangen wird, also mit Beschreibungen, kodiert in Form von Nullen und Einsen, die u¨ ber elektromagnetische Signale mit Lichtgeschwindigkeit transportiert und an jedem Computer bearbeitet werden k¨onnen. Zwei technologische Entwicklungen machen das m¨oglich: Computer bieten den Kosmos, in dem diese digitalen Schatten ihr Dasein entfalten, in dem sie neu gesch¨opft, bearbeitet, verkn¨upft und abgelegt werden k¨onnen; das Internet bietet die M¨oglichkeit, diese digitalen Schatten fast mit Lichtgeschwindigkeit an jeden Ort der Welt zu transportieren, damit sie in einem Computer am anderen Ende der Welt ihre Wirkung entfalten k¨onnen. Tats¨achlich z¨ahlen Computer und Internet zu den ganz wenigen technologischen Entwicklungen in der Geschichte der Menschheit, die das Leben und Handeln der Menschen wirklich grundlegend ver¨andert haben. Nachdem die industrielle Revolution des 19. und 20. Jahrhunderts unsere physische Mobilit¨at dramatisch steigern konnte – Autos, Flugzeuge, Raumschiffe erweiterten den k¨orperlichen Aktionsradius des Menschen betr¨achtlich –, so erweitern Computer- und Internet-Technologien als Treiber der digitalen Revolution unsere gedankliche Mobilit¨at in einem bisher unvorstellbaren Maße und befreien unseren geistigen Aktionsradius von (fast) jeglicher k¨orperlicher Beschr¨ankung. W¨ahrend selbst modernste Fortbewegungsmittel wohl immer viele Stunden brauchen werden, um einen Menschen von einem Kontinent zum anderen zu bringen, kann er diese Entfernung mit Hilfe des Internets fast augenblicklich u¨ berwinden. Empfindungen, Gedanken und Anweisungen lassen sich unmittelbar u¨ bermitteln, sekundenschnell kann auf die W¨unsche und Anforderungen weit Entfernter reagiert werden - und das anders als im Bereich der physischen Mobilit¨at ohne nennenswerte Kosten. Aufgrund der noch sehr jungen Geschichte – das Internet ist gerade einmal Vierzig, das WWW vor kurzem vollj¨ahrig geworden – und da die rasante Entwicklung der Computer- und Netzwerk-Technologien ungebrochen anh¨alt, lassen sich die durch die digitale Revolution ausgel¨osten Ver¨anderungen in Gesellschaft, Wirtschaft und im privaten Bereich erst in allerersten Umrissen absehen. Um so interessanter ist es daher, hinter die Kulissen dieser Entwicklung zu schauen und die technischen Grundlagen zu verstehen, wie Internet und WWW eigentlich funktionieren. Genau dazu will das vorliegende Buch Digitale Kommunikation“ zusammen mit den ” beiden nachfolgenden B¨anden, Internetworking“ und Web-Technologien“, ein ” ” V

VI

Vorwort

verst¨andiger, umfassender und vertrauensw¨urdiger, lehr- und detailreicher F¨uhrer sein. Der vorliegende Band ist den Grundlagen der digitalen Kommunikation gewidmet und bietet einen ausf¨uhrlichen R¨uckblick auf die Geschichte der Kommunikation und ihre technischen Hilfsmittel. Er behandelt die Grundlagen der Kommunikation in Rechnernetzen, stellt die Vielfalt der digitalen Medien, ihre Auspr¨agungen und ¨ Kodierung dar, und gibt einen Uberblick zur Sicherheitsproblematik in der neuen digitalen Welt. Die mehrdimensionale Gliederung des Materials – allgemeinverst¨andliche Beschreibungen werden durch zahlreiche ins technische Detail gehende Exkurse erg¨anzt, Glossare bieten kapitelbezogene, kommentierte Indizes, und Literaturhinweise laden zum Nachschlagen und Weiterlesen ein – soll dem geneigten Leser den Zugang zur F¨ulle des behandelten Stoffes soweit wie m¨oglich erleichtern und ihm eine interessen- bzw. themenbezogene Auswahl erm¨oglichen. Auf Basis dieses Buches werden dann in den beiden nachfolgenden B¨anden In” ternetworking“ und Web-Technologien“ die Internet- und Web-Technologien um” fassend und im Detail vorgestellt, also die aktuellen Rechnernetzwerktechnologien, die verschiedenen Schichten des Internets, die TCP/IP-Protokollsuite, das WWW, sowie die verschiedenen Web-Technologien, wie URL, HTTP, HTML, CSS, XML, Web-Programmierung, Suchmaschinen, Web2.0 und Semantic Web. Wir haben uns große M¨uhe gegeben, um Sie, verehrte Leser, als interessierte Laien durch die Lekt¨ure unseres Buches anzustecken mit der Faszination der neuen digitalen Welt, um Ihnen als fleißige und Anstrengungen nicht scheuende Studenten ein brauchbares und umfassendes Lehrbuch vorzulegen, und Ihnen als gestandene Profis ein zuverl¨assiges Nachschlagewerk an die Hand zu geben, mit dem Sie Ihre Spezialgebiete leicht und sicher in den Kontext des riesigen Gesamtkomplexes der digitalen Kommunikation einordnen k¨onnen. Dank zu sagen gilt es dem Springer-Verlag in Person von Hermann Engesser und Dorothea Glaunsinger f¨ur das Vertrauen in das Gelingen dieses Buchprojekts und die Unterst¨utzung bei seiner Realisierung, und bei Euch, Ivana und Anja, f¨ur den Langmut und die Toleranz, mit der ihr uns habt w¨ahrend zahlloser Wochenenden und Ferientage in unsere Arbeitszimmer verschwinden lassen, und die uns auch dabei begleitende Liebe. Potsdam, im Januar 2009

Christoph Meinel Harald Sack

Inhaltsverzeichnis

1

Prolog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Digitale G¨uter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Digitale Kommunikation und ihre Grundlagen . . . . . . . . . . . . . . . . . 1.3 Wegweiser durch die digitale Kommunikation . . . . . . . . . . . . . . . . . 1.4 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1 1 8 13 15

2

¨ Geschichtlicher Ruckblick ..................................... 2.1 Entwicklung der Schrift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 1: Die Entwicklung der Sprache . . . . . . . . . . . . . . . . . . . . . . 2.2 Erste Kommunikationsnetzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Die Entwicklung des Buchdrucks . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Entstehung des Zeitungswesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Telekommunikationssysteme und Elektrizit¨at . . . . . . . . . . . . . . . . . . 2.5.1 Optische Telegrafie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.2 Elektrische Telegrafie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6 Der Vormarsch der Individual-Telekommunikation . . . . . . . . . . . . . . 2.6.1 Telefon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.2 Vom Phonograph zum Grammophon . . . . . . . . . . . . . . . . . . . 2.6.3 Fotografie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen . . . . . . . . 2.7.1 Funktelegrafie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.2 Rundfunk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.3 Film und Kino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.4 Fernsehen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7.5 Analoge und digitale Aufzeichnungsverfahren . . . . . . . . . . . 2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9 Die untrennbare Geschichte von Internet und WWW . . . . . . . . . . . . 2.9.1 Das ARPANET – wie alles begann... . . . . . . . . . . . . . . . . . . . 2.9.2 The Internet goes public . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.9.3 Das WWW revolutioniert das Internet . . . . . . . . . . . . . . . . . .

19 19 21 28 34 41 44 44 47 50 50 52 54 57 57 59 61 63 66 68 75 75 79 81

VII

VIII

3

4

Inhaltsverzeichnis

2.9.4 Web 2.0 und Semantic Web – Die Zukunft des WWW . . . . 2.10 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

85 88

Grundlagen der Kommunikation in Rechnernetzen . . . . . . . . . . . . . . . 3.1 Grundbegriffe und -konzepte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1 Kommunikation und Daten¨ubertragung . . . . . . . . . . . . . . . . . 3.1.2 Klassifikationen von Kommunikationssystemen . . . . . . . . . . 3.2 Rechnernetze und Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1 Klassische Punkt-zu-Punkt Verbindung . . . . . . . . . . . . . . . . . 3.2.2 Leitungsvermittelte Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . 3.2.3 Von der Leitungsvermittlung zur Paketvermittlung . . . . . . . 3.2.4 Das Prinzip der Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . 3.2.5 Vorteile der Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.6 Paketheader . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.7 Nachteile der Paketvermittlung . . . . . . . . . . . . . . . . . . . . . . . . 3.2.8 Verbindungslose und verbindungsorientierte Netzwerkdienste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.9 Dienstparadigmen von Rechnernetzen . . . . . . . . . . . . . . . . . . 3.2.10 Fehlererkennung und Fehlerkorrektur . . . . . . . . . . . . . . . . . . Exkurs 2: Fehlererkennende und fehlerkorrigierende Codes . . . . . . 3.3 Leistungskennziffern von Rechnernetzen . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Benutzerbezogene Kenngr¨oßen . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Qualitative Leistungskriterien . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Quality of Service . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 3: Verz¨ogerung in paketvermittelten Netzwerken . . . . . . . . 3.4 Kommunikationsprotokolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Protokollfamilien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Schichtenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 4: Das ISO/OSI-Schichtenmodell . . . . . . . . . . . . . . . . . . . . . 3.4.3 Das Internet und das TCP/IP-Schichtenmodell . . . . . . . . . . . 3.4.4 Protokollfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

93 93 93 98 103 103 105 106 107 109 111 112 113 114 117 119 125 126 126 128 131 134 136 136 142 146 152 155

Multimediale Daten und ihre Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Medienvielfalt und Multimedia - eine Formatfrage . . . . . . . . . . . . . . 4.2 Information und Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Information und Entropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Redundanz – Mehrwert oder Verschwendung? . . . . . . . . . . . 4.3 Text - Datenformate und Komprimierung . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Textkodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 5: Der Unicode Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Textkomprimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 6: Einfache Verfahren der Datenkomprimierung . . . . . . . . . 4.4 Grafik - Datenformate und Komprimierung . . . . . . . . . . . . . . . . . . . . Exkurs 7: Was ist Farbe? – Farbe und Farbsysteme . . . . . . . . . . . . .

161 161 164 164 166 168 168 174 177 179 182 185

Inhaltsverzeichnis

5

IX

4.4.1 Varianten der Laufl¨angenkodierung f¨ur Grafikdaten . . . . . . . 4.4.2 LZW-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.3 GIF-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 8: GIF – Dateiaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.4 PNG-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.5 JPEG-Format . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 9: JPEG – Komprimierung und JPEG – Dateiformat . . . . . 4.5 Audio – Datenformate und Komprimierung . . . . . . . . . . . . . . . . . . . . 4.5.1 Analog-Digital-Umwandlung . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Unkomprimierte Audio-Datenformate . . . . . . . . . . . . . . . . . . 4.5.3 Audiokomprimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4 MPEG Audiokodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 10: MPEG-1 Audiokodierung . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 11: MP3 – Dateiaufbau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.5 Weitere Audio-Komprimierungsverfahren . . . . . . . . . . . . . . . 4.5.6 Streamingtechniken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6 Video und Animation - Datenformate und Komprimierung . . . . . . . 4.6.1 Digitale Videokodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.2 Komprimierung von Videosignalen . . . . . . . . . . . . . . . . . . . . 4.6.3 Bewegungskompensation und Bewegungsvorhersage . . . . . 4.6.4 MPEG Komprimierung: Sch¨usselprobleme . . . . . . . . . . . . . . 4.6.5 MPEG Komprimierung: Prinzipielles Vorgehen . . . . . . . . . . 4.6.6 MPEG-2 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 12: MPEG – Datenformat . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.7 MPEG-4 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.8 MPEG-7 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.9 MPEG-21 Standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 13: Andere Videodatenformate und -komprimierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

191 192 193 195 199 200 203 213 216 222 224 230 232 238 244 247 248 249 255 258 260 262 269 273 280 287 293

Digitale Sicherheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Grundlagen der Sicherheit in Rechnernetzen . . . . . . . . . . . . . . . . . . . 5.1.1 Sicherheitsziele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Kryptografische Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Vertraulichkeit und Verschl¨usselung . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1 Symmetrische Verschl¨usselungsverfahren . . . . . . . . . . . . . . . Exkurs 14: Einfache historische Verschl¨usselungsverfahren . . . . . . Exkurs 15: Data Encryption Standard (DES) und Advanced Encryption Standard (AES) . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.2 Asymmetrische Verschl¨usselungsverfahren . . . . . . . . . . . . . . Exkurs 16: Das RSA Public-Key-Verfahren . . . . . . . . . . . . . . . . . . . 5.2.3 Authentifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Digitale Signaturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Datenintegrit¨at und Authentizit¨at . . . . . . . . . . . . . . . . . . . . . .

307 307 309 313 317 317 318

296 299

323 327 330 332 336 338

X

Inhaltsverzeichnis

5.3.2 Message Digest . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Exkurs 17: Kryptografische Hashfunktionen . . . . . . . . . . . . . . . . . . 5.4 Public Key Infrastrukturen und Zertifikate . . . . . . . . . . . . . . . . . . . . . 5.4.1 Zertifizierungsstelle (CA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4.2 Vertrauensmodelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Glossar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

340 342 347 348 351 353

Epilog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359

Personenregister . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 ¨ Abkurzungen und Akronyme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391 Bildnachweise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409

Kapitel 1

Prolog

Das Geist-Erschaffene ist lebendiger als die Materie.“ ” – Charles Baudelaire (1821–1867)

Das dritte Jahrtausend ist angebrochen und neue Formen der Kommunikation, wie z.B. das Internet sind in k¨ urzester Zeit zu einem festen Bestandteil des t¨ aglichen Lebens, unserer Kultur und der grundlegenden Infrastruktur der modernen Gesellschaft geworden. Das World Wide Web, im Alltag heute oft f¨ alschlicherweise mit dem Internet selbst identifiziert, versorgt uns mit Informationen und Diensten aller Art. Die neuesten Nachrichten, der aktuellste B¨ orsenbericht, wichtige Reiseinformationen und Flugbuchungen, Wissen aus allen nur denkbaren Bereichen ist nur noch einen Mausklick entfernt. Jedermann kann heute im eigenen Weblog weltweit publizieren, unterschiedlichste Dienste k¨ onnen ¨ uber das Internet in Anspruch genommen werden, Interessengruppen schließen sich in Diskussionsforen zusammen, um Informationen uber ihre gemeinsamen Themen auszutauschen, Wissenschaftler aller Fachgebiete ¨ treiben die Forschung mit Hilfe der elektronischen Kommunikation voran und wir k¨ onnen online Geschenke ordern und Geburtstagsgl¨ uckw¨ unsche an unsere Liebsten versenden. Dieses Kapitel ist dem ersten Band Digitaler Kommunikation“ unserer Trilogie Di” ” gitalen Kommunikation“, Internetworking“, Web-Technologien“ als Prolog voran” ” gestellt und bietet einen kurzen Abriss ¨ uber den alle Bereiche der Gesellschaft grundlegend ver¨ andernden Vormarsch entmaterialisierter, digitaler G¨ uter, die ihre Verbreitung ¨ uber neue digitale Kommunikationskan¨ ale nehmen, ohne die unsere moderne Zivilisation nicht mehr vorstellbar w¨ are.

¨ 1.1 Digitale Guter Die moderne Zivilisation ist ohne Computer, Mobiltelefone, Internet und World Wide Web (WWW) nicht mehr vorstellbar. Neue Maschinen zur Informationsverarbeitung in einer f¨ur den Menschen unvorstellbaren Geschwindigkeit, neue Kan¨ale des Informations- und Datenaustauschs haben ganz neue Perspektiven f¨ur die weitere C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 1,

1

2

1 Prolog

Entwicklung der menschlichen Gesellschaft er¨offnet. Die neuen Technologien haben es m¨oglich gemacht, die elementaren Grenzen von Raum und Zeit in einem Maße zu u¨ berwinden, wie es vormals ganz unm¨oglich erschien. Dabei sind nicht etwa physikalische Gesetze gebrochen worden, sondern der Mensch hat gelernt, mit vielen Dingen unseres Lebens in entmaterialisierter Form umzugehen. Entmaterialisiert in dem Sinn, das anstelle mit den Dingen selbst in vielen Zusammenh¨angen lediglich mit ihren digitalen Beschreibungen umgegangen wird, die aus Informationen kodiert in Form elektromagnetischer Signale bestehen und dabei mit Lichtgeschwindigkeit transportiert und bearbeitet werden k¨onnen. Die Generation unserer Kinder wuchs bereits in einer neuen Welt mit Computerspielen, SMS, E-Mail und anderen modernen Kommunikationstechnologien auf, und bringt den Segnungen der digitalen Welt“ ein ganz selbstverst¨andliches Grundvertrauen entgegen. Die ¨ ” aber begegnen dieser hochkomplexen Technologie oft mit kritischer Distanz Alteren und auch mit gewachsenem Misstrauen. Waren die ersten Computer in der Mitte des 20. Jahrhunderts gerade einmal in der Lage, einfache arithmetische Operationen durchzuf¨uhren, wobei Sie die Standfl¨ache einer Turnhalle in Anspruch nahmen, zur Berechnung oft mehrere Stunden Rechenzeit ben¨otigten, und Anschaffungskosten in Millionenh¨ohe voraussetzten, ist Rechenkapazit¨at heute dank des exponentiellen Wachstums der Rechenleistung und der im gleichen Maße fallenden Hardwarekosten nahezu unbegrenzt und extrem kosteng¨unstig verf¨ugbar. IT-Systeme sind heute pervasiv, d.h. allgegenw¨artig und fester Bestandteil unserer Umwelt. Autos, Flugzeuge, Fernseher und Haushaltsger¨ate sind alle softwaregetrieben und die Geschwindigkeit des Wandels von reinen (elektro-)mechanischen Konstruktionen hin zu immer intelligenteren“ computer” gesteuerten Konstruktionen ist atemberaubend. Die um sich greifende Digitalisierung von Informationen und Waren, die es erlaubt, Texte, Bilder, Videos, Reisetickets, Abonnements, Finanztransaktionen und andere Informationen ohne Qualit¨atsverlust und mit rasanter Geschwindigkeit zu erzeugen, anzuzeigen, zu bearbeiten, zu kopieren, zu u¨ bertragen und auszuf¨uhren, ist die Grundlage der neuen digitalen Welt und ihrer Handels- und Gesch¨aftsprozesse – der sogenannten Internet Economy (oder Net Economy) [135]. Aber auch die Gesch¨aftsprozesse im Umfeld klassischer Wirtschaftsg¨uter finden heute bereits zu weiten Teilen entmaterialisiert in der digitalen Welt statt: Electronic Business (E-Business), Electronic Commerce (E-Commerce) und Electronic Procurement (E-Procurement) sorgten in den vergangenen zwei Jahrzehnten f¨ur Euphorie und Goldgr¨aberstimmung“, die kurzzeitig nach der Jahrtausendwende durch das Plat” zen der sogenannten Dotcom-Blase etwas gebremst wurde, aber auch heute trotz aktueller Finanzkrise weiter anh¨alt (siehe Abb. 1.1). Kein Wunder, verheißt doch das elektronische, genauer das digitale Gesch¨aftsumfeld ungeahnte Potenziale. Angefangen mit der Optimierung von Wertsch¨opfungsketten, u¨ ber die Kostenreduktion im Gesch¨aftsverkehr, der Erschließung neuer M¨arkte, neuen Wegen der Produktgestaltung, bis hin zur Individualisierung des Marktes reichen die Versprechungen ¨ dieser neuen, digitalen Okonomie. Die um sich greifende Digitalisierung hat die Welt drastisch beschleunigt. Waren es zuerst Transportmittel und elektrische Kommunikationsmedien, die im 19. Jahrhun-

1.1 Digitale G¨uter

3

Begriffserkl¨ arungen E-Business: Als Electronic Business werden alle Aktivit¨ aten zur Unterst¨ utzung von Gesch¨ aftsprozessen und Beziehungen zu Gesch¨ aftspartnern (Business-to-Business, B2B) oder von Mitarbeiter und Kunden (Business-to-Customer, B2C) eines Unternehmens bezeichnet, die mit Hilfe digitaler Medien abgewickelt werden. E-Commerce: Als Electronic Commerce wird derjenige Teil des Electronic Business bezeichnet, der auf Vereinbarung und Abwicklung rechtsverbindlicher Gesch¨ aftstransaktionen zwischen Gesch¨ aftspartnern (B2B) und Kunden (B2C, C2C) beruht. E-Commerce umfasst dabei u ¨blicherweise die drei Transaktionsphasen Information, Vereinbarung und Abwicklung. E-Procurement: Als Electronic Procurement werden alle Aktivit¨ aten bezeichnet, die im direkten Umfeld und zur Unterst¨ utzung von Beschaffungsvorg¨ angen (Einkauf) mit Gesch¨ aftspartnern und Lieferanten (B2B) stattfinden und Bestandteil des Electronic Business sind.

E-Procurement

Unternehmen

E-Commerce

Internet

Intranet

Internet

Geschäftspartner Lieferanten

Mitarbeiter

(B2B)

Kunden (B2B, B2C, C2C)

Weiterf¨ uhrende Literatur: T. Kollmann: E-Business – Grundlagen elektronischer Gesch¨ aftsprozesse in der Net Economy, 3., u ¨berarb. und erw. Aufl., Gabler, Wiesbaden (2009)

Abb. 1.1 E-Business – Gesch¨aftsprozesse und Beziehungen

dert im Zuge der industriellen Revolution die Ausdehnung unserer Welt schrumpfen ließ und die Entfernungen r¨aumlich wie zeitlich zu verk¨urzen begannen, sorgt die Digitalisierung heute f¨ur nahezu verzugslose Kommunikationsm¨oglichkeiten rund um den Globus und ist damit Schrittmacher und Taktgeber der allgemeinen Globalisierung und des weltweiten elektronischen Handels. Tats¨achlich k¨onnen im elektronischen Handel auf vielf¨altige Art und Weise Geld verdient werden: Einerseits unterst¨utzt er traditionelle Warengesch¨afte (Verkauf von Produktionsg¨utern), indem Gesch¨afts- und Kundenbeziehungen auf elektronischem Wege angebahnt werden

4

1 Prolog

(Offline Transaktionen). Andererseits findet aber bereits ein signifikanter Anteil der Warengesch¨afte (Verkauf von Produkten und Informationen) bereits direkt online im Internet statt (Online Transaktionen) und tr¨agt so zum wirtschaftlichen Gesamterl¨os bei. Nat¨urlich r¨ucken dabei immaterielle G¨uter immer mehr in den Fokus. So erwirtschaftet etwa der Suchmaschinenbetreiber Google1 als Musterbeispiel“ ei” nes global agierenden Großunternehmens der Net Economy das Gros seiner Erl¨ose direkt aus der Vermarktung immaterieller G¨uter. Generell bietet der elektronische Handel vielf¨altige Kostenvorteile f¨ur die Unternehmen: Transaktionskosten, d.h. Kosten, die im Zusammenhang mit einer Gesch¨aftstransaktion stehen, lassen sich um Gr¨oßenordnungen senken, da elektronische Vermarktung Einsparpotenziale und h¨ohere Markteffizienz verspricht. Selbst die im Vorfeld der gesch¨aftlichen Transaktion anfallenden Transaktionsanbahnungskosten k¨onnen durch die damit verbundene Beschaffung notwendiger Informationen aus dem WWW drastisch gesenkt werden. Transaktionsanbahnungskosten z¨ahlen zu den Kommunikationskosten, die ebenfalls Kundenunterst¨utzung (Customer-Support) oder Produktinformationen umfassen, die sich ebenfalls durch die Nutzung digitaler Medien reduzieren lassen. Neben sinkenden Kosten kommt es zu einer kolossalen Zeitersparnis durch die Beschleunigung der einzelnen Gesch¨aftsprozesse [208]. Die stetige Weiterentwicklung der Informationstechnik und die damit verbundene wachsende Bedeutung innovativer Informationstechnologien haben zu einem gesellschaftlichen Strukturwandel gef¨uhrt. Das Informationszeitalter und die mit ihm verbundene Informationswirtschaft geleiten uns in eine Informationsgesellschaft, in der insbesondere der Begriff der Virtualit¨at“ eine besondere Stellung einnimmt. ” Virtuell“ im Gegensatz zu gegenst¨andlich“ bezeichnet dabei etwas real nicht ” ” Vorhandenes, etwas Scheinbares. Der Brockhaus definiert virtuell“ als der Anlage ” ” ¨ nach als M¨oglichkeit vorhanden; nicht wirklich, aber echt erscheinend“ [30]. Uber der realen Ebene mit ihren physikalisch vorhandenen Produkten und Dienstleistungen entsteht eine digitale Ebene mit virtuellen Handelsbeziehungen und Produkten, die ausschließlich aus digitalen Informationsinhalten bestehen, die sogenannten di¨ gitalen Guter. Hinter dem Begriff der digitalen G¨uter verbergen sich immaterielle ” Mittel zur Bed¨urfnisbefriedigung, die sich mit Hilfe von Informationssystemen entwickeln, vertreiben und anwenden lassen. Digitale G¨uter k¨onnen mit Hilfe elektronischer Medien (wie z.B. dem Internet oder Mobilfunknetzen) u¨ bertragen und mit Hilfe von Informationssystemen dargestellt und angewendet werden“ [224]. Zu den digitalen G¨utern z¨ahlen zu allererst (auch historisch) jegliche Form der Software und alle digitalisierten Medien, wie z.B. Musik, Filme, B¨ucher, Zeitungen. Inzwischen aber auch Tickets und Reservierungen, Geldkarten, Kreditkarten, Aktien, Formulare, Antr¨age, Vertr¨age, Briefe, Akten, SMS oder Telefonate. Vergleicht man Marktmodelle der Net-Economy, in der digitale G¨uter eine entscheidende Rolle spielen, mit traditionellen Marktmodellen, fallen sehr schnell signifikante Unterschiede ins Auge. Das Duplizieren und Vervielf¨altigen digitaler G¨uter ist mit verschwindend niedrigeren Kosten anzusetzen, als die Produktion materieller G¨uter. Eine digitale Kopie, vertrieben u¨ ber digitale Informationskan¨ale, verursacht 1

http://www.google.com/

1.1 Digitale G¨uter

5

so gut wie keine Kosten. W¨ahrend ein traditionelles, materielles Produkt mit der Zeit durch den Gebrauch an Wert verliert, unterliegen digitale G¨uter keinen Verschleißerscheinungen und k¨onnen sogar noch mit ihrer Nutzung an Wert gewinnen. Ein materielles Gut verliert an Wert, wenn man es teilt. Ein digitales Gut dagegen unterliegt bei seiner Teilung (Vervielf¨altigung und Weitergabe an Dritte) keinem Wertverlust. Im Gegenteil gewinnt es an Wert f¨ur den individuellen Benutzer, je mehr Benutzer sich ein digitales Gut teilen. Popul¨ares (historisches) Beispiel ist der K¨aufer des allerersten Fax-Ger¨ates bzw. E-Mail-Systems. Da niemand diese Technologie mit ihm teilte, konnte er daraus nur wenig Mehrwert sch¨opfen. Der Wert der Technologie f¨ur ihren Benutzer steigt, je mehr Benutzer die Technologie verwenden und am Fax- bw. E-Mail-Dienst teilnehmen, einfach weil die Zahl der potenziellen Kommunikationspartner steigt. Dieser Effekt wird auch als Netzwerkeffekt bezeichnet. Je mehr Anwender ein Softwaresystem benutzen, desto gr¨oßer sind die M¨oglichkeiten, Informationen und Erfahrungen dar¨uber auszutauschen, ganz zu schweigen von den fallenden Anschaffungskosten. Jedes Softwaresystem gewinnt daher an Attraktivit¨at, je mehr Benutzer dieses verwenden. Digitale G¨uter sind immaterielle G¨uter. Logistik und Distribution k¨onnen u¨ ber digitale heute meist elektronische Informationskan¨ale nahezu kostenfrei erfolgen. Materielle G¨uter ben¨otigen dagegen eine spezifische und meist kostenintensive Distributions-Infrastruktur. Betrachtet man den Wert, den ein Gut repr¨asentiert, l¨asst sich dieser bei materiellen G¨utern auch ohne Ber¨ucksichtigung des Produktionsprozesses leicht bestimmen und daraus ein Preis ermitteln. Immaterielle, digitale G¨uter m¨ussen anhand des Aufwands f¨ur ihren Herstellungsprozess beurteilt werden. F¨ur sich alleine betrachtet, erh¨alt ein digitales Gut seinen Wert durch den Nutzen, den es f¨ur seinen Eigent¨umer darstellt. Ber¨ucksichtigt man, dass keine Kosten f¨ur Vervielf¨altigung und Distribution anfallen, sinkt der Preis des digitalen Gutes stetig mit steigender Verbreitung (siehe Tabelle 1.1). Die Differenz zwischen Entwicklungskosten (Fixkosten) und Vervielf¨altigungskosten (variable Kosten) f¨ur digitale G¨uter ist enorm. In der Produktionsplanung f¨ur traditionelle, materielle G¨uter ergibt sich bei der Ermittlung der St¨uckkosten u¨ blicherweise eine parabel¨ahnliche Kurve: Mit steigender Produktion f¨allt der St¨uckpreis bis zu einem Minimum und steigt bei fortlaufender Steigerung der Produktionszahlen wieder an, da zu diesem Zweck neue Produktionskapazit¨aten geschaffen werden m¨ussen. Bei digitale Produkten dagegen sinken die St¨uckkosten stetig mich wachsender Zahl an hergestellten (vervielf¨altigten) Produkten (siehe Abb 1.2). Diese M¨oglichkeit der nahezu kostenlosen und unverz¨uglichen Vervielf¨altigung machen aus dem digitalen Gut ein Massengut. Nicht umsonst wird deshalb zur Zeit ein nennenswerter Teil der Entwicklungskosten eines digitalen Gutes in Mechanismen zur Gew¨ahrleistung eines Kopierschutzes investiert. Es existieren unterschiedlichste Modelle des Digital Rights Management“. Digitale G¨uter sollen an einen ” einzelnen Benutzer oder ein bestimmtes digitales Ger¨at gebunden werden, um so eine unzul¨assige Weitergabe und Vervielf¨altigung zu unterbinden. Dabei besteht ein st¨andiger Wettstreit zwischen der Industrie, die einen m¨oglichst sicheren Kopierschutz entwickeln m¨ochte, und den Hackern“ (Crackern), die versuchen, die ak” tuellen Sicherungsmaßnahmen zu umgehen und aufzubrechen. Wurde ein Kopier-

6

1 Prolog

Tabelle 1.1 Eigenschaften materieller und digitaler G¨uter im Vergleich Materielle G¨ uter

Digitale G¨ uter

Hohe Vervielf¨ altigungskosten

Niedrigere Vervielf¨ altigungskosten

Wertverlust durch Gebrauch

Wertgewinn durch Gebrauch

Individueller Besitz

Vielfacher Besitz m¨ oglich

Wertverlust durch Teilung

Wertgewinn durch Teilung

Identifikations- und Schutzm¨ oglichkeiten

Probleme des Datenschutzes und der Datensicherheit einfache Verbreitung

Schwierige Verbreitung (Logistik und Distribution) Wert / Preis leicht identifizierbar

Wert / Preis nur subjektiv bestimmbar

Kosten leicht identifizierbar

Kosten nur schwer identifizierbar

Preisbildungsmechanismus bekannt

Preisbildungsmechanismus weitgehend unbekannt Bestandsbewertung problematisch

Bestandsbewertung m¨ oglich

Materielle Produkte

Theorien und Modelle kaum vorhanden

Stückkosten

Stückkosten

Wirtschaftswissenschaftliche Theorien und Modelle eingef¨ uhrt und verf¨ ugbar

Digitale Produkte

min Optimale Anzahl

Anzahl

Anzahl

Abb. 1.2 Produktionskosten f¨ur materielle und digitale Produkte im Vergleich

schutz erst einmal gebrochen, setzt ein rasanter Prozess ein, der darin m¨undet, dass das zuvor gesch¨utzte, digitale Gut tats¨achlich eine massenhafte, illegale Verbreitung findet. Ein typisches Beispiel daf¨ur ist die Musikindustrie, die dieses Ph¨anomen f¨ur ihre Umsatzeinbußen in den vergangenen Jahren verantwortlich macht. Seit der Einf¨uhrung der Compact Disc (CD) vor fast 30 Jahren wird Musik fast ausschließlich nur noch in digitaler Form vertrieben. Nachdem die ersten CD-Aufnahmeger¨ate f¨ur den Heimanwender in den 90er Jahren zu erschwinglichen Preisen verf¨ugbar waren, setzte eine bis heute anhaltende Welle des illegalen Kopierens und Vervielf¨altigens ein, die sich durch das Aufkommen moderner Audiokompressionsverfahren und schneller Internetverbindungen virulent verst¨arkt hat.

1.1 Digitale G¨uter

7

Digitale G¨uter werden auf digitalen Datentr¨agern gespeichert und aufbewahrt oder werden u¨ ber das Internet verf¨ugbar gemacht. Zu ihrer Weiterverarbeitung und Darstellung sind elektronische Ger¨ate notwendig, deren Kernst¨uck u¨ blicherweise ein Computer ist, auch wenn dieser heute nicht immer als solcher zu erkennen ist. Betrachten wir zun¨achst das digitale Gut Software. Software im Sinne von Anwendungsprogrammen kann nur nutzbringend eingesetzt werden, wenn diese auf einem Computer zur Ausf¨uhrung gelangt. Anwendungsprogramme veranlassen den Computer zur Ausf¨uhrung vorab definierter Funktionen. Die Spannbreite reicht dabei vom Betriebssystem als Basissoftware jedes Computers bis hin zu Computerspielen, Textverarbeitung oder E-Mail. Oft bietet Software heute aber auch nur“ reine ” Informationssammlungen zur Eingabe in ein Anwendungsprogramm. Die Routenplaner auf dem Navigationsger¨at nutzen geographische Daten und Straßennetzkarten zur Berechnung des k¨urzesten Weges zwischen vorab festgelegten Endpunkten. Da sich Straßenverl¨aufe ver¨andern, werden periodisch neue Straßendaten ben¨otigt, um jederzeit eine zielsichere Navigation zu gew¨ahrleisten. Digitale Texte haben schon seit geraumer Zeit ihren festen Platz in unserem Alltag erobert. Zwar gelang es dem neuen Medium Internet“ bislang nicht, traditionel” le Printmedien vollst¨andig zu verdr¨angen, dennoch sicherte sich auch die Verlagsund Zeitungsbranche ihre digitalen Marktpl¨atze. Jede renommierte Tageszeitung unterh¨alt ein mehr oder weniger ausf¨uhrliches digitales Pendant zu ihrer Printausgabe, die uns stets aktuell und verzugslos mit den neuesten Nachrichten versorgt. E-Mail, Instant Messaging und Weblogs sind zum festen Bestandteil unseres textbasierten, elektronischen Kommunikationskanons geworden. Die digitale Textflut, der wir Tag f¨ur Tag ausgesetzt sind, hat die traditionellen Formen der Publikation vom umgesetzten Informationsvolumen her betrachtet l¨angst u¨ berfl¨ugelt. Selbst Unterhaltungsliteratur kann heute komfortabel auf sogenannten eBooks“, mit elek” tronischen Texten beladbare, buch¨ahnliche elektronische Ger¨ate im Taschenformat mit innovativer und bequem zu lesender Anzeigetechnik, unabh¨angig von Zeitpunkt und Ort u¨ berall gelesen werden. Digitale Musikaufzeichnungs- und -wiedergabetechnologie verdr¨angte bereits in den fr¨uhen 80er Jahren die etablierten Medien (Vinyl-)Schallplatte und Magnetband. Neuartige Kodierungs- und Komprimierungstechnologien schrumpfen das di¨ gitale Audiodatenvolumen auf ein Maß herab, dass eine Ubertragung dieser digitalen Daten im Internet m¨oglich und rentabel wird. In Massen vervielf¨altigt und u¨ ber (anfangs illegale) Tauschb¨orsen verbreitet sah (sieht sich) die Musikindustrie einer ernst zu nehmenden Bedrohung ausgesetzt. Die Wiedergabeger¨ate dieser komprimierten digitalen Audiodaten wurden selbst klein genug, um zu einem st¨andigen Begleiter im Alltag und sogar beim Sport zu werden. Dem traditionellen Rundfunk erw¨achst neue Konkurrenz in Form von Internet-Radios, die ihren H¨orern eine weitaus individuellere Gestaltung des konsumierten Programms gestatten. Digitalisierung und Komprimierung erfasste auch Film und Fernsehen. Unkomprimierte, digitale Videodaten erfordern immense Speicherkapazit¨aten und verhinderten anfangs eine Weitergabe von urheberrechtlich gesch¨utzten Material auf elektronischem Wege. Doch moderne Videokompressionstechnologien erm¨oglichen auch den verzugslosen und rentablen Austausch von Bewegtbildern u¨ ber das Medium In-

8

1 Prolog

ternet. Verfahren der Videokomprimierung erfordern einen hohen Aufwand an Berechnungskapazit¨at, die nur durch die st¨andige Weiterentwicklung der Computerhardware m¨oglich wurde. Digitales Fernsehen, Internet-TV und Video-on-Demand sorgen f¨ur eine wachsende Popularit¨at der elektronischen Datenverbindungen. Konventionelle, analoge Aufzeichnungs- und Distributionsverfahren werden durch moderne, digitale Aufzeichnung und den Vertrieb u¨ ber elektronische Kommunikationsmedien mehr und mehr ersetzt. Computerhardware wird best¨andig leistungsf¨ahiger bei einem gleichzeitig zu beobachtenden Preisverfall. Besaß noch vor 30 Jahren eine Universit¨at oder ein Großbetrieb gerade einmal einen Computer, dessen Speicherkapazit¨at und Rechenleistung heute bereits von einfachen Mobiltelefonen weit u¨ bertroffen wird, schreitet die Miniaturisierung weiter voran. Aus dem teuren wissenschaftlichen Instrument Com” puter“ ist ein billiges Massenprodukt geworden. Informationsverarbeitung ist heute popul¨arer als jemals zuvor. Mit erstaunlicher Pr¨azision trifft auch heute noch das nach Gordon Moore benannte Mooresche Gesetz (Moore’s Law) zu, das besagt, dass sich die Anzahl der auf einem Mikrochip integrierbaren elektronischen Schaltelemente alle 18 bis 24 Monate verdoppelt [165]. Popul¨ar ausgedr¨uckt, verdoppelt sich die Leistungsf¨ahigkeit von Mikroprozessoren damit etwa alle 18 Monate bei gleichzeitiger Verkleinerung und Preisverfall – und das bereits seit fast 40 Jahren. Dieser Trend scheint sich zwar langsam abzuschw¨achen, wird aber bestimmt noch 10 bis 15 Jahre anhalten. Die immense Verbreitung, die digitale G¨uter in unserer modernen Welt heute gefunden haben, liegt in ihrer immateriellen Natur und der M¨oglichkeit begr¨undet, sie nahezu unbeschr¨ankt, kostenfrei und verzugslos zu vervielf¨altigen. Aber ohne ein geeignetes elektronisches Transportmedium, das diese G¨uter von einer physikalischen Existenz außerhalb des Computers entbindet, h¨atte diese Verbreitung niemals so rasch erfolgen k¨onnen. Internet und World Wide Web sind hier zum Inbegriff der modernen, digitalen Kommunikationstechnik geworden. Nahezu alle traditionellen, analogen Medien, wie z.B. Post, Telefon, Zeitung, Rundfunk oder Fernsehen treten dort in modernen Varianten (E-Mail, Voice-over-IP, News, Internet-Radio, InternetTV, etc.) ihr digitales Erbe an. Die digitale Kommunikationstechnik hat u¨ ber die Jahre hinweg gewaltige Fortschritte gemacht und verzeichnet stetig h¨ohere Datenu¨ bertragungsraten und -volumina. Besonders wichtig ist die M¨oglichkeit des unmittelbaren Zugangs zu pers¨onlicher, digitaler Information mit Hilfe der drahtlosen Kommunikation. Mobilfunknetze der dritten Generation und WLAN-Netze gelten heute bereits als Standard, neue Technologien, wie z.B. Ultra Wide Band (UWB) und ZigBee stehen in den Startl¨ochern und versprechen noch h¨ohere Daten¨ubertragungsraten bei gleichzeitig fortschreitender Miniaturisierung der ben¨otigten Endger¨ate.

1.2 Digitale Kommunikation und ihre Grundlagen Wir sind Zeugen des Beginns eines neuen Zeitalters, das durch die zentrale Stellung digitalen G¨uter und Ihrer Bedeutung f¨ur Wirtschaft, Wissenschaft und Gesell-

1.2 Digitale Kommunikation und ihre Grundlagen

9

schaft gekennzeichnet ist. Information in jeder nur denkbaren Auspr¨agungsform, ob in Wort, Bild oder Ton dargestellt, ist heute u¨ berall und jederzeit unabh¨angig von Zeit und Raum u¨ ber digitale Distributionskan¨ale verf¨ugbar. Dabei spielen Internet und WWW eine zentrale Rolle. Ohne sie k¨onnten digitale G¨uter ihre omnipotente Bedeutung gar nicht entfalten. Deshalb spielt die digitale Kommunikation auf dem Weg in dieses neue Zeitalter eine klassische Doppelrolle. Einerseits ist sie Triebkraft und Katalysator f¨ur eine Vielzahl von Ver¨anderungen, die wir derzeit erleben und die uns noch bevorstehen. Andererseits hilft sie uns aber auch dabei, uns in dieser neuen Epoche zurechtzufinden, die durch extreme Beschleunigung, Flexibilisierung und Dynamisierung gekennzeichnet ist, und hilft uns, diese als Chance zu begreifen und zu nutzen. Ein weltumspannender Zusammenschluss der verschiedenartigsten Computer-Netzwerke, Firmennetze, Wissenschaftsnetze, milit¨arische Netze, Netze kommunaler oder u¨ berregionaler Betreiber basierend auf den unterschiedlichsten Tr¨agermedien, wie z.B. Kupferkabel, Glasfasern oder Funkwellen, und Netzwerktechnologien: sie alle zusammen sind Bestandteil dessen, was wir heute als das Internet“ be” zeichnen, die Infrastruktur unserer virtuell vernetzten Welt. Nur drei Jahrzehnte hat es gedauert, bis aus einem nur vier Rechner umfassenden Versuchsnetz im Jahr der Mondlandung 1969 ein hunderte von Millionen Rechnern umfassendes Geflecht aus vielen verschiedenen Netzwerken und Computern entstehen konnte, das uns Dank der dahinter verborgenen Internet-Technologien wie ein einziges weltumspannendes Netzwerk erscheint. Die als Internetworking bezeichnete Technologie ist in der Lage, mit einem festen Regelwerk von Kommunikationsprotokollen, den sogenannten Internetprotokollen, u¨ ber eine Vielzahl unterschiedlicher und an sich nicht kompatibler Netzwerke hinweg grenzenlose digitale Kommunikation zu erm¨oglichen. Internet-Technologie ist in der Lage, Details der verwendeten physikalischen Netz-Hardware vollst¨andig zu verbergen, so dass die angeschlossenen Rechner unabh¨angig von ihrer jeweiligen physikalischen Anbindung an das Internet miteinander kommunizieren k¨onnen. Einer der Gr¨unde, die zu der immensen Verbreitung des Internets gef¨uhrt hat, ist dessen offene Systemarchitektur. Offen, da alle notwendigen Internet-Spezifika˙tionen im Gegensatz zu denen der propriet¨aren Netze bestimmter Anbieterfirmen o¨ ffentlich verf¨ugbar und f¨ur jeden zug¨anglich sind. Das gesamte Design der Internet-Kommunikationsprotokolle ist daraufhin ausgelegt, die unterschiedlichsten Computer und Netzwerke miteinander zu vernetzen, unabh¨angig von den von ihnen genutzten unterschiedlichen Betriebssystemen und Anwendungsprogrammen. Um die M¨oglichkeiten der digitalen Kommunikation ausloten zu k¨onnen, muss man ihre Grundlagen und ihre Funktionsweise verstehen. Betrachten wir zun¨achst die Kommunikation und den mit ihr verbundenen Kommunikationsprozess an sich, bevor wir n¨aher auf ihre digitale Form n¨aher eingehen. Kommunikation bezeichnet den Vorgang eines wechselseitigen Austauschs von Information zwischen zwei oder mehreren Kommunikationspartnern. Beteiligte Kommunikationspartner k¨onnen dabei sowohl Menschen als auch technische Systeme sein. Die Kommunikationspartner kodieren die auszutauschende Information in Form einer Nachricht. In unserer Alltagskommunikation formuliert ein Mensch zum Beispiel aus einem Gedanken

10

1 Prolog

¨ eine lautsprachliche Außerung, die bestimmten Regeln einer gemeinsamen Syntax und Semantik gehorchen muss, damit der Kommunikationspartner die Nachricht verstehen“, also aus den akustischen Signalen den inhaltlichen Gedanken rekon” struieren kann. Bei unserer Betrachtung der digitalen Kommunikation werden wir einen Bogen spannen angefangen von der (digitalen) Kodierung der Information bis hin zur technischen Ebene des (digitalen) Kommunikationskanals. Unterschiedliche wissenschaftliche Disziplinen tragen dazu ihren Teil bei: Die eigentlich zu u¨ bermittelnde Information liegt meist in analoger Form vor. Daher muss zun¨achst eine Analog-Digital-Wandlung (AD-Wandlung) dieser Information vorgenommen werden, bei der Methoden aus der Physik, der Mathematik und der Informatik zum Einsatz kommen. Danach geht es um eine effiziente Kodierung der digitalen Daten, die sich sowohl an den Eigenheiten der medialen Daten als auch an der Beschaffenheit des Kommunikationskanals orientiert. Die zu u¨ bermittelnden Nachrichten m¨ussen dabei nach einer festgelegten Syntax konstruiert sein, die die jeweiligen Kommunikationsprotokolle vorgeben. Unter der Syntax einer Sprache versteht man das Regelwerk, das entscheidet, ob eine Folge von Zeichen korrekte W¨orter und S¨atze einer Sprache bilden. Die Syntax wird dabei entweder mit einer vollst¨andigen Aufz¨ahlung aller g¨ultigen W¨orter und S¨atze spezifiziert oder mit einer Mischung generativer Regeln, der sogenannten Grammatik, oder einer Mischform aus beiden [40]. Aufbauend auf der Syntax legt dann die Semantik (Bedeutungslehre) die inhaltliche Bedeutung der mit Hilfe der Syntax korrekt konstruierten W¨orter und S¨atze fest. Die Regeln der Semantik bestimmen dabei, wie sich aus der Bedeutung einfacher Zeichen(ketten) die Bedeutung komplexer, zusammengesetzter Zeichen¨ ketten ableiten l¨asst. Uber die Semantik hinaus legt die Sprachwissenschaft noch einen pragmatischen Aspekt der Sprache fest (Pragmatik), der sich auf die Bedeutung eines Zeichens oder einer Zeichenkette im Rahmen eines bestimmten Kontexts und eines Handlungszusammenhangs bezieht. Dabei ist die Grenze zwischen Semantik und Pragmatik fließend. Im weiteren Verlauf werden daher Semantik und Pragmatik stets gemeinsam behandelt. Die Nachricht wird vom Sender zum Empf¨anger u¨ ber einen Kommunikationskanal u¨ bertragen. Der Kommunikationskanal fungiert dabei als Tr¨ager der zu u¨ bermittelnden Nachricht. In seiner jeweils konkreten Auspr¨agung – im Falle der laut¨ sprachlichen Außerung ist dies die Luft zwischen den beiden Kommunikationspartnern, u¨ ber die die Sprache in Form von Schallwellen vom Sender zum Empf¨anger u¨ bertragen wird – spricht man von einem Kommunikationsmedium. Erreicht die Nachricht den Empf¨anger u¨ ber den Kommunikationskanal, muss der Empf¨anger die Nachricht dekodieren, um an die darin kodierte Information zu gelangen. Die Schallwellen erreichen das Ohr des Empf¨angers und werden von dessen Wahrneh¨ mungssystem als lautsprachliche Außerungen des Kommunikationspartners erkannt und gem¨aß den Regeln von Syntax und Semantik interpretiert. War die Interpretation erfolgreich, hat der Empf¨anger die Nachricht verstanden. Abb. 1.4 zeigt eine schematische Darstellung dieses Kommunikationsvorgangs, dem das informationstheoretische Sender-Empf¨anger-Modell der mathematischen Theorie der Kommunikation (Informationstheorie) zugrundeliegt, die 1949 von Claude E. Shannon

1.2 Digitale Kommunikation und ihre Grundlagen

11

¨ (1916–2001) zu dem Zweck entwickelt wurde, die technische Ubertragung von Signalen zu verbessern [212, 214].

Sender

Empfänger

Nachricht

Nachricht

Kommunikationskanal

Kodierung

Dekodierung

Information

Info f rmation

Abb. 1.3 Modell der Kommunikation aus Sicht der Informationstheorie

Wie eine Nachricht allerdings von einem Empf¨anger interpretiert wird, ist vom Kontext der Nachricht abh¨angig. Eine sprachliche Nachricht in einem Gespr¨ach wird zus¨atzlich von nonverbaler Information, wie z.B. Mimik, Gestik und K¨orperhaltung des Sprechers begleitet. Der Sprecher kann fl¨ustern, stottern oder schreien, er kann seinem Gegen¨uber dabei in die Augen schauen oder w¨ahrend des Sprechvorgangs err¨oten. Gem¨aß dem Psychologen Friedemann Schulz von Thun wird jedes pers¨onliche Gespr¨ach zus¨atzlich zur sprachlich u¨ bermittelten Sachinformation begleitet von einer Selbstoffenbarung des Sprechers, einen Hinweis auf die Beziehung zwischen den Gespr¨achspartnern und einem Appell an den Empf¨anger der Nachricht [236]. Digitale Kommunikation bewegt sich im Schnittfeld zwischen Kommunikationswissenschaften und Informatik. Sie ist dadurch gekennzeichnet, dass die Kommunikation durch den Austausch von Signalfolgen erfolgt, die aus lediglich zwei verschiedenen Grundsignalen, typischerweise symbolisiert durch 0 und 1, aufgebaut sind. Digitale Kommunikation ben¨otigt f¨ur den Kommunikationsvorgang lediglich einen digitalen Kommunikationskanal, u¨ ber den Folgen dieser beiden Grundsignale ¨ u¨ bertragen werden k¨onnen, wie z.B. das Internet. Informationen werden zur Ubertragung u¨ ber den digitalen Kommunikationskanal von ihrer urspr¨unglichen analogen Auspr¨agung in ein digitales Nachrichtenformat u¨ bersetzt (kodiert). Je nach Medienauspr¨agung (Text, Bild, Ton, Video, etc.) kommen dabei unterschiedliche spe-

12

1 Prolog

zialisierte Kodierungsverfahren und Mediendatenformate zum Einsatz. Abh¨angig vom eingesetzten Kommunikationskanal kommen spezielle Kommunikationsprotokolle zum Einsatz, die die zul¨assigen Formate der kommunizierten Inhalte und den Ablauf der Kommunikation steuern. Den meisten Benutzern des Internet ist u¨ berhaupt nicht klar, welche technologische Herausforderung zu meistern ist, um z.B. eine simple E-Mail per Mausklick ans andere Ende der Welt zu bef¨ordern, und welche Anwendungsprogramme dazu n¨otig sind – hier der so genannte E-Mail-Client, der dem Benutzer als das E-Mail-Programm“ auf seinem eigenen Rechner erscheint, ” die vielf¨altigen Zwischensysteme die den Weg der E-Mail hin zum Empf¨anger steuern und dort der E-Mail-Server, der meist auf einem entfernten Rechner installiert verantwortlich ist f¨ur die korrekte Verteilung und Zustellung der ein- und ausgehenden E-Mail-Nachrichten. Damit sich die verschiedenen Zwischensysteme und E-Mail-Server verstehen, benutzen sie ein gemeinsames Kommunikationsprotokoll, also einen standardisierten Satz von syntaktischen und semantischen Regeln und Mechanismen zur wechselseitigen Kommunikation, nach dem sich alle Kommunikationspartner und die beteiligten Systeme zu richten haben. Protokolle beschreiben detailliert Nachrichtenformate und definieren, wie sich ein Rechner bei Eingang einer Nachricht oder im Falle eines aufgetretenen Fehlers zu verhalten hat. Die digitale Kommunikation o¨ ffnet uns das Tor in die neuen, virtuellen“ Welten. ” Virtualit¨at bezeichnet hier den Gegensatz zur Materialit¨at der nichtdigitalen Welt, Grenzen in Raum und Zeit spielen keine bestimmende Rolle mehr. Diese Form der Kommunikation existiert ausschließlich aufgrund eines Zusammenschluss von Datenstr¨omen in digitalen Kommunikationskan¨alen. Die Virtualit¨at erm¨oglicht eine Entkopplung der Kommunikation von Zeit und Raum, d.h. die digitale Kommunikation ist nicht mehr wie die physische Kommunikation an einen bestimmten Ort gebunden und kann jederzeit auch zwischen r¨aumlich entfernten Kommunikationspartnern stattfinden. Digitale Kommunikation ist ubiquit¨ar“, d.h. allgegenw¨artig ” m¨oglich. Die Kommunikation mit anderen Menschen ist nicht mehr eine Frage der r¨aumlichen Distanz, sondern lediglich eine Frage der Ausgestaltung der virtuellen Kommunikationsm¨oglichkeiten. Virtuelle Kommunikationsm¨oglichkeiten sind heute kaum einer Beschr¨ankung unterworfen. F¨ur eine Vielzahl unterschiedlichster Medientypen, wie z.B. Text, Bild, Audio oder Video stehen unterschiedliche Mediendatenformate zur Verf¨ugung. Diese Vielfalt an Medientypen l¨asst das digitale Netzwerk zu einem Multimedium“ ” werden, dessen mediale Auspr¨agungsformen daher auch als Multimedia bezeichnet werden. Gegen¨uber den traditionellen eindimensionalen“ Medien gelingt es ” durch die simultane Nutzung sich erg¨anzender Medienbausteine komplexe Inhalte effizienter und leichter verst¨andlich darzustellen und zu vermitteln. Die durch den Einsatz von Multimediatechnologie erzielte Kommunikationswirkung ist dadurch eine h¨ohere, und resultiert in einer generellen Verbesserung der Informations¨ubermittlung. Obwohl virtuell und immateriell wird der Informationsaustausch auf eine anschaulichere, intuitiv leichter erfassbare Ebene transformiert, die virtuellen Kommunikationsbeziehung k¨onnen so mindestens so intensiv sein, wie die traditionellen, an den Kontext von Raum und Zeit gebundenen.

1.3 Wegweiser durch die digitale Kommunikation

13

Zeit Ort

gleich

verschieden vorhersehbar

verschieden nicht vorhersehbar

gleich verschieden vorhersehbar

überall / jederzeit

verschieden nicht vorhersehbar

Abb. 1.4 Virtuelle Kommunikation

Allerdings reißt diese neue digitale Kommunikation auch eine Kluft auf zwischen den Menschen. Die Verheißungen der potenziellen Verbundenheit u¨ ber die Grenzen von Raum und Zeit hinweg erf¨ullt sich nur f¨ur diejenigen, die finanziell und aufgrund ihrer Vorbildung in der Lage sind, sich an der neuen Informations- und Kommunikationskultur zu beteiligen. Zwischen Arm und Reich z.B. kann sich so eine digitale Kluft“ (Digital Divide, auch Digital Gap) aufspannen, die die Menschen ” trennt in diejenigen, die keinen Zugang zum Netz besitzen und diejenigen, die selbst Teil des Netzes sind. Die Chancen eines Netzzugangs sind weltweit ungleich verteilt und stark von sozialen Faktoren abh¨angig. Diese Chancenunterschiede verst¨arken ihrerseits gesellschaftliche Entwicklungen, d.h. wer Zugang zu modernen Kommunikationstechniken hat, hat bessere soziale und wirtschaftliche Entwicklungschancen. Die digitale Kluft besteht sowohl innerhalb unserer Gesellschaft, in dem Sinne, dass Wohlhabende mehr M¨oglichkeiten als Arme besitzen bzw. junge Menschen das Internet h¨aufiger nutzen als Alte, als auch auf internationaler Ebene, d.h. Industriel¨ander besitzen im Gegensatz zu den Entwicklungsl¨andern bessere M¨oglichkeiten. ¨ Zur Uberbr¨ uckung dieses Grabens sind zahlreiche Initiativen auf den Plan getreten (z.B. Bridging the digital divide2“, One Laptop per Child3“) [47, 211]. In diesem ” ” Buch wird die digitale Kluft nicht weiter thematisiert, vielmehr wird die optimistische Sichtweise vertreten, dass sich diese Kluft erfolgreich u¨ berbr¨ucken l¨asst.

1.3 Wegweiser durch die digitale Kommunikation Um die M¨oglichkeiten der im vorliegenden Buch thematisierten digitalen Kommunikation auszuloten, gilt es als erstes, ihre Grundlagen und ihre Funktionsweise zu 2 3

http://www.digitaldivide.net/ http://www.laptop.org/

14

1 Prolog

verstehen. Wir haben bereits dazu den Begriff der Kommunikation selbst erl¨autert und u¨ ber den mit ihr verbundenen Kommunikationsprozess nachgedacht. Im Rahmen dieses Buches werden wir uns anschließend der Kommunikation zun¨achst aus historischer Sicht widmen und die Entwicklung der Kommunikationsmedien von den ersten H¨ohlenmalereien bis hin zum Internet der Zukunft Revue passieren lassen. Dabei wird auf das kulturtragende Medium der Schrift n¨aher eingegangen und ihre durch die Erfindung des Buchdrucks ausgel¨oste massenhafte Verbreitung hin zum ersten Massenmedium“ geschildert. Telekommunikation ” ist nicht erst eine Erfindung des vergangenen Jahrhunderts. Ihre Urspr¨unge reichen zur¨uck bis in die Antike. Botenstaffetten und Feuerzeichentelegrafie erm¨oglichten es bereits den R¨omern ihr Weltreich effektiv zu verwalten. Die elektrische Telegrafie und das Telefon sorgten im Zuge der industriellen Revolution des 19. Jahrhunderts f¨ur eine ungeahnte Beschleunigung des menschlichen Alltags, die sich im Informationszeitalter des 20. Jahrhundert mit der Entwicklung des Computers und des weltumspannenden digitalen Internets fortsetzte. Als Transportmedium und Kommunikationskanal digital kommunizierter Information dienen heute Computernetzwerke angefangen von Piconetzwerken, die Kleinger¨ate im unmittelbaren Umfeld einer Person miteinander vernetzen bis hin zum allgemeinen, weltumspannenden Internet. Grundprinzipien der Rechnervernetzung, angefangen von der klassischen Punkt-zu-Punkt Verbindung, u¨ ber die Grundlagen paketvermittelter Netzwerke, bis zu den vielf¨altigen Kommunikationsprotokollen des Internets, ihre Aufgaben und Organisation, bilden daher den Schwerpunkt des Folgekapitels. Kommunizierte Information wird zum Zweck des Transports und der Aufbewahrung kodiert. Diese Kodierung erfolgt in Abh¨angigkeit der Modalit¨at der transportierten Information, d.h. je nach transportierten Medientyp (Text, Bild, Audio, Video, etc.) kommen unterschiedliche, spezialisierte Datenformate zum Einsatz. Diese digitalen Mediendatenformate stehen im Fokus eines weiteren Kapitels. Ausgehend von den allgemeinen Grundlagen der Kodierung, bei denen vor allem der Redundanzbegriff im Vordergrund steht, wird gezeigt, wie sich dieser f¨ur den eigentlichen Inhalt unwichtige Anteil einer Nachricht mit einer geeigneten Kodierung minimieren l¨asst, um so die urspr¨unglichen Daten zu komprimieren. Moderne Komprimierungsverfahren gehen sogar noch einen Schritt weiter. Dabei machen sie sich die Unzul¨anglichkeiten unseres menschlichen Wahrnehmungsapparates zu nutze und entfernen dazu absichtlich Details von Bildern oder Audiodaten, deren Fehlen von uns kaum wahrgenommen werden kann. Auf diese Weise leisteten z.B. die JPEG-Bildkodierung, die MP3-Audiokodierung oder die MPEG-Videokodierung einen wichtigen Beitrag zur Popularit¨at der modernen Datennetze und des Internets. Durch ihre kompakte Kodierung wurde es in den 1990er Jahren erstmals m¨oglich, Bilder, Musik oder sogar Videos u¨ ber die damals noch beschr¨ankten Ressourcen des Internets zu u¨ bertragen. Viel st¨arker und in einer h¨oheren Dimensionalit¨at und Dramatik als in der traditionellen analogen Kommunikation steht bei der digitalen Kommunikation der Aspekt der Sicherheit im Zentrum des allgemeinen Interesses. Das ubiquit¨are Netz

1.4 Glossar

15

erm¨oglicht anonymen Zugang zu Informationen und bietet zahlreiche M¨oglichkeiten zur Manipulation und zum Betrug. Das globale Internet ist ein offenes Netz. Offen, also nicht begrenzt und f¨ur jedermann zug¨anglich. Niemand wird ausgeschlossen, jeder kann Zugang zum Netz der Netze erhalten. Diese Offenheit des Internets, die grundlegende Voraussetzung f¨ur die große Popularit¨at war, die das Internet in den vergangenen Jahrzehnten erlangen konnte, hat allerdings auch ihren Preis: Es gibt keine zentrale Kontrolle, die unbefugten Dritten Einblick in die Kommunikation verwehren und damit die Privatsph¨are der Internetnutzer sch¨utzen w¨urde. Um dennoch Vertraulichkeit und den Schutz der Privatsph¨are zu bieten, m¨ussen Techniken aus der Kryptografie eingesetzt werden, die Nachrichten verschl¨usseln und deren Unversehrtheit sicherstellen. Ebenfalls mit Verfahren der Kryptografie kann die Identit¨at der Kommunikationspartner nachgewiesen werden, damit keine Betr¨uger, die eine falsche Identit¨at vorspiegeln, im Internet ihr Unwesen treiben k¨onnen. Denn Kommunikationspartner stehen sich hier nicht mehr pers¨onlich gegen¨uber, so dass sie sich anhand ihrer a¨ ußeren Erscheinung identifizieren k¨onnten, sondern befinden sich m¨oglicherweise auf verschiedenen Seiten des Globus. Die Verfahren der Kryptografie, die uns auch im Internet eine sichere und zuverl¨assige Kommunikation erm¨oglichen, sind schließlich Gegenstand des abschließenden Kapitels dieses Buches, das den ersten Band einer Trilogie zur Behandlung von Internet und World Wide Web darstellt. Der Epilog am Ende des Buches gibt einen kurzen Ausblick auf die beiden Folgeb¨ande der Trilogie. Band 2 widmet sich dem Thema Internetworking“ und f¨uhrt ” ein in die grundlegenden Technologien des weltumspannenden Internets. Band 3 bildet den Abschluss der Trilogie und fasst unter dem Titel Web-Technologien“ ” die technischen Grundlagen des World Wide Webs und die wichtigsten WebAnwendungen zusammen.

1.4 Glossar digital: (digitus=[lat.] Finger), Bezeichnung f¨ ur Technologien/Verfahren, die nur diskrete unstetige, d.h. stufenf¨ ormige arithmetische Gr¨ oßen verwenden. Grundlage der Digitaltechnik ist das bin¨ are (zweistufige) Zahlensystem, das lediglich die zwei Zust¨ ande wahr“ ” und falsch“ bzw. die Zahlenwerte 1“ und 0“ beinhaltet. Diese bin¨ aren Zahlenwerte ” ” ” werden als Bit (Binary Digit) bezeichnet und stellen die kleinstm¨ oglichen Informationseinheiten dar. Digitale G¨ uter: Unter digitalen G¨ utern versteht man immaterielle Mittel, die sich mit Hilfe von digitalen Informationssystemen entwickeln, darstellen, vertreiben und anwenden lassen. Digitale G¨ uter k¨ onnen mit Hilfe elektronischer digitaler Medien (wie z.B. dem Internet oder Mobilfunknetzen) u ¨bertragen und mit Hilfe von Informationssystemen dargestellt und angewendet werden. Digitale Kluft (auch Digital Divide): Hinter dem Begriff der digitalen Kluft steht die bereits Mitte der 90er Jahre ge¨ außerte Bef¨ urchtung, dass insbesondere zwischen Arm und Reich die Chancen auf den Zugang zum Internet und anderen (digitalen) Informationsund Kommunikationstechniken ungleich verteilt, stark von sozialen Faktoren abh¨ angig sind und Chancenunterschiede verursachen.

16

1 Prolog

Digitale Kommunikation Digitale Kommunikation bezeichnet den Austausch digitaler Nachrichten u ur spezialisierte digitale Kommunikationskan¨ ale. Das Datenformat ¨ber daf¨ der Nachricht bestimmt der jeweilige Medientyp (Text, Bild, Audio, Video, etc.). Die Nachricht wird nach den Maßgaben der dazu eingesetzten Kommunikationsprotokolle u ¨ber einen digitalen Kommunikationskanal (z.B. Internet oder WWW) u ¨bermittelt. Dotcom Blase: Der Begriff Dotcom-Blase ist ein durch die Medien gepr¨ agter Kunstbegriff f¨ ur ein weltweites Ph¨ anomen, das im Zusammenhang mit der im M¨ arz 2000 geplatzten B¨ orsenspekulationsblase steht, die insbesondere die so genannten Dotcom-Unternehmen betraf und vor allem in den Industriel¨ andern zu erheblichen Verlusten f¨ ur Kleinanleger f¨ uhrte. Als Dotcom-Unternehmen werden dabei Technologieunternehmen bezeichnet, deren Gesch¨ aftsumfeld im Bereich der Internet-Dienstleistungen steht. Der Name leitet sich aus den auf die Silbe .com“endenden Domainnamen dieser Unternehmen ab, wurde ” zuerst im B¨ orsenjargon gepr¨ agt und dann von den Medien u ¨bernommen. Electronic Business (auch E-Business): Unter dem Begriff Electronic Business werden alle Aktivit¨ aten zur Unterst¨ utzung von Gesch¨ aftsprozessen und Beziehungen zu Gesch¨ aftspartnern, Mitarbeiter und Kunden eines Unternehmens bezeichnet, die mit Hilfe digitaler Medien abgewickelt werden. Electronic Commerce (auch E-Commerce): Als Electronic Commerce wird derjenige Teil des Electronic Business bezeichnet, der auf Vereinbarung und Abwicklung rechtsverbindlicher Gesch¨ aftstransaktionen beruht. E-Commerce umfasst dabei u ¨blicherweise die drei Transaktionsphasen Information, Vereinbarung und Abwicklung. Electronic Procurement (auch E-Procurement): Als Electronic Procurement werden alle Aktivit¨ aten bezeichnet, die im direkten Umfeld und zur Unterst¨ utzung von Beschaffungsvorg¨ angen (Einkauf) stattfinden und Bestandteil des Electronic Business sind. Internet: Das Internet ist das weltweit gr¨ oßte virtuelle Computernetzwerk, das aus vielen miteinander u ¨ber die Internetprotokolle verbundenen Netzwerken und Computersystemen besteht. Zu den wichtigsten Angeboten des Internets – man spricht auch von Diensten“– z¨ ahlen die elektronische Post (E-Mail), Hypermediadokumente (WWW), ” Dateitransfer (FTP) und Diskussionsforen (Usenet/Newsgroups). Popul¨ ar geworden ist das globale Netz haupts¨ achlich durch Einf¨ uhrung des World Wide Webs (WWW), das nicht selten mit dem Internet gleichgesetzt wird, tats¨ achlich aber nur einer von mehreren Diensten des Internets ist. Kommunikation: Unter Kommunikation versteht man den Prozess ein- oder wechselsei¨ tiger Abgabe, Ubermittlung und Aufnahme von Informationen durch Menschen oder technische Systeme. Kommunikationsprotokoll: Ein Kommunikationsprotokoll (auch einfach Protokoll) ist eine Sammlung von Regeln und Vorschriften, die das Datenformat von zu u ¨bermittelnden ¨ Nachrichten sowie die Art und Weise ihrer Ubertragung festlegen. Sie enthalten Vereinbarungen u ¨ber die zu versendenden Datenpakete, den Auf- und Abbau einer Verbindung zwischen den Kommunikationspartnern sowie u ubert¨ber die Art und Weise der Daten¨ ragung. Medium: Auspr¨ agung eines Transportkanals zur Nachrichten¨ ubermittlung zwischen Sender und Empf¨ anger. Um Information u onnen, muss diese zwischen Sender ¨bertragen zu k¨ und Empf¨ anger u agermedium ausgetauscht werden. ¨ber ein Tr¨ Multimedia: Kommen bei der Darstellung von Information mehrere, verschiedenartige Medien zum Einsatz, wie z.B. Text, Bild und Ton, so spricht man von einer multimedialen Darstellung der Information. Netzwerkeffekt: Netzwerkeffekte treten auf, wenn der Nutzen eines Gegenstandes davon abh¨ angt, wie viele andere Individuen oder Organisationen diesen Gegenstand verwenden. Ein typisches Beispiel f¨ ur Netzwerkeffekte sind digitale G¨ uter, wie z.B. Softwaresysteme, deren Nutzen mit wachsender Anwenderzahl steigt.

1.4 Glossar

17

Semantik: Als Semantik wird ein Teilgebiet der Sprachwissenschaft (Linguistik) bezeichnet, die Bedeutungslehre. Sie besch¨ aftigt sich mit dem Sinn und der Bedeutung von Sprache und sprachlichen Zeichen. Im Mittelpunkt steht die Frage, wie Sinn und Bedeutung komplexer Begriffe aus denen von einfacheren Begriffen abgeleitet werden k¨ onnen. Die Semantik st¨ utzt sich auf die Regeln der Syntax. World Wide Web: Englische Bezeichnung f¨ ur das weltweite Datennetz“ (auch WWW, ” 3W, W3, Web). Gemeint ist der erfolgreichste Dienst im Internet, der sich durch hohe Benutzerfreundlichkeit sowie seine multimedialen Elemente auszeichnet. WWW bezeichnet eigentlich eine Technologie, die ein verteiltes, Internet-basiertes HypermediaDokumentenmodell implementiert. Internet und World Wide Web (WWW) werden heute oft synonym verwendet, obwohl es sich beim WWW nur um einen speziellen Dienst im Internet handelt, der mit dem HTTP-Protokoll u ¨bertragen wird.

Kapitel 2

¨ Geschichtlicher Ruckblick

Wer nicht von 3000 Jahren weiß sich Rechenschaft zu geben, ” bleibt im Dunklen unerfahren, mag von Tag zu Tage leben.“ – Johann Wolfgang von Goethe (1749–1832)

Wohl nichts hat die Entwicklung des Menschen so sehr vorangebracht, wie die F¨ ahigkeit, miteinander zu kommunizieren und Informationen auszutauschen. Das Knowhow, Kommunikationsinhalte festzuhalten, weiterzugeben und auch u ¨ber große Distanzen zu transportieren, gab menschlichen Gemeinschaften einen entscheidenden ¨ Vorteil, sicherte ihnen das Uberleben und zementierte ihre Vormachtstellung. Die Entwicklung der Schrift und des Papiers als transportabler Kommunikationstr¨ ager f¨ uhrte schon bald zur Einrichtung von regul¨ aren Botendiensten und ersten Postsystemen. Daneben entstanden bereits in der Antike optische Telegrafiemedien wie Rauch- oder Fackeltelegrafie, die Botschaften mit Hilfe von Relaisstationen ¨ uber weite Entfernungen sehr schnell transportieren konnten. Die industrielle Revolution und das dadurch gesteigerte Informations- und Kommunikationsbed¨ urfnis der Menschen beschleunigte die Entwicklung der optischen, wie auch der zur selben Zeit aufkommenden elektrischen Telegrafie. Waren diese Fernkommunikationsmedien anfangs nur Milit¨ ar, Verwaltung und Wirtschaft zug¨ anglich, gewann die private Kommunikation auch in diesen Bereich immer mehr an Bedeutung. Die Entwicklung des Telefons l¨ oste eine enorm anwachsende Nachfrage nach pers¨ onlicher Kommunikation auch uber weite Entfernungen hinweg aus und f¨ uhrte zu einem rapiden Wachstum. Im 19. ¨ und 20. Jahrhundert gewann die Entwicklung enormen Schwung dank der Erfindung von Phonograph und Grammophon, Fotografie und Film, Rundfunk und Fernsehen. Die Massenmedien entstanden und pr¨ agten fortan unsere Gesellschaft. Auf dem Weg zur totalen Vernetzung wird die Welt zum globalen Dorf: Europa, Amerika und Asien sind im WWW nur noch einen Mausklick voneinander entfernt.

2.1 Entwicklung der Schrift Um zu verstehen, was so spektakul¨ar an der digitalen Kommunikation und ihren M¨oglichkeiten ist, lohnt es sich, einen Blick in die Geschichte der KommunikatiC. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 2,

19

20

2 Geschichtlicher R¨uckblick

on und ihrer Medien zu werfen: vom Homo sapiens zum Homo surfiens. F¨ur die Geschichte der Kommunikation und ihrer Medien gibt es bereits etwa 30.000 Jahre alte Zeugnisse, wie z.B. die H¨ohlenmalereien aus fr¨uhgeschichtlicher Zeit. War die Sprache (mehr dazu in Exkurs 1) das ureigene Mittel der direkten und unmittelbaren Kommunikation zwischen den Menschen, so war das menschliche Ged¨achtnis zun¨achst das einzige Hilfsmittel, die kommunizierte Information festzuhalten und zu fixieren. Doch auch schon damals war das menschliche Ged¨achtnis kein dauerhafter und auch kein zuverl¨assiger Speicher. Der fr¨uhe Mensch trat erst aus dem geschichtlichen Dunkel heraus, als er damit begann, seine Sinneseindr¨ucke in der Form von bildhaften Darstellungen festzuhalten. Felszeichnungen und -malereien sind, sofern sie vor Witterungseinfl¨ussen gesch¨utzt waren, ebenso wie Felsgravuren und Reliefs bis heute erhalten. Neben der kultischen und religi¨osen Bedeutung dieser pr¨ahistorischen Zeichnungen hatten diese vor allem auch einen kommunikativen Zweck, n¨amlich auf visuelle Art und Weise Botschaften zu konservieren. Obwohl es sich um bildhafte Darstellungen aus der Lebenswelt unserer Vorfahren handelt, sind es doch keine reinen Abbilder, die die Wirklichkeit zu treffen suchten, son¨ dern vielmehr Ged¨achtnisst¨utzen f¨ur m¨undliche Uberlieferungen [146]. Nach Vorstellung der australischen Ureinwohner, die bis heute diese Kultur erhalten haben, halten die Felsenbilder die Seelen der dargestellten Wesen fest. Durch das Malen, die Ber¨uhrung der Malereien oder durch Kulthandlungen in den H¨ohlen werden die Seelen zu neuer Verk¨orperung und Fruchtbarkeit angeregt. Daneben hatten die H¨ohlenmalereien auch einen Informationswert f¨ur die Menschen. Sie warnten vor in der Gegend lebenden gef¨ahrlichen Tieren, gaben Informationen u¨ ber Jagdbeute oder lieferten sogar Anleitungen zur Jagd. Heute werden diese Zeugnisse vom Leben der vorgeschichtlichen, nomadisierenden J¨ager auch als Petroglyphen bezeichnet, wenn auch dem heutigen Betrachter der eigentliche Sinn dieser Bilder meist verschlossen bleibt, da ihm der kulturelle Hintergrund in dessen Kontext die Bilder entstanden sind schlicht fehlt. H¨ohlenmalereien sind auf allen Kontinenten zu finden, wobei in Europa die zahlreichsten Fundorte in Frankreich, Spanien und Italien liegen. Jeder, der die Bilder betrachtete, erhielt inhaltlich dieselbe Botschaft, auch wenn sie nicht immer mit dem gleichen Wortlaut wiedergegeben werden konnte. Um die Information im Ged¨achtnis des Betrachters aufzufrischen, mussten die Bilder lediglich erneut betrachtet werden. Gemeinschaften, die Fakten in Form von Zeichnungen festhalten konnten, waren wettbewerbsf¨ahiger als solche, die das nicht vermochten. Allerdings konnten Bilder auch nur bildliche Informationen festhalten, die uns zeigen, wie etwas aussieht. Sinneseindr¨ucke, wie etwa den Duft einer Blume oder gar abstrakte Sachverhalte, wie z.B. der Inhalt von Gesetzen, konnten nicht gezeichnet werden. Um diese festzuhalten, bedurfte es der Entwicklung der Sprache, die es dem Menschen erm¨oglichte, sich vom Hier und Jetzt einer Situation unabh¨angig zu machen, und auch u¨ ber Vergangenes und Zuk¨unftiges zu sprechen oder u¨ ber das zu sprechen, was an einem anderen Ort geschieht. Diese Grundleistung menschlicher Sprache wurde mit der Entwicklung der Schrift perfektioniert. Der entscheidende Schritt von den Bildzeichen der Symbolschrift zum phonetischen Sprachzeichen, wie wir es heute kennen, ist erst dann vollzogen, wenn die

2.1 Entwicklung der Schrift

21

zu u¨ bermittelnde Informationen mit Hilfe von optisch-skripturalen Zeichen festgehalten werden, die nicht mehr nur rein abbildenden Charakter besitzen, sondern direkt auf die Sprache der Schriftbenutzer bezogen sind. Die Schriftzeichen sollen also nicht nur auf eine Bedeutung verweisen, sondern auch auf die Lautung des Gegenstandes, den sie bezeichnen, wie z.B. Worte, Silben oder Einzellaute (siehe Abb. 2.1). Vom Piktogramm zum Lautzeichen - die formale Entwicklung der Schriftzeichen

• Piktogramme: Bildzeichen, die zur Bezeichnung von Gegenst¨ anden, Personen oder Tieren verwendet wurden. Auch heute noch werden Piktogramme als Hinweis- oder Verkehrszeichen eingesetzt, so kennzeichnet z.B. das stilisierte Abbild eines Mannes eine Herrentoilette oder Messer und Gabel ein Restaurant. Einfache Bildzeichen sind der Ausgangspunkt f¨ ur die n¨ achste Stufe der Schriftentwicklung. • Ideogramme: Bildzeichen oder Kombinationen von Bildzeichen, die zur Kennzeichnung von nichtgegenst¨ andlichen Begriffen verwendet werden. Dabei kann es sich z.B. um T¨ atigkeiten, abstrakte Begriffe oder aber auch um Gef¨ uhle handeln. Im Gegensatz zu Piktogrammen erschließt sich die Bedeutung von Ideogramme nicht von selbst, sondern muss erlernt werden. Ideogramme werden innerhalb eines Kulturkreises stets im Rahmen eines stringenten formalen Systems verwendet. Heute finden sich Ideogramme z.B. in der Kartografie, um Straßen oder Sehensw¨ urdigkeiten auszuweisen. • Rebus: Die Rebus-Schreibweise nutzt die Existenz von Homonymen, also sprachlich gleich oder sehr ¨ ahnlich klingender W¨ orter aus, f¨ ur die anschließend dasselbe Zeichen verwendet werden kann. Dadurch reduziert sich die Anzahl der eingesetzten Zeichen. Heute findet die Rebus-Schreibweise z.B. noch in Bilderr¨ atseln Verwendung. Ausgehend von rebusartigen Schreibweisen entwickelte sich direkt die Verwendung von Lautzeichen. • Phonogramme (Lautzeichen): Phonogramme stehen nicht mehr direkt f¨ ur einen Begriff, sondern lediglich f¨ ur eine bestimmte Lautung. Bis zur Entwicklung eines vollst¨ andigen Alphabets wurden Phonogramme oftmals in Verbindung mit ¨ alteren Bildzeichen verwendet, wie z.B. im Fall der ¨ agyptischen Hieroglyphen.

ABC

Abb. 2.1 Vom Piktogramm zum Lautzeichen

Exkurs 1: Die Entwicklung der Sprache Die bildliche Darstellung ist ¨ alteren Datums als die auf einem h¨ oheren Abstraktionsniveau stehende Sprache. Anschauung und Imagination stehen entwicklungsgeschichtlich vor dem

22

2 Geschichtlicher R¨uckblick

Begreifen und Erz¨ ahlen. Anders als andere Lebewesen k¨ onnen sich Menschen mit Hilfe von Sprachen verst¨ andigen. Kulturell gesehen ist es jedoch die Sprache, die f¨ ur die menschliche Kommunikation eine herausragende Bedeutung besitzt. Die Sprache ist dabei nicht nur Mittel f¨ ur die reine Verst¨ andigung, sondern bef¨ ordert auch das Entstehen von Normen und die Tradierung von Werten und Kulturinhalten. Die Sprache gilt deshalb als Voraussetzung jeglicher kultureller Entwicklung. Die Bildung menschlicher Gemeinschaften und das Entstehen eines Netzwerks kultureller Beziehungen unter diesen Gemeinschaften basiert auf der sprachlichen Kommunikation ihrer Mitglieder. Schon seit alters her gilt die Sprache als conditio humana“ schlechthin, die den Menschen vom Tier unterscheidet. ” Was die Urspr¨ unge der Entstehung der Sprache betrifft, sind wir weitgehend auf Vermutungen angewiesen. Selbst Sprachen, die von der Sprachwissenschaft als primitiv angesehen werden, besitzen bereits ein h¨ ochst komplexes Regelwerk aus Syntax und Semantik und befinden sich offensichtlich bereits in einem fortgeschrittenen Entwicklungsstadium, gemessen an den gewaltigen Zeitspannen der menschlichen Entwicklungsgeschichte. Unser ganzes Denken und jegliche Weitergabe von Gedachtem nutzt das Werkzeug Sprache. Der Mensch, so Johann Gottfried Herder (1744-1803), ist ein Sprachgesch¨ opf“. Die Sprache dient ihm ” als Mittel zur Welterschließung, indem er Objekte seiner Wahrnehmung in Begriffe und Zeichen fasst, mit denen er die Welt erkl¨ art. Die Urspr¨ unge der Sprache liegen im Dunkel der fr¨ uhen Menschheitsgeschichte verborgen. Erst seit der Erfindung der Schrift (siehe Kap. 2.1) ist es u oglich, Sprache zu ¨berhaupt m¨ konservieren und so in die Evolution der Sprache Einblick zu erhalten. Aber gerade deswegen herrscht an Hypothesen zur Entstehungsgeschichte der Sprache kein Mangel. Anatomen ¨ versuchen anhand von Abg¨ ussen des Sch¨ adelinneren fossiler Uberreste unserer Vorfahren aus Druckspuren l¨ angst verwester Hirnrinde die Existenz des Sprachzentrums im Gehirn nachzuweisen. Neurobiologen versuchen u ¨ber einen Vergleich verschiedener Hirnareale bei Menschen und Menschenaffen etwas u ahigkeit unserer Urahnen zu ergr¨ unden ¨ber die Sprachf¨ und Linguisten versuchen sich an der Rekonstruktion einer Ursprache“ aus den heute ” bekannten Sprachen und Sprachfamilien. Pal¨ aoanthropologen spalten sich bei der Frage der Sprachentstehung in zwei Lager: eine Fraktion z¨ ahlt die Sprache zu einem sehr alten Merkmal in der Geschichte der Menschwerdung, das sich bereits vor u ahrend ¨ber einer Million Jahre herausgebildet haben soll, w¨ die andere Sprache f¨ ur ein sehr junges, vor ca. 100.000 Jahren in einer pl¨ otzlichen krea” tiven Explosion“ aufgetauchtes Ph¨ anomen halten. Ausgehend von den anatomischen Voraussetzungen zur Entwicklung einer Lautsprache sehen viele Wissenschaftler eine Parallele zwischen Sprachevolution, fr¨ uhen technologischen Entwicklungen (Werkzeuggebrauch) und Sozialentwicklung des Menschen. Die Fertigung komplexer Werkzeuge setzt Planung und Organisation von Arbeitsabl¨ aufen sowie eine Vorstellung vom endg¨ ultigen Produkt voraus. Die Weitergabe derartiger Techniken bedingt mit zunehmender Komplexit¨ at zus¨ atzlich zur bloßen Nachahmung auch eine sprachliche Unterweisung zur Planung des Fabrikationsablaufs (siehe auch Abb. 2.2). Sprache erfordert dabei von unserem Gehirn und Sprechapparat H¨ ochstleistungen. Variationsreiche Kombinationen von Grundlauten m¨ ussen in Millisekunden erzeugt und verstanden werden. Der genaue Wortlaut des Gesprochenen verbleibt dabei u ur kurze Zeit im Ged¨ achtnis. ¨blicherweise nur f¨ Die Suche nach den Urspr¨ ungen der Sprache legt die Frage nach einer ersten, gemeinsamen Ursprache nahe. Durch einen linguistischen Vergleich lebender Sprachen, der Suche nach ahnlichen grammatischen Merkmalen und Konstruktionen, lassen sich Verwandtschaften ¨ erkennen, die auf einen gemeinsamen historischen Ursprung schließen lassen. Schritt f¨ ur Schritt l¨ asst sich so eine Art Sprachstammbaum entwickeln. Im Vergleich mit dem genetischen Stammbaum der heutigen V¨ olker lassen sich daraus auch R¨ uckschl¨ usse auf Wanderungsbewegungen und Ausbreitung des Menschen ziehen. Heute z¨ ahlt man weltweit mehr als 6.000 verschiedene lebende Sprachen, die etwa 20 großen, unterschiedlichen Sprachfamilien zugeordnet werden k¨ onnen. Ihre Verteilung u ¨ber die einzelnen Kontinente ist jedoch sehr heterogen. So leben in Europa etwa 12% der mittlerweile mehr als 6 Milliarden Menschen, sie sprechen aber nur ca. 3% aller Sprachen. In Asien leben

2.1 Entwicklung der Schrift Theorien zur Entstehung der Sprache Wundertheorie: Gott hat die Sprache erfunden und dem Menschen gegeben. Entweder gleich bei seiner Erschaffung oder nach einer sprachlosen Zeit. Die Beurteilung dieser Theorie ger¨ at zur religi¨ osen Frage. Erfindungstheorie: Die Menschen haben die Sprache erfunden. Irgendwann erwies sich Sprache als notwendig und es kam zu einer entsprechenden Vereinbarung. Das Problem an dieser Theorie ist ihre Selbstbez¨ uglichkeit: Unabdingbare Voraussetzung f¨ ur die Erfindung der Sprache ist die Bedingung, dass der Mensch bereits sprechen kann. Nachahmungstheorie: Der Mensch ahmt die Ger¨ ausche seiner Umgebung nach (z.B. das Bellen eines Hundes, das Rauschen des Windes, etc.), um die damit verbundenen Sachverhalte zu bezeichnen. Bis heute haben sich derartige lautmalende W¨ orter in unseren Sprachen erhalten. Sie werden als Onomatopoetika bezeichnet. Allerdings unterscheiden sich die Onomatopoetika vieler Sprachen, obwohl sie denselben Gegenstand bezeichnen. Dar¨ uberhinaus l¨ asst sich aus ihnen nicht das Lautinventar unseres Wortschatzes erkl¨ aren. Naturlauttheorie: Der Mensch produziert spontane Ausrufe, Interjektionen. Diese bilden den Ausgangspunkt sinnerf¨ ullter Lauterzeugnisse. Gegen diese Theorie spricht – ebenso wie bei den Onomatopoetika der Nachahmungstheorie – dass sich Interjektionen in verschiedenen Sprachen deutlich voneinander unterscheiden. Reaktionstheorie: Auf Reize der Umgebung wird spontan, im weitesten Sinne nachbildend, reagiert. So soll z.B. das Wort Mama“ auf die Lippenbewegung des S¨ aug” lings vor dem Stillen zur¨ uckzuf¨ uhren sein. Hier greift dieselbe Kritik, die auch gegen die Naturlauttheorie spricht. Kontakttheorie: Sprache basiert auf einem allgemeinen Kontaktbed¨ urfnis. Dieses f¨ uhrt automatisch zum Zuruf, zur Liebesbekundung oder zum gemeinsamen Gesang. Arbeits- und Werkzeugtheorien: Sprache ist aus rhythmischen Lautierungen bei der gemeinsamen Arbeit entstanden (b¨ urgerliche Variante). Werkzeugherstellung und Werkzeuggebrauch bedingen Arbeitsteilung und Tradierung, folglich auch Sprache. Die Entwicklung des Werkzeugs ist nicht von der Entwicklung der Sprache zu trennen. Keine der genannten Theorie ist in der Lage, Linguisten und Anthropologen vollst¨ andig zu u upft man Reaktions-, Kontakt- und Werkzeugtheorie, so l¨ asst ¨berzeugen. Verkn¨ sich zumindest eine Art stimmiges Gesamtbild gestalten, aus dem sich ein m¨ ogliches Szenario zur Entstehung der Sprache herleiten l¨ asst. Weiterf¨ uhrende Literatur: Gessinger, J., v. Rahden, W. (Hrsg.): Theorien vom Ursprung der Sprachen, de Gruyter, Berlin - New York (1989)

Abb. 2.2 Theorien zum Ursprung der Sprache

23

24

2 Geschichtlicher R¨uckblick

60% der Weltbev¨ olkerung, etwa ein Drittel aller Sprachen werden dort gesprochen. Dagegen leben auf den Inseln des Pazifikraumes nur knapp 1% aller Menschen, sie sprechen aber fast 20% aller Sprachen. Mandarin-Chinesisch wird von ann¨ ahernd einer Milliarde Menschen gesprochen. In Europa sprechen eine einzelne Sprache etwa drei Millionen Menschen, die ca. 850 Sprachen Neu-Guineas werden dagegen von durchschnittlich nur 4.000 Menschen gesprochen. Die H¨ alfte aller Sprachen haben heute kaum mehr als 50 Sprecher und sind damit vom baldigen Aussterben bedroht. Die Mehrheit der Linguisten und Sprachwissenschaftler geht heute davon aus, dass die menschliche Sprechf¨ ahigkeit in irgendeiner Art angeboren ist, so dass Sprache nicht wirklich erlernt, sondern vielmehr instinktiv erworben wird. Jedes gesunde Kind kann unabh¨ angig vom sozialen Umfeld und seiner Intelligenz seine Muttersprache perfekt und in geradezu atemberaubenden Tempo erlernen. Als Erwachsener ist eine vergleichbare Leistung beim Erlernen einer Fremdsprache nie mehr in dieser Geschwindigkeit, Perfektion und scheinbaren Leichtigkeit m¨ oglich. Weiterf¨ uhrende Literatur: Bußmann, H.: Lexikon der Sprachwissenschaft. Alfred K¨ orner Verlag, Stuttgart (1983) Cavalli-Sforza, L.: Gene, V¨ olker und Sprachen. Die biologischen Grundlagen unserer Zivilisation. Carl Hanser Verlag, M¨ unchen (1996) Gessinger, J., v. Rahden, W. (Hrsg.): Theorien vom Ursprung der Sprachen, de Gruyter, Berlin - New York (1989) Kuckenburg, M.: ...und sprachen das erste Wort. Die Entstehung von Sprache und Schrift. Eine Kulturgeschichte der menschlichen Verst¨ andigung. Econ Verlag, D¨ usseldorf (1996) Stetter, C.: Schrift und Sprache. Suhrkamp Verlag, Frankfurt a. M. (1999)

Die Auseinanderentwicklung von Bildzeichen und Schriftzeichen l¨asst sich in einer damit verbundenen zunehmenden linearen Anordnung des verwendeten Zeichenmaterials ausmachen. Als Begr¨undung f¨ur diesen Wandel wird die Notwendigkeit angef¨uhrt, rechnerische Vorg¨ange, die zur Verwaltung der sich entwickelnden Gesellschaften wichtig waren, zu erfassen und festzuhalten [108]. W¨ahrend das Bildzeichen prinzipiell noch von allen gelesen werden konnte, trennte sich das Schriftzeichen vom kollektiven Ged¨achtnis und konnte nur noch von dem verstanden werden, der die Technik des Lesens und Schreibens beherrschte. Als Wiege der Schriftkulturen gilt nach wie vor der alte Orient – Mesopotamien, das Land zwischen den Str¨omen Euphrat und Tigris. Auch wenn neuere Funde bereits auf a¨ ltere Schriftzeugnisse hinweisen, wie z.B. die der alteurop¨aischen Donaukultur im 6. Jahrtausend v. Chr., kann die Erfindung der Keilschrift in Mesopotamien um 3500 v. Chr. als der wichtigste Durchbruch in der Entwicklung der Schrift betrachtet werden. Die Keilschrift gilt als das fr¨uhste vollst¨andige Schriftsystem, entwickelt durch das Volk der Sumerer, die seit dem 4. Jahrtausend v. Chr. in S¨udmesopotamien lebten. Anfangs verwendeten sie eine reine Bilderschrift (Piktogramme), die sich bereits ab 3000 v. Chr. bei weitgehender Phonetisierung zu v¨ollig abstrakten Formen umbildete. Im 4. Jahrtausend v. Chr. entstanden die ersten Stadtstaaten im Zweistromland. Gottesk¨onigtum und straff organisierte, hierarchische Tempelb¨urokratie grenzten deren Kultur deutlich ab von den u¨ brigen. Zun¨achst nur eingesetzt in der Tempeladministration erlangte die Schrift als effektives Instrument im Dienste des Steuerwesens schnell an Popularit¨at. Allerdings darf man bei der Schriftkultur

2.1 Entwicklung der Schrift

25

des Altertums nicht davon ausgehen, dass entsprechend unseren heutigen Verh¨altnissen die Kenntnis und der Gebrauch der Schrift der breiten Masse offenstand. Die Schrift stand in allen archaischen Kulturen zun¨achst nur den Eliten zur Verf¨ugung und fand auch nur f¨ur spezielle Zwecke Gebrauch, wie z.B. im rituellen und religi¨osen Bereich (siehe Abb. 2.3) [37].

Abb. 2.3 Sumerische Keilschrift, Zylinder mit einer Inschrift des K¨onigs Nabonidus aus Ur, 555-539 v. Chr.

Um 2700 v. Chr., als die Akkader in das Gebiet der Sumerer vordrangen und deren Wort- und Silbenschrift ihrer eigenen semitischen Sprache anpassten, entstanden keilf¨ormige Zeichen, die senkrecht, waagrecht und querschief zu Gruppen geordnet eine neue Schrift ergaben. Diese Keilschrift, von den Assyrern und Babyloniern weiter ausgebildet und abgewandelt, verbreitete sich rasch und wurde zur Verkehrsschrift im gesamten alten Orient. Ebenso schnell wandelte sich das funktionale Spektrum der Schrift. Praktische Zwecke, wie z.B. Kaufvertr¨age, Urkunden aber auch literarische und wissenschaftliche Werke standen jetzt im Mittelpunkt des Schriftgebrauchs. Ab dem 8. Jahrhundert v. Chr. wurde die Keilschrift allm¨ahlich durch andere Schriftsysteme, wie die griechische oder ph¨onizische Lautschrift verdr¨angt [74, 79, 95]. Als Schreibmaterial f¨ur die Keilschrift dienten Tontafeln, Stein, und ab 1000 v. Chr. auch Wachstafeln. Die Kenntnis der Keilschrift ging sp¨ater verloren und erst 1802 gelang dem deutschen Philologen Georg Friedrich Grotefend (1775–1853) der erste Schritt zu ihrer Entzifferung. Durch die Kombination von Bildern und Schriftsymbolen war es nun m¨oglich geworden, neben visueller Information auch andere Sinneseindr¨ucke festzuhalten. ¨ Uberfl¨ ussig wurden Symbole mit der Einf¨uhrung der phonetischen Schrift aber noch lange nicht. Auf ihre immanent m¨achtige Aussagekraft wird auch heute noch z.B. in Piktogrammen oder in der Werbung gesetzt. Die bemerkenswerteste Eigenschaft der Schrift ist es jedoch, Sprache vergegenst¨andlicht speichern und fehlerfrei u¨ bertragen zu k¨onnen. Eine a¨ hnliche Entwicklung wie die Keilschrift durchlief auch die alt¨agyptische Hieroglyphenschrift (hieros=[griech.]heilig, glyphein=[griech.]einmeißeln). Diese Bilderschrift, die aus Wort-, Silbenzeichen und Einzelkonsonanten bestand, geht ebenfalls auf eine Zeit bis um 3000 v. Chr. zur¨uck. Ihren uns heute noch gel¨aufigen Namen erhielten die Hieroglyphen bereits im Altertum von griechischen Besuchern. ¨ In ihrer eigenen Sprache bezeichneten die Agypter ihre Schrift als medu netjer“, ” was u¨ bersetzt soviel wie die Worte Gottes“ bedeutete. Mit dem Meißel in Stein ge”

26

2 Geschichtlicher R¨uckblick

hauen schm¨uckten sie zun¨achst Monumentaldenkm¨aler, Grabkammern und andere meist sakrale Kultst¨atten (siehe Abb. 2.4). Auf Gef¨aßen oder Wandfl¨achen wurden sie mit einem Pinsel geschrieben, auf Papyrusrollen verfassten angesehene Berufsschreiber Dokumente mit Hilfe einer Rohrfeder. Aus den urspr¨unglich nur kultisch genutzten Zeichen entwickelte sich ab ca. 2500 v. Chr eine vereinfachte, leichter schreibbare, eigenst¨andige Profanschrift. Die Hieroglyphen selbst erfuhren u¨ ber die ¨ Jahrtausende ihres Gebrauchs keine Ver¨anderung, da sie den Agyptern als heilig galten. Sie existierten bis in das 4. Jahrhundert n. Chr., bis sich die griechische Schrift, ¨ die seit dem 2. Jahrhundert v. Chr. auch in Agypten Verwendung fand, vermischt mit Resten der demotischen Schrift als koptische Schrift durchsetzte [8, 67, 200]. In

Abb. 2.4 Alt¨agyptische Hieroglyphenschrift

der r¨omischen Kaiserzeit ging die Kenntnis der Hieroglyphenschrift verloren und erst mit der Entdeckung des ber¨uhmten Steins von Rosette (1799) durch Napoleon ¨ Bonapartes (1769–1821) Expeditionskorps in Agypten gelang dem franz¨osischen ¨ Agyptologen Jean Francois Champolion (1790–1832) im Jahre 1822 deren Entzifferung. Vorallem war es jedoch die griechische Schrift, deren Urform auf die Schrift der Ph¨onizier zur¨uckgeht, die unsere abendl¨andische Denkkultur entscheidend gepr¨agt hat und in deren Nachfolge und Weiterentwicklung sich die lateinische Schrift entwickelte, die wir geringf¨ugig erg¨anzt und modifiziert noch heute verwenden. Erste Zeugnisse dieser phonetischen Alphabetschrift finden sich in Inschriften auf Tonscherben und Bronzestatuetten aus dem 8. Jahrhundert v. Chr. Der entscheidende Entwicklungsschritt bei der griechischen Schrift war es, Vokale zwischen die bei den Ph¨oniziern noch lediglich aus 22 Konsonanten bestehenden Schriftzeichen einzuf¨ugen. Vokale selbst waren bereits zuvor in der mesopotamischen Keilschrift bzw. in der mykenisch-minoischen Linear B“ Schrift enthalten, jedoch trennten ” die Griechen als erste Vokale von reinen“ Konsonanten. Dadurch vereinfacht sich ” das Lesen – also das Dekodieren der Schriftbotschaft – drastisch, da sich der Leser auf eine strikt lineare Aufeinanderfolge der Schriftzeichen st¨utzen kann, die eine eindeutige schriftliche Wiedergabe von Sprechger¨auschen erm¨oglicht. Mit der griechischen Schrift erbl¨uhte vom 5. Jahrhundert v. Chr. an eine reiche Literatur, deren kulturelles Erbe das Abendland antrat und das uns bis heute in Teilen erhalten geblieben ist (siehe Abb. 2.5) [74, 79, 95]. Außerhalb unseres europ¨aischen kulturellen Erbes und unabh¨angig davon entwickelten sich auch in Asien fr¨uhe Schriftkulturen. Auf die Zeit um 1.400 v. Chr. gehen die fr¨uhesten Zeugnisse der chinesischen Schrift zur¨uck. Diese Schrift der Shang-Dynastie findet sich haupts¨achlich eingeritzt in sogenannten Orakelknochen und diente vornehmlich kultischen und zeremoniellen Zwecken. Als Orakelkno-

2.1 Entwicklung der Schrift

27

Abb. 2.5 Ph¨onizische und altgriechische Schrift

chen wurden Schildkr¨otenbauchpanzer oder die flache Seite eines Rinderschulterblattes verwendet. Diese wurden zum Zweck von Wahrsagungen mit einem gl¨uhenden Bronzestift erhitzt, bis sich Risse und Furchen im Knochenmaterial zeigten, die anschließend von einem Priester ausgedeutet wurden. Dazu wurden sowohl die Fragestellung als auch die Interpretation der Risse und Furchen zus¨atzlich schriftlich auf dem Orakelknochen fixiert [248]. Aus diesen ideografischen Zeichen entwickelte sich die mehr als 10.000 Zeichen umfassende chinesische Schrift. Ein großes Hindernis auf dem Weg der Entstehung der Schrift stellte die erst sehr sp¨at einsetzende Entwicklung und Ausgestaltung der Grammatik dar. Die Grammatik als Sprachlehre und Wissenschaft entstand etwa im 6. Jahrhundert v. Chr im indogermanischen Raum unabh¨angig voneinander in Indien und in Griechenland [225]. Die erste wissenschaftliche Besch¨aftigung mit der Sprache und damit die a¨ lteste u¨ berlieferte Grammatik u¨ berhaupt geht auf den indischen Grammatiker Panini zur¨uck, der im 5. Jahrhundert v. Chr. sein Grammatikwerk Ashtadhyayi“ ” (=[Sanskrit] Acht B¨ucher grammatischer Regeln) verfasste, das gut 4000 Regeln zur Wortbildung und genaue phonetische Beschreibungen des Sanskrits enthielt. Bei den Griechen berichtete als erster Platon (427–348 v. Chr.) in seinem Dialog Kratylos oder u¨ ber die Richtigkeit der Worte“ u¨ ber den Ursprung der Sprache und ” stellt dabei deren Wesen und Bedeutung zur Diskussion [180]. Seit dem Mittelalter gilt die Grammatik als Bestandteil der sieben freien K¨unste (Grammatik, Rhetorik, Dialektik, Arithmetik, Geometrie, Astronomie und Musik) und als Grundlage allen Wissens. Diese sp¨ate Ausbildung der Grammatik als strukturelles Regulativ der Sprache im Vergleich zu dem im geschichtlichen Dunkel liegenden Ursprung der Sprache l¨asst sich verstehen, wenn man dazu eine Analogie aus der Technik heranzieht. Auch zwischen dem Entstehen moderner Technologien zur Zeit der industriellen Revolution im 18. und 19. Jahrhunderts und dem Aufkommen von durch internationale Regelwerke normierte Standards klafft eine Wartezeit bis zur Mitte des 20. Jahrhunderts, bis mit der 1946 gegr¨undeten ISO (International Standardization Organisation) ein entsprechendes Standardisierungsgremium entstand. Da anfangs nur sehr wenige Menschen lesen und schreiben konnten – u¨ ber mehr als tausend Jahre hinweg waren B¨ucher und Schriftrollen z.B. im Christentum zug¨anglich f¨ur die Geistlichkeit und sp¨ater dem h¨oheren Adel – , war ein spontanes Festhalten von Gedanken bzw. ein ebenso spontanes Nachlesen nur einigen wenigen Auserw¨ahlten vorbehalten. Von einem Massenmedium konnte noch lange Zeit keine Rede sein. Die Entwicklung neuer Medien wie der Schrift hatte enorme Auswirkungen auf die Gesellschaft und wurde dadurch auch zum Gegenstand der Kritik. Der griechische

28

2 Geschichtlicher R¨uckblick

Philosoph Platon z.B. berichtete in seinem Dialog Phaidros“ die folgende Ge” schichte, die Sokrates (470–399 v. Chr), ein vehementer Kritiker des Schreibens, der selbst auch keine schriftlichen Zeugnisse hinterlassen hat, erz¨ahlte: ¨ Thamus, dem K¨onig von Agypten hatte der Gott Thot mit allen anderen Wissenschaften auch die Kunst des Schreibens u¨ berbracht, die den Menschen in die Lage versetze, Gedanken zu konservieren, die ansonsten bald wieder vergessen w¨urden. Aber der Pharao (alias Sokrates) war alles andere als zufrieden. Das Ged¨achtnis, so der Pharao, sei eine wunderbare Gabe, die nur dadurch am Leben erhalten werden k¨onne, wenn man sich best¨andig in ihr u¨ be. Mit der neuen Erfindung nun br¨auchten die Menschen sich ihrer gar nicht mehr zu bedienen, denn anstelle sich selbst anzustrengen, m¨ussten sie sich fortan nur noch der neuen Erfindung bedienen. Schreiben sei deshalb gef¨ahrlich, da es die Geisteskraft schw¨ache im Austausch f¨ur ein in Stein gemeisseltes Ged¨achtnis [181].

Wer sich also der Schrift bedient, um etwas zu notieren, ist eigentlich nur zu tr¨age, sein Erinnerungsverm¨ogen zu bem¨uhen. Die Klage gegen das Schreiben, die uns ironischerweise nur deshalb bekannt ist, da sie vom Sokrates-Sch¨uler Platon aufgeschrieben wurde, erinnert uns verbl¨uffend an die Klage der moderne Medienkritiker gegen das Fernsehen, das die aktiven F¨ahigkeiten der Menschen verk¨ummern lasse. Heute wissen wir nat¨urlich, dass B¨ucher selbstverst¨andlich nicht an unserer Stelle denken und Entscheidungen treffen. Im Gegenteil, B¨ucher fordern den menschlichen Geist heraus, sich weiter zu vervollkommnen und narkotisieren ihn nicht [68]. Allerdings fand sich die sokratische Warnung vor allzu blindem Vertrauen in das geschriebene Wort nur allzu bald best¨atigt, als im Jahre 48 v. Chr. in den Kriegen von Gaius Julius C¨asar (100-44 v. Chr.) die Bibliothek von Alexandria (siehe auch Abb. 2.6), die mit einem Bestand von ca. 700.000 Buchrollen gr¨oßte Bibliothek des Altertums, in einem Brand zerst¨ort wurde und damit ein Großteil des dort angesammelten Wissens der damaligen Zeit endg¨ultig verloren ging. Das wenig Verbliebene wurde dann von christlichen Eiferen in der Anfangszeit des Christentums zerst¨ort. So ging nahezu das gesamte Wissen der Antike verloren und die lange Epoche des dunklen Mittelalters“ nahm ihren Anfang [174]. ”

2.2 Erste Kommunikationsnetzwerke Die Vielfalt der Beschreibstoffe, die der Mensch zur Weitergabe von Informationen in Schriftform im Laufe der nahezu 7.000-j¨ahrigen Schriftgeschichte verwendete, scheint unbegrenzt. Neben anorganischen Materialien, wie Stein, Ton, Metall oder gar Kunststoff wurde eine Vielzahl organischer Stoffe, wie Knochen, Muscheln, Holz, Leder, Palmbl¨atter, Papyrus, Papier oder Textilien benutzt. Die a¨ ltesten Spuren menschlichen Kulturschaffens finden sich in Stein geritzt, geschlagen oder auch gemalt. Erste Zeugnisse von Schriftzeichen finden sich auch in gebrannten Tontafeln und in aus Ton gebrannten Siegeln. Waren die Tontafeln gebrannt, waren sie zudem weitgehend f¨alschungssicher. Anders als die fr¨uhen Beschreibmaterialien Papyrus oder Pergament widerstanden sie der Vernichtung durch Br¨ande. Manche Arch¨aologen gehen sogar davon aus, dass die Mehrzahl der erhaltenen Tontafeln

2.2 Erste Kommunikationsnetzwerke Die Bibliothek – Aufgabe und Geschichte Der Begriff der Bibliothek“ wurde erstmals vom griechischen Kom¨ odiendichter Kra” tinos (520–423 v. Chr.) verwendet und bezeichnet eine Sammlung von Schriften. Das Mittelalter pr¨ azisierte den Begriff als B¨ uchersammlung und auf das Geb¨ aude, in dem die gesammelten B¨ ucher aufbewahrt werden. Im Gegensatz zum Archiv“, dessen Ar” beitsschwerpunkt sich auf die Dokumentation von Schriftst¨ ucken mit politischem und wirtschaftlichem Inhalt konzentriert, l¨ asst sich die Aufgabe von Bibliotheken heute in drei Gebiete unterteilen: die Erwerbung von B¨ uchern und Schriftdokumenten, die Archivierung und Katalogisierung der Buchbest¨ ande (deren Nachweis erfolgt u ¨ber eine Bibliographie) sowie die Verf¨ ugbarmachung der gesammelten Best¨ ande im Rahmen der Bildungs- und Informationsvermittlung. ¨ In Agypten ließ Pharao Ramses II. (um 1290–1224 v. Chr) um 1250 v. Chr. eine erste Bibliothek als Teil seines Grabmals einrichten, die etwa 20.000 Schriftrollen umfasst haben soll. Als ¨ alteste Bibliothek der Weltgeschichte gilt die um ca. 650 v. Chr. begonnene u onigs Assurbanipal (ca. ¨ber 20.000 Tontafeln umfassende Sammlung des Assyrerk¨ 669–627 v. Chr.) in Ninive. Jede Tontafel dieser Bibliothek war mit einem Besitzvermerk des K¨ onigs versehen und ein Heer von Kopisten fertigte Abschriften assyrischer, sumerischer und akkadischer Werke an. Als bedeutendste B¨ uchersammlung des Altertums gilt die 288 v. Chr. gegr¨ undete große Bibliothek von Alexandria. Divergierenden Quellen zur Folge wird ihr gesammelter Bestand mit 400.000 bis 700.000 Schriftrollen angegeben. Mit dem Auftrag versehen, alle Schriften der damaligen Welt zu sammeln war sie zentraler Treffpunkt f¨ ur Wissenschaftler und Gelehrte. Ihr angegliedert war das Museion“, ein den Musen geweihtes, ” einzigartiges Forschungsinstitut, in dem Wissenschaftler und deren Sch¨ uler ein ideales Umfeld fanden, um u ¨ber das damalige Wissen zu diskutieren und zu lernen. Um so tragischer ist es f¨ ur uns heute, dass die Bibliothek zerst¨ ort wurde und ihr Schriftgut verloren ging. Der genaue Hergang ihrer Zerst¨ orung ist bis heute noch immer umstritten. Antike Quellen sprechen von einem Feuer bei C¨ asars Eroberung Alexandrias im Jahre 48 v. Chr. Es folgten weitere r¨ omische Angriffe auf Alexandria im 3. Jahrhundert n. Chr. unter Kaiser Aurelian (214–275 n. Chr.), bei der die Geb¨ aude der Bibliothek nach und nach zerst¨ ort wurden. Danach wurde die weiter im Stadtinneren gelegene Tochterbibliothek, das sogenannte Serapeion“ genutzt, in dem ca. 40.000 Schriftrollen verwahrt wurden. ” Auf Befehl des christlichen Kaisers Theodosius I. (346–395 n. Chr.) hin ließ im Jahre 391 n. Chr. Theophilus (†412), der Patriarch von Alexandria, alle heidnischen Tempel und mit ihnen auch das Serapeion zerst¨ oren. Damit endete eine fast 700-j¨ ahrige Epoche der Bibliotheksgeschichte. Die Araber unter Kalif Omar von Damaskus (592–644) eroberten Alexandria im Jahre 642, die große Bibliothek von Alexandria bestand bereits nicht mehr. Die weitverbreitete Version von der Zerst¨ orung durch die Araber hatte ihre Wurzeln in der mittelalterlichen Kreuzzugspropaganda. Die alexandrinische Bibliothek gilt als das antike Vorl¨ aufermodell der modernen Nationalbibliothek, die mit der 1536 durch den franz¨ osischen K¨ onig Franz I. (1494–1547) eingerichteten Biblioth` eque du Roi“ ihren Anfang nahm. Per Dekret wurden alle ” Buchh¨ andler verpflichtet, ein obligatorisches Exemplar jedes in Frankreich ver¨ offentlichten Werkes an die Bibliothek des K¨ onigs abzuliefern. Auch heute noch haben Nationalbibliotheken als zentrale staatliche Bibliotheken die Aufgabe, ausgestattet mit dem Recht auf ein Pflichtexemplar eines jeden erschienenen Buches, s¨ amtliche B¨ ucher eines Landes zu archivieren und zu katalogisieren. Weiterf¨ uhrende Literatur: Gantert, K., Hacker, R.: Bibliothekarisches Grundwissen, 8. Aufl., Saur, M¨ unchen (2008) Jochum, U.: Kleine Bibliotheksgeschichte, 3. Aufl., Reclam, Stuttgart (2007)

Abb. 2.6 Eine kurze Geschichte der Bibliothek

29

30

2 Geschichtlicher R¨uckblick

durch unabsichtliche Feuer gebrannt wurden und nicht durch bewusstes Brennen im Ofen. Zudem war ihre Herstellung ausgesprochen billig. Je dauerhafter Information in Form von Schrift konserviert wurde, desto schwieriger war es, diese Information u¨ ber gr¨oßere Distanzen auszutauschen und zu transportieren. So dauerhaft Felszeichnungen, H¨ohlenmalereien und Felsgravuren auch sind, ihre Botschaften konnten ausschließlich u¨ ber den Umweg des oft unzuverl¨assigen Ged¨achtnisses des Betrachters weitertransportiert werden. Einfacher gestaltete sich der Transport von beschrifteten Stein-, Ton- oder sp¨ater auch Wachstafeln, doch auch in diesem Fall waren dem Umfang der transportierten Botschaft stets enge Grenzen gesetzt. Den ersten Schritt in Richtung eines flexiblen und leicht zu trans¨ portierenden Informationstr¨agers machten die Agypter mit der Entwicklung des Papyrus, ein aus dem Mark der Sumpfgraspflanze Cyperus Papyrus hergestellter Beschreibstoff, dessen Herstellungsverfahren lange geheim gehalten worden ist [148]. ¨ Zur Beschriftung entwickelten die Agypter eine schwarze Tusche, die aus Ruß und einer L¨osung von Gummi arabicum bestand und die mit einem Pinsel aus Binsen aufgetragen wurde. Das Pergament wurde in der griechischen Antike etwa im 3. Jhd. v. Chr. als Schreibmaterial erstmals erw¨ahnt. Als Grundstoff f¨ur das Pergament dienen in Kalklauge eingelegte Tierh¨aute, die durch Abschaben von Fleisch und Haarresten gereinigt und anschließend in Rahmen aufgespannt getrocknet wurden. Gegen¨uber dem Papyrus barg das Pergament den Vorteil, dass man es beidseitig beschreiben und Fehler durch Abschaben wieder korrigieren konnte. Im Gegensatz zu Papyrus war Pergament – obwohl in der Herstellung teurer – vorallem in feucht-heißen Klimazonen haltbarer und best¨andiger und entwickelte sich so zum wichtigsten Beschreibstoff der Antike [197]. Der entscheidende Schritt in der Entwicklungsgeschichte der Beschreibstoffe hin zu einem billigen, einfach und in großen Mengen herzustellenden Medium gelang dann den Chinesen mit der Erfindung des Papiers um etwa 105 n. Chr., zur Zeit der o¨ stlichen Han-Dynastie. Im Jahr 794 nahm in Bagdad die erste Papierm¨uhle der arabischen Welt ihren Betrieb auf. So erreichte das Papier Ende des 8. Jahrhunderts ¨ auch Agypten, wo es das seit Jahrtausenden verwendete Papyrus rasch verdr¨angte. Die Araber h¨uteten das Geheimnis der Papierherstellung f¨ur fast f¨unf Jahrhunderte. Sie betrieben einen regen Papierhandel, so dass auch die abendl¨andischen Europ¨aer diesen Beschreibstoff u¨ ber das von den Arabern besetzte Spanien schnell kennenlernten [199, 239]. Diese Schl¨usselrolle der islamischen Kultur in der Herstellung und Verbreitung des Beschreibstoffes Papier kann heute immer noch an dem Wort Ries“ abgelesen werden, das Einheiten von 500 Blatt Papier bezeichnet. Die ersten ” europ¨aischen Papierm¨uhlen sind 1144 im spanischen Valencia und 1276 im italienischen Fabriano nachgewiesen. Erst im Jahre 1390 nahm auch in Deutschland eine erste wasserkraftbetriebene Papierm¨uhle ihren Betrieb auf, die Gleism¨uhle an der Pegnitz. Nur 200 Jahre sp¨ater wurden alleine in Deutschland 190 Papierm¨uhlen betrieben, meist in N¨ahe eines fließenden Gew¨assers, da die Papierherstellung einen enormen Wasserbedarf hatte und zudem die Wasserkraft eine ideale Kraftquelle darstellte [228].

2.2 Erste Kommunikationsnetzwerke

31

Abb. 2.7 Der Papierma” cher“, (Holzschnitt von Jost Amman, 1568), [6]

Leicht zu transportierende Informationstr¨ager waren eine Voraussetzung f¨ur die zuverl¨assige Kommunikation u¨ ber große Distanzen. Die Nachteile einer memorierten m¨undlichen Botschaft, die durch einen Boten u¨ berbracht wird, sind offensicht¨ lich: geringe Ubertragungsgeschwindigkeit, geringe Reichweite und mangelnde Zuverl¨assigkeit der u¨ bermittelten Nachricht. Auch die Antwort auf eine Botschaft ließ entsprechend lange auf sich warten, wenn sie denn u¨ berhaupt kam. Missverst¨andnisse und Fehler beim Interpretieren der Botschaft waren – und sind es u¨ brigens auch heute noch – an der Tagesordnung. ¨ Doch die Ubermittlung von Botschaften u¨ ber große Distanzen hat bereits eine l¨ange¨ re Geschichte. Bereits die Agypter nutzen den Nil als Hauptverkehrsader, um Nachrichten durch Schiffsreisende zu u¨ bermitteln. Zus¨atzlich entsandten die a¨ gyptischen Pharaonen zahlreiche Fußboten, um den Kontakt mit weit entlegenen Provinzen zu pflegen. Diese mussten in der Lage sein, weite Strecken in m¨oglichst kurzer Zeit zur¨uckzulegen. Trotzdem kann von einem geordneten Postwesen im heutigen Sinn ¨ noch keine Rede sein. Erst im Neuen Reich ab ca. 1.500 v. Chr. gab es in Agypten auch offizielle Briefboten, sowohl Fußboten als auch berittene Briefboten. Neben der akustischen Telekommunikation, wie sie z.B. in Form von Rufpostensystemen im antiken Griechenland und Persien bereits in der Antike u¨ berliefert sind, gab es die Trommeltelegrafie, die auch heute noch bei Naturv¨olkern anzutreffen ist. Insbesondere in Afrika entstanden und verbreiteten sich regelrechte Trommelsprachen, bei denen die u¨ bermittelten Nachrichten in Anlehnung an Rhythmus und Silbentonh¨ohe der nat¨urlichen Sprache nachgetrommelt“ werden. ” Wohlorganisierte Botenstaffetten gab es nachweislich bereits im 5. Jhd. v. Chr im Perserreich und sp¨ater auch bei den R¨omern. Wie der griechische Geschichtsschrei-

32

2 Geschichtlicher R¨uckblick

ber Herodot (ca. 484–424 v. Chr.) berichtete, ließ K¨onig Kyros II. (550–529 v. Chr.) eigene Poststationen in regelm¨aßigen Abst¨anden auf den wichtigsten Verkehrsrouten des persischen Weltreiches einrichten, die alle etwa eine Pferdetagesreise voneinander entfernt lagen und den Boten als Zwischenstationen dienten. Im antiken Griechenland gab es dagegen auf Grund der zahllosen, zum Teil miteinander zerstrittenen Stadtstaaten zun¨achst kein eigenes Postwesen. Allerdings gab es Fußbo¨ ten, sogenannte Hemerodrome, die zur Ubermittlung von Nachrichten eingesetzt wurden, die bedingt durch die geographische Beschaffenheit Griechenlands oft sogar schneller waren als berittene Boten. Der ber¨uhmteste dieser Boten ist Pheidippides, der im Jahr 490 v. Chr. in zwei Tagen die Strecke von Athen nach Sparta (ca. 240 km) zu Fuß zur¨uckgelegt haben soll, um dort um Hilfe f¨ur die bevorstehende Schlacht bei Marathon zu bitten. Der cursus publicus des R¨omischen Reichs, ein vermittels von Reiterstaffetten betriebener Nachrichten¨ubermittlungsdienst, der sich entlang der Straßen des r¨omischen Imperiums erstreckte – von Britannien bis Nordafrika und von Spanien bis Arabien und ans Schwarze Meer – wird oft als Urform der heutigen Post angesehen. Zur Zeit seiner gr¨oßten Ausdehnung soll der cursus publicus ein sich u¨ ber 90.000 km erstreckendes Straßennetz genutzt haben, auf denen in Abst¨anden von etwa 7 bis 14 km Stationen f¨ur den Pferdewechsel der berittenen Boten eingerichtet waren. Dieser unter Kaiser Augustus (31.v.Chr.–14 n.Chr.) im Jahre 15 v. Chr. institutionalisierte Botendienst bot allerdings lediglich eine Kommunikationsinfrastruktur im Dienste der Verwaltung und des Milit¨ars f¨ur die damalige F¨uhrungselite dar [216]. Als das r¨omische Imperium in den Wirren der V¨olkerwanderung unterging, zerfiel auch dieser Vorl¨aufer des Postdienstes mehr und mehr, bis er schließlich im 6. Jahrhundert v¨ollig zum Erliegen kam. F¨ur die Bef¨orderung von privater Post musste man im r¨omischen Reich andere Wege w¨ahlen, wie z.B. reisende Freunde und Bekannte, denen man private Post mit gab. Waren nur k¨urzere Distanzen zu u¨ berbr¨ucken schickte man als R¨omer eigens zu diesem Zweck gehaltene Sklaven, die am Tag bis zu 75 km zu Fuß zur¨ucklegen konnten. Eine regelm¨aßige Nachrichtenbef¨orderung war unzertrennbar mit einem Ausbau des Verkehrs- und Transportwesens verbunden. Ohne Verkehr gab es keinen Nachrichtenfluss – und mit dem Verkehr entstand das Bed¨urfnis, wie Waren auch Neuigkeiten u¨ ber gr¨oßere Distanzen hinweg auszutauschen. So gab es bereits vor dem gewaltigen Straßennetz des r¨omischen Imperiums im Europa der Bronzezeit die sogenannte ¨ Bernsteinstraße, die von Italien u¨ ber Osterreich nach D¨anemark verlief, und in China f¨uhrten aus dem Reich der Mitte u¨ ber die Seidenstraße Karawanen ihre kostbaren G¨uter in den Westen. Im Mittelalter folgten eine Reihe von unterschiedlichen, zumeist sozial verankerten Botensystemen: Klosterboten, Boten des Deutschen Ritterordens, Kaufmanns-, St¨adte- und Universit¨atsboten und, speziell im s¨uddeutschen Raum die sogenannten Metzgerboten. Das Handwerk des Metzgers machte es erforderlich, u¨ ber Land von Viehmarkt zu Viehmarkt zu ziehen. So war es naheliegend und zudem eine brilliante Gesch¨aftsidee, diesen auf ihren Reisen auch Briefe zur Bef¨orderung mitzugeben. Diese mehr oder weniger organisierten Botendienste u¨ berbrachten, entweder als Ein-Mann-Post oder als Staffettensystem, sowohl Briefe als auch memorier-

2.2 Erste Kommunikationsnetzwerke

33

te Botschaften. Die Postkurse folgten dabei jeweils den bereits existierenden wirtschaftlichen und politischen Verbindungswegen. Die Klosterboten dagegen hielten die Nachrichtenverbindung zwischen den einzelnen Kl¨ostern und Rom aufrecht. Dabei handelte es sich bei den Boten meist um M¨onche, die die Nachrichten mit auf ihre Reisen nahmen. ¨ Auch der Einsatz von Brieftauben, die bereits von den Agyptern vor 5000 Jahren domestiziert wurden, muss hier Erw¨ahnung finden. Ihre Flugt¨uchtigkeit (durchschnittliche Fluggeschwindigkeit ca. 60 km/h, Spitzengeschwindigkeiten bis zu 120 km/h und Reichweiten von bis zu 1000 km) und ihr hervorragender Orientierungssinn waren verantwortlich daf¨ur, dass sie schon fr¨uh zum Zwecke der Nachrichten¨ubermittlung eingesetzt wurden. Aufgrund von Eisenmineralien im Schnabel k¨onnen sich Tauben am Erdmagnetfeld orientieren und so ihre geografische Position ¨ bestimmen. In Agypten und anderen L¨andern des mittleren Ostens bereits um 1000 v. Chr. eingef¨uhrt, unterhielten auch Griechen und R¨omer Tauben zur Bef¨orderung von Briefnachrichten. Nur-Ed Din (1118–1174), Emir von Damaskus, begann als erster mit dem Auf- und Ausbau einer systematischen Brieftaubenpost f¨ur Staats¨ zwecke, mit deren Hilfe er sein in langen K¨ampfen erfochtenes Reich von Agypten bis in das iranische Hochland verwaltete [24]. In Europa fanden Brieftauben erst ab dem 16. Jahrhundert Verwendung, wo sie bis zur Mitte des 19. Jahrhunderts, also bis zum Aufkommen der Telegrafie ein sehr wichtiges Kommunikationsmedium blieben. Der Legende nach soll der Londoner Bankier Nathan Mayer Rothschild (1777– 1836) die Nachricht u¨ ber Napoleons Niederlage bei Waterloo u¨ ber eine Brieftaube erhalten haben. Rothschild gelang es mit Hilfe dieser Nachricht an der Londoner B¨orse einen beachtlichen Gewinn zu erzielen und legte so den Grundstein zu seinem Verm¨ogen [251]. Bis 1851 bef¨orderte die Nachrichtenagentur Reuters zwischen Br¨ussel, Aachen und K¨oln B¨orsenkurse mit Hilfe von Brieftauben. Die Schweizer Armee unterhielt sogar noch bis 1997 einen eigenen Brieftaubendienst. Der erste moderne Postkurs wurde 1490 von K¨onig Maximilian I. (1459–1519) zwischen seinem Hof in Innsbruck und Mecheln in den burgundischen Niederlanden eingerichtet und von der Familie Thurn und Taxis (fr¨uhere Schreibweise Thassis) unterhalten. Die Notwendigkeit, die Maximilian dazu veranlasste war die Verwaltung seines sehr weit auseinanderliegenden Herrschaftsgebietes: Einerseits die habsburgischen Erblande in Tirol zusammen mit der Steiermark und andererseits die durch seine Heirat (1477) mit Maria, der Erbtochter Karls des K¨uhnen von Burgund (1432–1477), erlangten Gebieten im heutigen Belgien. Bereits im 15. Jahrhundert waren wiederholt Angeh¨orige des lombardischen Geschlechts Thassis, das aus Bergamo in Oberitalien stammte, im p¨apstlichen Kurierdienst t¨atig und schon 1451 richtete Roger de Thassis im Auftrag Friedrich III. in Tirol und in der Steiermark f¨ur Heer und Verwaltung eine u¨ ber Zwischenstationen organisierte Briefbef¨orderung ein. Als Maximilians Sohn Philipp 1504 K¨onig von Kastilien wurde, erweiterte sich der unter der F¨uhrung von Franz von Taxis (1459–1517) installierte Postkurs bis nach Spanien. In dem 1516 zwischen Maximilian I. und Franz von Taxis festgelegten Postvertrag wurden erstmals Bef¨orderungszeiten festgelegt, die je nach Jahreszeit unterschiedlich ausfallen konnten. So betrug die Bef¨orderungszeit f¨ur einen Brief zwischen Br¨ussel und Toledo im Sommer 12 und im Winter 14 Tage.

34

2 Geschichtlicher R¨uckblick

Schnell entwickelte sich ein europaweites, kostenpflichtiges Nachrichten¨ubermittlungssystem, das einen regelm¨aßig verkehrenden und zuverl¨assigen Service anbot und bereits ab dem beginnenden 16. Jahrhundert auch f¨ur private Post offenstand. Der straff organisierte Reiter- und Pferdewechsel an eigens eingerichteten Poststationen erm¨oglichte einen durchschnittlichen t¨aglichen Postweg von 166 km. Aus den Reiseberichten des venezianischen Kaufmannsohns Marco Polo (1254–1324) ist bekannt, dass China bereits im 13. Jahrhundert ein hervorragend ausgebautes Postsystem unterhielt. Entlang der Hauptstraßen des chinesischen Reiches war ein gut durchorganisiertes System von Herbergen und Stallungen f¨ur berittene Boten installiert, das ann¨ahernd 10.000 Stationen umfasst haben soll. 1597 erhob Kaiser Rudolf II. von Habsburg (1552–1612) das deutsche Postwesen zum kaiserlichen Hoheitsrecht, dessen alleinige Nutzung auf der Basis eines erblichen Vasallenverh¨altnisses dann 1615 der in den Reichsgrafenstand erhobenen Familie Taxis u¨ bertragen wurde. Die Post wurde quasi verstaatlicht, was in letzter Konsequenz die allgemeinen Postbef¨orderung f¨ur Jedermann erm¨oglichte. Im Laufe der Zeit und Dank des vererblichen Sonderrechts – des sogenannten Privilegs – entwickelt sich die Thurn-und-Taxis-Post schnell zu einer Art europ¨aischer Staatspost, die Ende des 16. Jahrhunderts bereits ein Heer von 20.000 Kurieren besch¨aftigte [228]. Das Geschlecht der Thurn und Taxis war in der Lage, sich u¨ ber die Jahrhunderte so unentbehrlich zu machen, dass sie ihr Postsystem erst im Jahre 1867 auf Grund der Zersplitterung des deutschen Reiches in unz¨ahlige Kleinstaaten an Preußen u¨ bergeben mussten. Artikel 10 der Bundesverfassung des Norddeutschen Bundes, dem Vorg¨anger des Deutschen Reichs, beseitigte dann die Thurn- und Taxissche Post. Auch Wasserwege wurden zur Postbef¨orderung genutzt. Der erste Schiffspostdienst in Europa wurde 1633 in England f¨ur die Postbef¨orderung zwischen Dover und Calais, sowie nach Dublin eingerichtet.

2.3 Die Entwicklung des Buchdrucks Sorgte die Einrichtung moderner Postsysteme f¨ur die schnellere Bef¨orderung von Nachrichten u¨ ber große Distanzen, blieben diese doch beschr¨ankt auf individuelle Nachrichten f¨ur den Kommunikationsfluss zwischen (einem) Sender und (einem) Empf¨anger. Um eine Nachricht schnell und in großer Zahl verbreiten zu k¨onnen, musste diese m¨oglichst einfach vervielf¨altigt werden k¨onnen. Dem manuellen Abschreiben l¨angerer Nachrichten waren dabei mengen- und zeitm¨aßige Grenzen gesetzt. Dies a¨ nderte sich grundlegend mit der Entwicklung des Buchdrucks. Die Geschichte der Druckkunst l¨asst sich bis in das 9. Jahrhundert nach China zur¨uckverfolgen. Der a¨ lteste erhaltene Druck stammt aus den buddhistischen M¨onchsh¨ohlen Dun-Huang im westchinesischen Turkestan. Er wurde im Jahre 868 hergestellt, 100 Jahre nachdem man schon in Japan (heute verschollene) B¨ucher gedruckt hat. Allerdings sind h¨olzerne Druckst¨ocke aus China bekannt, die bereits aus dem 6. Jahrhundert stammen. Sie wurden von buddhistischen Priestern hergestellt, die religi¨ose Darstellungen in Holz schnitten, einf¨arbten und auf Seide oder Hadernpapier

2.3 Die Entwicklung des Buchdrucks

35

druckten. Als Stempel dienten dabei h¨olzerne W¨urfel oder T¨afelchen. Diese Technik des Holzschnitts (Xylographie) z¨ahlt zu den Hochdruckverfahren und gilt als das a¨ lteste grafische Druckverfahren. Punzen, Stempel und Siegel k¨onnen dabei als weitaus a¨ ltere Vorl¨aufer des Drucks betrachtet werden. So fanden sich auf mesopotamischen Tonziegeln Stempelabdr¨ucke, die auf das 3. Jahrtausend v. Chr. datiert werden. In der chinesischen Tang-Zeit (615–906) kam man im 9. Jahrhundert erstmals auf die Idee, ganze B¨ucher zu drucken. Der Druck mit beweglichen, aus Ton geformten Lettern geht auf den chinesischen Alchemisten und Drucker Bi Sheng (†1052) zur¨uck, der in den Jahren 1041–1049 seine Kunst aus¨ubte. Er kam auf die Idee, einen Schriftsatz aus Standardtypen zu entwickeln, die sich seriell herstellen ließen. In der westlichen Welt wird die Entwicklung des Buchdrucks oft als initiales Ereignis gewertet, das den Menschen in eine Epoche der f¨ur jedermann zug¨anglichen und massenhaft verbreiteten Information f¨uhrte. Seine Auswirkungen lassen sich kaum untersch¨atzen. So sahen es bereits die Zeitgenossen, insbesondere die kirchlichen und weltlichen Machthaber, als ausgemachte Sensation, Information tausendfach und in Windeseile zu vervielf¨altigen. Dem Kaufmannssohn Johannes Gensfleisch zum Gutenberg (1397–1468), einem sinnreichen Goldschmied, der den Hof zum Gutenberg in Mainz bewohnte, gelang mit seiner Erfindung eines Gießverfahrens f¨ur bewegliche Lettern die dazu notwendige Normierung der Schrift. Bei seiner T¨atigkeit als b¨ucherkopierender Verlagsschreiber lernte er die sogenann¨ ten Blockbucher kennen, die in einem einfachen, auf dem Holzschnitt beruhenden Stempelverfahren hergestellt wurden. Allerdings erforderte die Produktion jeder einzelnen Seite einen gewaltigen Aufwand und war daher der traditionellen Kalligrafie, die von ganzen Hundertschaften von Schreibern ausgef¨uhrt wurde, unterlegen. Gutenberg betrachtete das Problem der mechanischen Vervielf¨altigung von Schriftgut mit dieser Drucktechnik analytisch und erkannte, dass wenn man die Bl¨ocke in hinreichend kleine Einzelteile zerlegte, man alles, was der menschliche Geist mit Hilfe von Worten auszudr¨ucken vermag, lediglich mit den 24 bekannten lateinischen Buchstaben und ein paar Satzzeichen darstellen konnte. Gutenbergs bahnbrechende L¨osung des Druckproblems bestand dann darin, gleichartige Stempel f¨ur Einzelzeichen in großer Zahl und mit der notwendigen geringen Fehlertoleranz zu produzieren, die nach einer Drucklegung immer wieder und in neuer Zusammenstellung f¨ur weitere Drucke verwendet werden konnten. So gelang es ihm, Texte mechanisch in identischer Form und in – verglichen mit der Zahl handschriftlich kopierter Exemplare – gewaltiger Menge zu produzieren: das erste Massenmedium war geboren. Um 1445 gelang es Gutenberg, seine ersten Drucklettern mit einer Legierung aus Blei, Antimon und Zinn mit einem Zusatz aus Wismut zu gießen. Da keine Drucktypen aus Gutenbergs Zeit erhalten sind, ist das genaue Mischungsverh¨altnis unbekannt. Die erzielte Mischung zeichnete sich aber durch schnelles Aush¨arten aus und erm¨oglichte so die z¨ugige Produktion gleichf¨ormiger Typen. Gutenbergs Handgießinstrument war in der Lage, st¨undlich bis zu 100 Satzlettern in gleichbleibender Qualit¨at zu produzieren. Zur gleichen Zeit entstand auch der erste ihm zugeschriebene Druck, der nur in einem kleinem Fragment erhalten geblieben ist: ein Gedicht

36

2 Geschichtlicher R¨uckblick

Abb. 2.8 Der Buchdrucker“, ” (Holzschnitt von Jost Amman, 1568), [6]

vom Weltgericht in deutscher Sprache nach einem um 1360 in Th¨uringen verfassten Sibyllenbuch. Sein erstes repr¨asentatives Druckwerk, das ihn weit bis u¨ ber seinen Tod hinaus ber¨uhmt machen sollte – die 42-zeilige lateinische Bibel – entstand in den Jahren 1452–1456 in einer Auflage von 185 Exemplaren, von denen heute noch 49 Exemplare, wenn auch teils nur noch als Fragment, erhalten sind1 . Zwar kann die Gutenberg-Bibel als das erste Massenprodukt der Drucktechnik gelten, doch war sie alles andere als ein billig produziertes und massenhaft verbreitetes Druckwerk. Gutenbergs Ziel war es wohl vielmehr gewesen, mit der Produktion seiner Prachtbibel die Handwerkskunst der Kalligrafen und Kopisten zu u¨ bertreffen, indem er nicht nur erstklassige Bucherzeugnisse herstellte, sondern diese auch noch in gleichbleibender Qualit¨at zu liefern verstand. Jede seiner Bibeln bestand aus zwei B¨anden mit jeweils 648 und 643 Seiten, wobei etwa 30 Exemplare auf Pergament gedruckt waren [107]. H¨atte Gutenberg die Gesamtauflage auf Pergament drucken lassen, w¨aren dazu die H¨aute von bis zu 50.000 K¨albern n¨otig gewesen [255]. Auch waren die deutschen Papierm¨uhlen um 1450 nicht in der Lage, die zum Druck notwendige Menge an Papier zu produzieren, das gr¨oßtenteils aus Italien importiert werden musste. Gutenberg hat die Druckkunst zwar nicht erfunden und seine Bibel unterscheidet sich f¨ur den heutigen Betrachter kaum von einer zeitgen¨ossischen Handschrift, aber durch die Kombination damals bereits bekannter Techniken in Verbindung mit seinem ingenieurstechnisch meisterlichen neuen Gießverfahren wurde er zum Begr¨under eines neuen Wirtschaftszweiges. 1

1987 wurde eines dieser B¨ucher zum Kaufpreis von 9,75 Millionen DM (rund 5 Mio. Euro) verkauft, der h¨ochste, je f¨ur ein Druckwerk erzielte Preis.

2.3 Die Entwicklung des Buchdrucks

37

Die Vervielf¨altigung von Texten war vor der Erfindung der Druckerkunst eine m¨uhselige Handarbeit, die vor allem die M¨onche in den Kl¨ostern besch¨aftigte, deren Rolle in der Bewahrung und R¨uck¨ubersetzung der antiken Schriften aus dem Arabischen nicht untersch¨atzt werden darf. Studenten und Gelehrte brauchten enorm viel Zeit zum Abschreiben von Texten – sicher ein Grund daf¨ur, dass die Wissenschaft in dieser Zeit nur sehr langsam Fortschritte machte. In den Universit¨atsst¨adten entwickelte sich eine regelrechte Schreibindustrie. So waren im 15. Jahrhundert die Schreiber der Universit¨at von Angers in der Lage, zu relativ niedrigen Preisen binnen eines Monats Abschriften der Vorlesungen anzufertigen, wobei es manchmal sogar gelang, diese Manuskripte bereits vor Beginn der Vorlesungen auszugeben. Zur Zeit, als Gutenberg seine ersten typographischen Versuche anstellte, gab es allein in seiner Heimatstadt Mainz neben den M¨onchen und Studenten 40 Lohnschreiber. W¨ahrend aber mittelalterliche M¨onche f¨ur die handschriftliche Kopie eines Buches mindestens ein Jahr ben¨otigten, konnte Gutenberg mit seiner innovativen Technologie bis zu 300 Seiten pro Tag drucken. Auch wenn Gutenbergs Rolle eher als die eines geschickten Verfahrenstechnikers denn als die des genialen Erfinders einzusch¨atzen ist, so leitete seine Erfindung des Buchdrucks im ganzen Abendland ein neues Zeitalter ein: W¨ahrend vor 1456 weltweit nur ungef¨ahr 5.000 handgeschriebene Bibeln existierten, waren es 50 Jahre sp¨ater schon fast 10 Millionen gedruckte Exemplare. Zwar konnte zur damaligen Zeit nur eine Minderheit der Bev¨olkerung lesen, doch je mehr B¨ucher auf dem Markt waren, desto gr¨oßer wurde auch das Interesse daran. Der Gebrauch der Schrift wurde dank Gutenbergs Druckerpresse zum Allgemeingut. Gutenberg selbst gelang es allerdings nicht, Kapital aus seiner Entwicklung zu schlagen. Er starb 1468, erblindet und bankrott durch einen Prozess gegen seinen Finanzier, den Mainzer Bankier Johannes Fust (1400–1466), der das verliehene Geld zur¨uckforderte und schließlich Gutenbergs Druckerei u¨ bernahm und damit auch die Rechte an seinen Werken. Schon sehr fr¨uh wurde die gerade erst entwickelte Drucktechnik auch zum Zwecke politischer Propaganda eingesetzt. So erschien 1455 eine Flugschrift, der sogenannte T¨urkenkalender ( Eine Mahnung der Christenheit wider die T¨urcken“), in dem zu ” einem Kreuzzug gegen die T¨urken aufgerufen wurde, die kurz zuvor 1453 Konstantinopel erobert hatten. Ein besonders zahlungskr¨aftiger Auftraggeber f¨ur auflagenstarke Kleinpublikationen war die katholische Kirche mit den von ihr ausgegebenen Ablassbriefen. Durch den Verkauf dieser Schriftst¨ucke besserte die Kirche im 15. Jahrhundert ihre Finanzkasse auf, indem Sie gegen die Zahlung einer individuellen Geb¨uhr den Ablass (die Vergebung) der begangenen S¨unden versprach und mit dem offiziellen Ablassbrief besiegelte. Diese Praxis stellte einen der Hauptkritikpunkte der Reformatoren – allen voran Martin Luther (1483–1546) – dar. Der Ablassbrief selbst war vorgedruckt, lediglich der Name des S¨unders sowie Datum und Unterschrift des Ablassverk¨aufers wurden nachtr¨aglich von Hand eingesetzt. Somit war dieses Schriftst¨uck geradezu ideal f¨ur eine massenhafte Vervielf¨altigung geeignet und erreichte Auflagen von mehreren Tausend bis hin zu u¨ ber Hunderttausend. Die im 15. Jahrhundert gedruckten B¨ucher, also in einer Zeit, als sich der Buchdruck noch in den Kinderschuhen befand, werden als Inkunabeln (Wiegendrucke) bezeichnet. Das Jahr 1500 wurde dabei aus rein aus bibliografischen Gr¨unden als

38

2 Geschichtlicher R¨uckblick

Ende der Inkunabelzeit festgelegt. Man geht davon aus, dass in dieser Zeit etwa 30.000 Titel mit einer Gesamtauflage von 9-10 Millionen B¨ucher gedruckt wurden, von denen heute noch ca. 500.000 erhalten sind [84]. Durch den vorwiegenden Druck in lateinischer Sprache erschloss sich diesen Druckerzeugnissen ein europaweiter Markt, der nicht durch regionale Sprachgrenzen eingeschr¨ankt wurde. Neben Flugbl¨attern, Moritaten, kirchlichen und weltlichen Kalendern z¨ahlen politisch, aufr¨uhrerische Reden oder Theologica zum Inhalt der ersten Druckwerke. Zu einem europaweiten Umschlagplatz f¨ur die neuen Druckerzeugnisse aus Deutschland, Frankreich, Italien und den Niederlanden entwickelte sich die Frankfurter Messe. Verkauft wurden dabei vorwiegend Rohdrucke, d.h. ungebundene bedruckte Papierb¨ogen, die von den Druckwerkst¨atten in F¨assern lagernd transportiert und ausgeliefert wurden. Das Buchbinden sowie die k¨unstlerische Ausgestaltung des Druckes mit Rubrizierungen und Illuminationen oblag anschließend dem K¨aufer. Zun¨achst wurden fast ausschließlich großformatige Folianten gedruckt, die f¨ur den Gebrauch in der kirchlichen Liturgie oder f¨ur Universit¨aten bestimmt waren. Erst ab 1480 setzte eine deutliche Verkleinerung der Druckformate ein. War es bislang u¨ blich, Handschriften wie Druckwerken am Ende ein Kolophon mit den Angaben zu Schreiber bzw. Drucker und Druckort hinzuzuf¨ugen, wurden diese Angaben aus praktischen Gr¨unden zusammen mit dem Titel des Buches nach vorne auf ein separates Titelblatt gezogen. In dieser Zeit kam auch die Verwendung von Seitenzahlen (Pagnierung) auf, ebenso wie erste gedruckte Werbeplakate zum Verkauf von B¨uchern. Die Wirkung des Buches als massenhaft produzierbarer Datentr¨ager u¨ bte einen ungeheueren Einfluss auf die Modernisierung in allen Bereichen der Wissenschaft, Verwaltung, Erziehung, Religion und Kunst aus. Das gesellschaftliche Wissen“ ” wurde verschriftlicht, aufgezeichnet und in einem bis dato nicht dagewesenem Ausmaß ver¨offentlicht. Allerdings setzte sich das neue Medium anfangs nur zaghaft durch. Erst im 16. Jahrhundert emanzipierte sich der Buchdruck zusehends von der bis dato vorherrschenden Handschriftenkultur. Die schwarze Kunst“– abgeleitet ” einerseits wortw¨ortlich aus der Druckerschw¨arze, andererseits aber auch Anspielung auf das dahinter stehende Geheimwissen – breitete sich rasant aus. Als neues Handwerk unterlag die Buchdruckerkunst im Gegensatz zu den traditionellen Z¨unften anf¨anglich keinerlei Beschr¨ankungen. Wandernde Buchdruckergesellen konnten sich dort niederlassen, wohin es sie gerade verschlug. Um 1500 gab bereits in 60 deutschen St¨adten insgesamt 300 Druckereien, in Italien 150. Kaum dass der Buchdruck f¨ur eine erste massenhafte Verbreitung von Ideen sorgte, entstand die Furcht, dass unliebsame bzw. gef¨ahrliche Gedanken allzuweite Verbreitung erfahren k¨onnten. So f¨uhrte Berthold von Henneberg (1441–1504), Erzbischof und Kurf¨urst von Mainz als erster deutscher F¨urst mit seinem Edikt vom 22. M¨arz 1485 f¨ur alle aus dem Griechischen, Lateinischen oder einer anderen Sprache“ ins ” Deutsche u¨ bersetzten B¨ucher die Zensur ein mit dem Ziel, bestimmte Kenntnisse und nur unter Gelehrten diskutierte Meinungen nicht popul¨ar zu machen. Zudem forderte der Bischof 1485 den Frankfurter Stadtrat auf, alle auf der Fr¨uhjahrsmesse ausgestellten, gedruckten B¨ucher auf ihren Inhalt zu pr¨ufen und in Zusammenarbeit mit den kirchlichen Beh¨orden gegebenenfalls zu verbieten. Zu diesem Zweck

2.3 Die Entwicklung des Buchdrucks

39

Tabelle 2.1 Meilensteine in der Geschichte der Kommunikationsmedien 30.000 3.500 3.200 3.000 3.000 3.000 1.500 1.400 1.000 9. Jhd. um 650 6. Jhd. 6. Jhd. 6. Jhd. 5. Jhd.

v. v. v. v. v. v. v. v. v. v. v. v. v. v. v.

450 3. Jhd. 288 1. Jhd. 63 105

v. v. v. v. v. n. 8.

Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr. Chr.

Chr. Chr. Chr. Chr. Chr. Chr. Jhd. 794 1041 12. Jhd. um 1440 1455 1485 1490 1502 1536 1571 1633 1647 1650 1710 1764 1796

H¨ ohlenmalereien, erste Bildzeichen und Proto-Schriftzeichen altsumerische Inschriften auf ungebrannten Tontafeln in Uruk Keilschrift in Mesopotamien ¨ Agypter entwickeln die Hieroglyphenschrift in Babylon wird der Abakus als erste Rechenmaschine verwendet ¨ in Agypten wird der Papyrus als Vorl¨ aufer des Papiers eingesetzt ugaritische (phonetische) Keilschrift mit 27 Hauptzeichen Orakelknochen, erste Zeugnisse der chinesischen Schrift ¨ Verwendung von Brieftauben in Agypten und im Mittleren Osten erste Zeugnisse der griechischen Schrift Assurbanipal gr¨ undete in Ninive die erste große Bibliothek erste Grammatik in Indien und Griechenland persisches Boten-Postsystem unter K¨ onig Kyros II. Perserk¨ onig Dareios I. unterh¨ alt Rufpostensysteme Telegrafie mittels vorher verabredeter Feuerzeichen im Peloponesischen Krieg Fackeltelegrafie f¨ ur frei formulierbare Botschaften in Griechenland Pergament wurde als Beschreibstoff erfunden Gr¨ undung der Bibliothek von Alexandria durch Ptolemaios II. Cursus publicus“, Staffettendienst im R¨ omischen Imperium ” Acta diurna“, erste Zeitung des Abendlandes in Rom ” die Chinesen erfinden das Papier Holzschnitt als erstes Druckverfahren in China entwickelt erste Papierm¨ uhle in Bagdad erster Druck mit beweglichen Lettern aus Ton in China Nur-Ed-Din, Emir von Damaskus, richtete staatliche Brieftaubenpost ein Johannes Gensfleisch zum Gutenberg entwickelte den Buchdruck mit beweglichen Lettern erste gedruckte Flugschrift zum Zweck der politischen Propaganda erste staatlich verordnete Buchzensur durch Berthold von Henneberg, Erzbischof und Kurf¨ urst von Mainz Maximilian I. richtete den ersten modernen Postdienst ein, der von der Familie Thurn und Taxis unterhalten wird die Newe Zeitung“, eine Vorform der heutigen Tageszeitung ” erscheint Gr¨ undung der Bibliot` eque du Roi“, Vorl¨ aufer der modernen ” Nationalbibliothek durch Franz I. erstes Zeitungskorrespondentenb¨ uro in Augsburg – die Nouvellanten erster Schiffspostdienst zwischen Dover und Calais erstes Kaffeehaus Europas in Venedig erste regelm¨ aßig erscheindende Tageszeitung in Leipzig Jakob Christof Le Blon entwickelte den 4-Farb-Druck Pierre Simon Fournier normierte die Typographie Aloys Sennefelder schuf mit der Lithographie die Grundlage f¨ ur den modernen Offsetdruck

40

2 Geschichtlicher R¨uckblick

gr¨undete das Kurf¨urstentum Mainz und die Freie Reichsstadt Frankfurt 1486 ge¨ meinsam die erste weltliche Zensurbeh¨orde. Ebenso wurde eine Ubersetzung der Bibel vom Lateinischen in die Volkssprache unterdr¨uckt, da – so Henneberg – die ” ¨ Ordnung der heiligen Messe“ durch die Ubersetzung ins Deutsche gesch¨andet“ ” w¨urde. Papst Leo X. (1475–1521) best¨arkte 1515 dieses Verbot, da er eine wild wuchernde Verbreitung von Glaubensirrt¨umern“ bef¨urchtete. W¨urde auf einmal jeder ” die Bibel lesen k¨onnen, werde diese entweiht und die alleinige Vormachtstellung des Klerus zur Auslegung der heiligen Schrift gef¨ahrdet. Aus der Erkenntnis von Staat und Kirche heraus, dass durch den Buchdruck unliebsame oder gef¨ahrlich erscheinende Ideen schnell und weit verbreitet werden k¨onnen, wurde die Zensur bald schon etwas allt¨agliches. Pr¨aventivzensur, die eine eingehende Pr¨ufung der Schriftst¨ucke bereits vor der Drucklegung durch die Zensurbeh¨orde vorsah, als auch Repressivzensur, die sich auf bereits gedruckte Schriftst¨ucke konzentrierte und deren weitere Verbreitung per Verbot oder Beschlagnahmung untersagte, wurden durch p¨apstliche Bullen bereits durch Papst Innozenz VIII. (1432–1492) und Papst Alexander VI. (1430–1503) institutionalisiert. Zu diesem Zweck musste jedes von der katholischen Kirche genehmigte Buch mit einer Imprimatur (=[lat.] es darf gedruckt werden) der kirchlichen Beh¨orden versehen sein. Zuwiderhandlungen wurden mit drakonischen Strafen – Exkommunikation und sehr hohen Bußgeldern, sowie Berufsverbot – bedroht. 1559 erschien erstmals der ber¨uhmte Index librorum prohibitorum, die schwarze Liste verbotener B¨ucher, der tats¨achlich noch bis in das Jahr 1967 existierte, bis er durch das 2. Vatikanische Konzil offiziell aufgehoben wurde. Aber auch im Zuge der Entwicklung des Buches zum Massenmedium wurde schon fr¨uh Kulturkritik ge¨außert. Der franz¨osische Dichter Victor Hugo (1802-1885), der die Druckkunst das gr¨oßte Ereignis der Menschheitsgeschichte“ nennt, l¨asst in ” seinem Roman Notre Dame de Paris“ den Priester Claude Frollo auftreten, der ” mit seinem Finger zuerst auf ein Buch und dann auf die T¨urme und Malereien seiner geliebten Kathedrale deutet und spricht Ceci tuera cela“, das Buch bedeutet ” das Ende der Kathedrale. Die Geschichte spielt im 15. Jahrhundert, kurz nach der Erfindung des Buchdrucks. Handschriften zu lesen war das Vorrecht einer kleinen elit¨aren F¨uhrungsschicht. Der breiten Bev¨olkerung stand nur die M¨oglichkeit offen, u¨ ber die Malereien und Reliefs in der Kathedrale, der sogenannten Armenbibel“ ” (Biblia pauperum), Informationen und Kenntnis u¨ ber die Geschichten der Bibel, u¨ ber moralische Prinzipien, aber auch u¨ ber geschichtliche oder geografische Gegebenheiten zu erlangen. Papst Gregor II. (669–731), der den Streit um die Bildverehrung in der katholischen Kirche schlichtete – auf Grund des Bibelzitats Du sollst kein Bildnis von ” mir machen“ verbat der ostr¨omische Kaiser Leo III. (685–741) im Jahr 726 jegliche Bilderverehrung in seinem Reich – ersann dazu die raffinierte Kompromissformel: Die Bilder sind f¨ur die Laien, was die Schrift f¨ur die Lesekundigen“. Das Buch ” dagegen w¨urde die Massen dazu anstacheln, sich von ihren wichtigsten Tugenden abzuwenden und die Schriften der Bibel wohlm¨oglich frei zu interpretieren oder gar ungesunde Neugier zu entwickeln [68].

2.4 Entstehung des Zeitungswesen

41

2.4 Entstehung des Zeitungswesen Eine Urform der Zeitung ist in den r¨omischen Annalen, den Jahrb¨uchern, in denen der Vorsitzende des Priesterkollegiums – der Pontifex Maximus – die wichtigs¨ ten Begebenheiten zu H¨anden der Offentlichkeit aufzeichnete. Der Pontifex Maximus war vor der Zeit Julius C¨asars auch der Verantworliche f¨ur den Kalender. Die Bestimmung des Kalenderdatums, das nachwievor auch heute noch die ers” te“ Nachricht jeder Zeitung darstellt, war in der Zeit vor Einf¨uhrung des julianischen Kalenders eine recht komplizierte Angelegenheit. Der hohe Priester musste zur Anpassung des verwendeten Mondjahres, das sich gegen¨uber den Jahreszeiten permanent verschob, immer eine bestimmte Anzahl von zus¨atzlichen Schalttagen bekannt geben. Mit dem Amtsantritt von Julius C¨asar im Jahr 63 v. Chr. entstanden in Rom die ersten o¨ ffentlichen Anzeiger, die sogenannten acta diurna“ oder ac” ” ta urbis“. Diese Vorl¨aufer unserer heutigen Zeitung erschienen eingeritzt auf Steinoder Metallplatten bereits, bevor das Papier u¨ berhaupt erfunden war. C¨asar ließ die Protokolle der Sitzungen des r¨omischen Senats stenographisch festhalten, die direkt im Anschluss noch am selben Tag redigiert und ver¨offentlicht wurden. Urspr¨unglich gab es drei solcher amtlicher Anzeiger, die Senatsakten (acta senatus), die vor C¨asars Amtsantritt nicht o¨ ffentlich zug¨anglich waren, die Volksakten (acta populi) und die Stadtakten (acta urbana), die oft auch die zus¨atzliche Bezeichnung diurna (t¨aglich) trugen, obwohl sie noch nicht streng periodisch erschienen. Von der o¨ ffentlich auf einer weißen Tafel dargestellten offiziellen Version der Nachrichten auf dem Forum Romanum zirkulierten Abschriften in ganz Rom und in den Provinzen. Dieser Vorl¨aufer der Zeitung erschien bis in das Jahr 235 n. Chr., wobei es eine strenge Periodizit¨at u¨ ber das Jahr hinweg nicht gab. Das Zeitungswesen mit seinen bereits angesprochenen Urspr¨ungen in der Antike ist bereits im 16. Jahrhundert vor der Entstehung der eigentlichen Presse zu finden. So existierten geschriebene Zeitungen in Form von handschriftlich notierten Neuigkeiten als Anh¨ange an Gesch¨afts- und Privatbriefe, wie z.B. die sogenannten Fuggerzeitungen“ zwischen 1568 und 1605, eine Sammlung von handschrift” lichen Nachrichten, die das Augsburger Handelshaus Fugger aus seiner Korrespondenz und anderen Quellen zusammenstellen lies. Da die Fuggerschen Gesch¨aftsbeziehungen weit in Europa und der Welt verstreut waren, organisierten sie einen ersten Nachrichtendienst und waren so stets u¨ ber das politische Geschehen informiert. Jeremias Crasser und Jeremias Schiffle gr¨undeten als berufsm¨aßige Nachrichtenh¨andler, auf deren Dienste das Handelshaus Fugger ebenfalls gerne zugriff, 1571 das erste Zeitungskorrespondenzb¨uro in Augsburg und nannten sich die Nou” vellanten“. Der Handel mit Nachrichten als Ware war bereits im 14. Jahrhundert aufgekommen zwischen italienischen St¨adten mit Venedig als Hauptzentrum des Nachrichtenumschlages. Korrespondenten und Nachrichtenh¨andler waren meist in erster Linie diplomatisch-politische oder kaufm¨annische Gesch¨aftstr¨ager, die ihren Berichten besondere Nachrichtenbriefe zur allgemeinen Information anf¨ugten. Mit der Erfindung des Buchdrucks kamen auch politisch oder kommerziell motivierte, ereignisbezogene Einblattdrucke, sogenannte Flugbl¨atter auf. Meist dienten diese Flugbl¨atter aber weniger der politischen Agitation im Sinne des heutigen Protest-

42

2 Geschichtlicher R¨uckblick

Flugblattes, sondern waren eine Handelsware, angeboten von Marktschreiern und fahrenden H¨andlern auf Jahrm¨arkten und Kirchent¨uren. Die Verfasser der Flug-

Abb. 2.9 Flugblatt gegen den Ablass (16. Jhd.), aus [189]

bl¨atter blieben meist anonym. Große Illustrationen, meist als Holzschnitt produziert, nahmen einen dominanten Platz auf dem Flugblatt ein, einerseits um zu dessen Kauf anzuregen, andererseits um den Inhalt breiteren, nicht alphabetisierten Bev¨olkerungsschichten zug¨anglich zu machen. Neben politischen, religi¨osen oder milit¨arischen Nachrichten brachten sie auch oft schon reine Sensationsmeldungen, beispielsweise u¨ ber Teufelsaustreibungen, Kometen, Missgeburten oder Ketzerverbrennungen. Das Flugblatt gilt als das erste Massenkommunikationsmittel. Als direkter Vorl¨aufer unserer heutigen Tageszeitung gelten unperiodisch erscheinende Flugschriften, die im Gegensatz zum Flugblatt aus mehrere Druckseiten bestand. Der Begriff Zeitung tauchte als zidunge“ mit der Bedeutung Kunde“ oder Nach” ” ” richt“ im Raum K¨oln bereits am Anfang des 14. Jahrhunderts auf und wurde als Bezeichnung f¨ur m¨undliche und schriftliche Botschaften verwendet. Die sogenannte Newe (neue) Zeitung“ taucht dann als Titel eines am 4. Dezember 1501 nieder” geschriebenen und verdeutschten Berichts des Dogen Leonhard Lauredan (1459– 1516) auf und entwickelte sich schließlich zum Gattungsnamen f¨ur unperiodisch erscheinende Flugbl¨atter und -schriften des 16. und 17. Jahrhunderts. Zeitungen als periodisch erscheinende Druckform mit aktuellem Inhalt kamen erst Anfang des 17. Jahrhunderts in Mode, so etwa die erste deutschsprachige Wochenzeitung Aviso, ”

2.4 Entstehung des Zeitungswesen

43

Relation oder Zeitung“ 1609 in Wolfenb¨uttel. Da die Verbreitung der Zeitung auf die vorhandenen Boten- und Bef¨orderungsdienste angewiesen war, erschienen sie zun¨achst in der Regel nur w¨ochentlich. Erw¨ahnenswert ist, dass der Ursprung vieler Zeitungen mit der gerade zur selben Zeit entstandenen Kaffeehaus-Kultur einherging, die im ersten europ¨aischen Kaffeehaus in Venedig 1647 ihren Ausgangspunkt hatte. Neben dem Kaffee-Genuss dienten die fr¨uhen Kaffeeh¨auser auch der Lekt¨ure und der Debatte. Kaufleute machten hier Gesch¨afte, Intellektuelle hinterfragten verkrustete Strukturen und alten Aberglauben, Reisende tauschten Informationen u¨ ber Ereignisse in fernen L¨andern aus. Die gerade in der Entstehung begriffenen Zeitungsredaktionen nutzten daher das Kaffeehaus als Redaktionslokal und Nachrichtenb¨orse.

Abb. 2.10 Titelseite einer der ersten Zeitungen (Relation aller F¨urnemmen und gedenckw¨urdigen Historien), 1609

Am 1. Juli 1650 erschien die erste deutschsprachige Tageszeitung, zugleich die erste Tageszeitung der Welt in Leipzig, mit sechs Ausgaben pro Woche, herausgegeben von Timotheus Ritzsch (1614–1678) mit dem Titel Neu-einlauffende Nachricht von ” Kriegs- und Welt-H¨andeln“. Bis zum Ende des 17. Jahrhunderts entstanden alleine in Deutschland bereits 170 Tageszeitungen. Doch die Tageszeitung blieb zun¨achst nur eine Randerscheinung. Ihre interessanteste Funktion gewann sie vor dem 19. Jahrhundert mit dem seit 1702 in London erscheinenden Daily Courant“ mit der ” Rolle als Veranstaltungskalenders der Großstadt. Der Dreißigj¨ahrige Krieg (1618–1648) warf Deutschland wirtschaftlich weit zur¨uck, Frankreich und England wurden fortan zu Pionierl¨andern der Presse. Dort entstan-

44

2 Geschichtlicher R¨uckblick

den auch die ersten Zeitschriften, zun¨achst nur f¨ur Gelehrte, dann auch f¨ur spezielle Fachbereiche und Themengebiete oder auch f¨ur Frauen. Riesige Auflagen (bis zu 300.000) erreichten die Kalender, die bis heute noch eine wichtige und risikoarme Einnahmequelle f¨ur viele Druckereien darstellen. Die Zahl der gedruckten B¨ucher gewann immer gigantischere Ausmaße. Bis gegen Ende des 16. Jahrhunderts wuchs die Anzahl der gedruckten Exemplare auf u¨ ber 200 Millionen [162]. Im 19. Jahrhundert entstand, beg¨unstigt durch die technische Weiterentwicklung der Druckerpressen, die Massenpresse. 1812 wurde die Schnellpresse erfunden, 1845 die Rotationsmaschinen und 1884 die moderne Linotype-Setzmaschine. Zudem stieg das Interesse der breiten Bev¨olkerung an Informationen aus Politik und Gesellschaft. Das staatliche Anzeigenmonopol wurde aufgehoben und durch den Anzeigenverkauf erschloss sich f¨ur das Zeitungswesen eine neue, wichtige Einnahmequelle. Die Zeitung selbst konnte dadurch preisg¨unstiger verkauft werden, was zu einer wesentlich gr¨oßeren Verbreitung f¨uhrte. Im gleichen Maße stieg auch die Alphabetisierungsrate in Deutschland. Lag diese um 1750 noch bei gerade einmal 10%, stieg sie bis 1871 auf u¨ ber 88% an, so dass die Zeitung jetzt f¨ur einen gr¨oßeren Leserkreis interessant wurde. Auch die Pressezensur wurde gelockert und in der Paulskirchenverfassung wurde in Deutschland 1848 die Pressefreiheit gesetzlich verankert. Ende des 19. Jahrhunderts gab es in Deutschland schließlich ca. 3.500 Zeitungen. Die Presse gilt als das a¨ lteste publizistische Massenmedium. Wie beim Aufkommen jedes neuen Massenmediums war sie Gegenstand heftiger kulturkritischer Auseinandersetzungen. Auch die erste in Buchform erschienene Kritik ließ nicht lange auf sich warten: In dem 1678 in Jena erschienenen Diskurs u¨ ber den Gebrauch und ” Missbrauch von Nachrichten, die man Newe Zeitung nennt“ wurde gegen die Zei” tungssucht“ zu Felde gezogen und diese als eitle, unn¨otige, unzeitige und daher ” arbeitst¨orende“ Besch¨aftigung charakterisiert [81].

2.5 Telekommunikationssysteme und Elektrizit¨at 2.5.1 Optische Telegrafie Rauch- und Feuerzeichen gelten als Ausgangspunkt der optischen Telekommunikation, mit der sich im Altertum gr¨oßere Distanzen einfacher u¨ berbr¨ucken ließen als mit Botenstaffetten. Die Technik der optischen Signal¨ubertragung mittels Relaisstationen fand bereits in der griechischen Antike Verwendung. Der Dichter Aischylos (525–456 v. Chr.) berichtete in seiner Trag¨odie Agamemnon“, dass der griechi” ¨ sche Heerf¨uhrer Agamemnon zur Ubermittlung der Nachricht u¨ ber den Fall Trojas (1184 v. Chr) an seine Gattin Klytemnestra eine Feuerzeichenpost versendet h¨atte, die u¨ ber 9 Relaisstationen bis ins 555 km entfernte Argos gelangte [5]. Vom griechischen Geschichtsschreiber Thukydides (460–399 v. Chr.) stammen erste genauere Aufzeichnungen u¨ ber die Anwendung von vorher verabredeten Feuerzeichen im

2.5 Telekommunikationssysteme und Elektrizit¨at

45

Peloponnesischen Krieg 431–404 v. Chr [235]. W¨ahrend Rauchzeichen keine frei formulierbaren Botschaften erlauben, berichtet der griechische Geschichtsschreiber Polybios (200–120 v. Chr.) von der Erfindung der Fackeltelegrafie um 450. v. Chr., mit deren Hilfe sich aus einzelnen Buchstaben des Alphabets geformte Nachrichten u¨ bertragen ließen. Dazu standen zwei Telegrafisten“ hinter einem großen Schild ” und positionierten entsprechend dem zu sendenden Buchstaben Fackeln an einer bestimmten Stelle rechts oder links neben dem Schild. Die R¨omer richteten entlang der Grenzen ihres Reiches Ketten von Signal- und Wacht¨urmen ein, die u¨ ber Feuerzeichen miteinander kommunizierten, wie z.B. in Germanien entlang des Limes vom Rhein bis an die Donau. Der r¨omische Schriftsteller Vegetius Renatus (um 400 n. Chr.) beschrieb, wie bewegliche Balken an hohen T¨urmen angebracht wurden, um durch unterschiedliche Stellung der Balken verschiedene, zuvor verabredete Nachrichten zu signalisieren. Mit dem Niedergang des r¨omischen Imperiums verlor die optische Telegrafie zun¨achst an Bedeutung, wurde aber insbesondere in den Kriegszeiten des Mittelalters in unterschiedlichen Varianten wiedererfunden. Eine wesentliche Verbesserung sollte die optische Telegrafie erst in der Neuzeit erfahren. Ausgel¨ost durch die beginnende industrielle Revolution, sowie tiefgreifende gesellschaftliche Ver¨anderungen, die mit der franz¨osischen Revolution in Europa ihren Ausgang nahmen, brach gegen Ende des 18. Jahrhunderts die große Zeit der optischen Telegrafensysteme an. Eine wichtige Rolle dabei spielte die Entwicklung des Fernrohrs im Jahre 1608 durch den holl¨andischen Brillenmacher Jan Lipperhey (um 1570–1618), das den Menschen in die Lage versetzte, die optische Reichweite seiner Wahrnehmung zu vervielfachen. Bereits 1684 trug der Engl¨ander Robert Hooke (1635–1703), der u¨ brigens auch als der europ¨aische Erfinder des Schnur” telefons“ gilt – das allerdings bereits auf den chinesischen Philosophen Kung-Foo Whing im 10. Jahrhundert zur¨uckgehen soll – der Royal Society in London seine ¨ Ideen zur Ubermittlung von Gedanken u¨ ber weite Entfernungen“ vor [94]. Deren ” technische Umsetzung, einzelne Buchstaben auf großen beschriebenen Tafeln zu u¨ bertragen, die mit Hilfe von Seilz¨ugen auf einem Mastsystem in der N¨ahe Londons aufgebaut werden sollten und mit denen u¨ ber eine Relaiskette von gleichartigen Installationen bis nach Paris telegrafiert“ werden sollte, erwies sich allerdings noch ” nicht wirklich als praktikabel. Erst dem franz¨osischen Physiker Claude Chappe (1763–1805) gelang in den Wirren der franz¨osischen Revolution ein praktikabler Ansatz: ein Zeichen¨ubermittlungssystem mit schwenkbaren Signalarmen, der Semaphor bzw. optische Fl¨ugeltelegraf, und Fernrohren. Chappes Erfindung beruhte auf den Ideen des tauben Physikers Guillaume Amontons (1663–1705), der bereits 1695 die langsam kreisenden Fl¨ugel einer Windm¨uhle in Belleville nutzte, an deren Enden er große, auf Tuch geschriebene Buchstaben heftete und wieder austauschte, und die im entfernten Meudon bei Paris mit einem Fernrohr gelesen werden konnten. Zwar entwickelte der britische Politiker, Erfinder und Schriftsteller Richard Lovell Edgeworth (1744–1817) bereits 1767 einen optischen Telegrafen, der zwischen Newmarket und London zum priva” ten“ Gebrauch betrieben wurde. Doch erst 30 Jahre sp¨ater, bereits nachdem Claude Chappe sein Telegrafiesystem in Frankreich erfolgreich vorgestellt und eingef¨uhrt hatte, bot Edgeworth seinen Telegrafen der britischen Admiralit¨at an [43].

46

2 Geschichtlicher R¨uckblick

Claude Chappe pr¨asentierte seinen Telegrafen, bestehend aus einem f¨unf Meter hohen Mast mit einem zweiarmigen Querbalken, an dessen beiden Enden ebenfalls schwenkbare Balken befestigt waren, erstmals im M¨arz 1792 der gesetzgebenden Nationalversammlung, die sofort den Bau einer ersten 70 km langen Versuchslinie zwischen Pelletier St. Fargau und St. Martin de Thetre beschloss. Nach mehreren erfolgreichen Versuchsreihen, in denen Chappe nachweisen konnte, dass sein Apparat ausreichend robust und einfach zu bedienen war, konnte 1794 eine erste regul¨are Telegrafenlinie zwischen Paris und Lille eingerichtet werden. Ein Buchstabe konnte die 270 km lange und mit 22 Stationsh¨auschen versehene Strecke konnte innerhalb von nur 2 Minuten durchlaufen. Von dieser Geschwindigkeit beeindruckt und den milit¨arischen Nutzen vor Augen wurde schnell beschlossen, dieses Telegrafiesystem auf ganz Frankreich auszuweiten. Chappe wurde zur Einrichtung seiner Telegrafenlinien dazu erm¨achtigt, nach Belieben und Zweckm¨aßigkeit jeden Turm oder Kirchturm f¨ur seine Telegrafen zu nutzen und jegliche Sichthindernisse zu beseitigen. Napoleon Bonaparte (1769–1821) nutzte das System und f¨uhrte es auf seinen Feldz¨ugen in einer mobilen Version mit sich. Dies erm¨oglichte es ihm, seine Truppenteile und seine Logistik besser und u¨ ber gr¨oßere Distanzen zu koordinieren als jede andere Armee.

Abb. 2.11 Ein ChappeFl¨ugeltelegraf am Parise Louvre

Ein Nachteil des Semaphors bestand darin, dass die Signalmasten von jedermann gesehen werden und auch Unbefugte und Spione die milit¨arischen Nachrichten lesen konnten. Dieses Problem wurde durch die Verwendung von Verschl¨usselungsverfahren u¨ berwunden. Bis 1845 entstand ein landes¨ubergreifendes, von Paris ausgehendes, sternf¨ormiges Netz, das die Hauptstadt mit allen wichtigen St¨adten Frankreichs verband. Die Fl¨ugeltelegrafen standen je nach Gel¨andebeschaffenheit und Sichtverh¨altnissen in Abst¨anden von neun bis zw¨olf Kilometern, so dass man mit

2.5 Telekommunikationssysteme und Elektrizit¨at

47

einem Fernrohr die Zeichen der Nachbarstation zweifelsfrei erkennen konnte. In jeder Station arbeiteten zwei Telegrafisten“, die die Zeichen einer der beiden Nach” barstationen ablasen und an die gegen¨uberliegende Station weitergaben. Die Einsatzf¨ahigkeit dieser optischen Telegrafiesysteme bleib trotz ihrer Vorz¨uge sehr beschr¨ankt. Zwar konnte ein einzelnes Zeichen sehr schnell u¨ ber eine große Distanz u¨ bertragen werden – so ben¨otigte 1834 ein Zeichen f¨ur die 600 km lange ¨ Strecke Berlin-Koblenz nur 15 Minuten – aber die Ubertragung eines vollst¨andigen Textes nahm sehr viel Zeit in Anspruch – so dass die Kapazit¨at der o.g. Telegrafenstrecke auf nurmehr zwei Telegramme pro Tag beschr¨ankt blieb. Dazu sorgten schlechte Witterungsbedingungen f¨ur unregelm¨aßigen und unzuverl¨assigen Betrieb. Diese Unzul¨anglichkeiten, sowie das Aufkommen der elektrischen Telegrafie waren daf¨ur verantwortlich, dass bereits 1853 die letzte optische Telegrafenlinie Frankreichs wieder aufgegeben wurde.

2.5.2 Elektrische Telegrafie Einschneidend f¨ur die weitere Entwicklung der Telekommunikation erwies sich die Erforschung und Nutzbarmachung der Elektrizit¨at im beginnenden 18. Jahrhundert. Bis dahin wurden elektrische Ph¨anomene oft nur als Kuriosa und Salonkunstst¨ucke abgetan. Bereits der griechische Naturphilosoph Thales von Milet (ca. 640–546 v. Chr.) hatte die anziehende Wirkung der statischen Elektrizit¨at beschrieben. Er beobachtete, dass ein St¨uck Bernstein, wenn es mit einem Fell gerieben wird, Federn anzieht. Elektron ist der griechische Name des Bernsteins und ist seither f¨ur alle im Zusammenhang mit Elektrizit¨at stehenden Effekte in Gebrauch. Arch¨aologische Funde deuten darauf hin, dass Elektrizit¨at bereits in der Antike zum galavanischen Vergolden von Metallen ausgenutzt wurde. Doch bis zur allgemeinen praktischen Nutzbarmachung der Elektrizit¨at war es noch ein langer Weg. 1730 erst konnte der britische Physiker Stephen Gray (1666–1736) nachweisen, dass sich Elektrizit¨at entlang eines Drahtes fortpflanzen kann: die Idee der elektrischen Nachrichten¨ubertragung war geboren. Mit Hilfe leitender Materialien konnten schon bald gr¨oßere Distanzen u¨ berbr¨uckt werden und mit der Entwicklung der Leidener Flasche um 1745, einer Urform der modernen Batterie, des holl¨andischen Physikers Petrus van Musschenbroek (1692–1761) konnte Elektrizit¨at von nun an auch gespeichert werden. In einem mit C. M.“ unterzeichneten Brief, der 1753 im ” Scot’s Magazine publiziert wurde, schlug der Schreiber erstmals eine Vorrichtung ¨ zur elektrischen Ubertragung von Nachrichten vor, bestehend aus 26 den Buchstaben des Alphabets zugeordneten Dr¨ahten2 . F¨ur eine praktische Umsetzung dieses neuen elektrischen Kommunikationsmittels fehlte allerdings noch eine wirklich zuverl¨assige und konstante Stromversorgung. Erst im Jahre 1800 gelang es dem italienischen Physiker Alessandro Volta (1745– 1827), eine konstante Stromquelle herzustellen, die nach ihm benannte ber¨uhmte 2

Die wahre Identit¨at des Autors konnte nie gekl¨art werden. Indizien weisen darauf hin, dass es sich um den im schottischen Greenock lebenden Chirurgen Charles Morrison handelte [227].

48

2 Geschichtlicher R¨uckblick

Voltasche S¨aule. Selbst mit dieser Stromquelle dauerte es allerdings noch weitere 20 Jahre, bis der D¨ane Christian Oerstedt (1777–1851) die Wirkungsweise des Elektromagnetismus entdeckte und bis auf diese aufbauend der Franzose Andr´e Marie Amp`ere (1775–1836) 1820 den ersten elektromagnetischen Nadeltelegrafen entwickelte. Bereits zuvor hatte der spanische Arzt und Naturwissenschaftler Francisco Salva y Campillo (1751–1828) 1804 (einigen Quellen zur Folge bereits 1795) ¨ einen Elektrolyt-Telegrafen konstruiert, der zur Ubertragung 26 einzelne Leitungen benutzte, an deren Enden sich jeweils ein Glasr¨ohrchen befand, in dem sich bei einem Stromstoß die darin befindliche Fl¨ussigkeit zersetzte und Gasbl¨aschen aufstiegen. Obwohl es dem deutschen Anatom und Physiologen Samuel Thomas von S¨ommering (1755–1830) gelang, diese Technik 1809 in ihrer Reichweite noch zu verbessern, fand solcherart elektrischer Telegrafie kaum Verbreitung, war doch das Erkennen der u¨ bertragenen Zeichen eine langwierige und unzuverl¨assige Angelegenheit. Erste wirklich praktische Bedeutung erlangte der 1833 von Carl Friedrich Gauss (1777–1855) und Willhelm Weber (1804–1891) erfundene Zeigertelegraf, der auf der Verwendung von nur zwei Dr¨ahten und der Einf¨uhrung eines bin¨aren Kodiersystems f¨ur die Buchstaben des Alphabets basierte. Im selben Jahr gelang ihnen die erste telegrafische Nachrichten¨ubertragung vom Physikgeb¨aude bei der Paulinerkirche in der G¨ottinger Innenstadt zur G¨ottinger Sternwarte. Der durch die Vielfalt der neuen M¨oglichkeiten befl¨ugelte Erfindergeist brachte in der Folgezeit eine Vielzahl von weiteren Erfindungen im Bereich des Zeigertelegrafen hervor. Der Durchbruch zur weltweiten Verbreitung gelang allerdings nur dem 1837 vorgestellten schreibenden Telegrafen von Samuel Morse (1791–1872), der 1840 mit der Einf¨uhrung des von seinem Assistenten Alfred Vail (1807–1859) entwickelten Morse-Alphabets 1840 seinen Siegeszug antrat. Die Leistung des seinerzeit als Portraitmaler sehr bekannten Morse bestand haupts¨achlich in der bestechenden Einfachheit seiner Erfindung, die in der Handhabung 1845 mit der Einf¨uhrung der nach ihm benannten Morse-Taste noch weiter verbessert wurde. Die Legende berichtet, dass Morse im Jahr 1825 gerade an einem Portrait General Lafayettes in Washington arbeitete, als seine Frau schwer erkrankte und starb. Die Nachricht ihrer Krankheit erreichte Morse aber erst nach Ablauf von 7 Tagen, so dass er sie nicht mehr lebend wiedersah. In seiner Trauer soll in ihm zum ersten mal der Gedanke aufgekommen sein, ob es nicht m¨oglich w¨are, diese Zeitbarriere f¨ur die Bef¨orderung von Nachrichten mit Mitteln der modernen Technik – der Elektrizit¨at – zu durchbrechen, damit niemals mehr ein Mensch daran gehindert w¨are, in Zeiten der Not einen geliebten Men¨ schen zu benachrichtigen. Wahrscheinlicher aber ist die Uberlieferung, dass Morse 1829 w¨ahrend eines Studienaufenthalts in Paris w¨ahrend seiner h¨aufigen Besuche des Louvre immer wieder fasziniert war von dem optischen Telegrafen, den Claude Chappe dort vor u¨ ber 20 Jahren bereits auf dem Dach des Geb¨audes hatte anbringen lassen (siehe Abb. 2.11) [75]. Neben der bestechenden Einfachheit seiner Erfindung u¨ berzeugte die Morse-Tele¨ grafie zus¨atzlich durch ihre hohe Ubertragungsleistung und ihre witterungsunabh¨angigen Betriebssicherheit. Eine erste 64 km lange Versuchslinie zwischen Baltimore und Washington stellte den Ausgangspunkt des bald um sich greifenden

2.5 Telekommunikationssysteme und Elektrizit¨at

49

Abb. 2.12 Samuel F. B. Morses erster Telegraf, aus [241]

¨ Telegrafie-Fiebers“ dar, die im Mai 1844 mit der Ubermittlung des Bibelzitats ” What Hath God Wrought!“ feierlich er¨offnet wurde. Bereits 1845 wurden mehr ” als 1400 km Telegrafenlinien quer durch die USA verlegt. Da die Regierung der USA einen Ankauf des Patents von Morse ablehnte – man war der Meinung, dass ein solches Unternehmen keinen Gewinn abwerfen w¨urde – erfolgte der Ausbau der Telegrafennetze in den USA durch privatwirtschaftliche Betreiber. Am 1. Januar 1847 wurde zwischen Bremen und Bremerhaven die erste Telegrafenstrecke innerhalb Europas in Betrieb genommen. Schnell verbreiteten sich Telegrafennetze entlang der neuen Eisenbahnstrecken. Der Hauptanteil der telegrafierten Nachrichten wurde zun¨achst nur von Handel, Schifffahrt, der B¨orse und dem Zeitungswesen genutzt und die Vorz¨uge der Telegrafie wurden f¨ur diese Sparten schnell unverzichtbar. Nachrichten wurden zur Handelsware mit extrem kurzen Verfallsdatum. Erste Nachrichtenagenturen, wie z.B. Associated Press in New York (1848) oder Reuters in London (1851) entstanden und verdanken ihre Gr¨undung dem Siegeszug des Telegrafen. Morses System wurde laufend verbessert und bald vom direkt lesbaren Fernschreiber, dem Ticker, einer Erfindung des Musikprofessors David Hughes (1831–1900) abgel¨ost, mit dem eine ¨ Ubertragungsgeschwindigkeit von 150 Buchstaben pro Minute erreicht wurde und der seit 1873 auf allen bedeutenden Telegrafenlinien zum Einsatz kam. Der optische Telegraf, kaum wenige Jahre in Betrieb, wurde von einer technischen Innovation u¨ berrollt, die in ihren M¨oglichkeiten den gestiegenen Bed¨urfnissen und Anspr¨uchen an die Kommunikation der durch die industrielle Revolution ge¨ pr¨agten Gesellschaft entgegenkam. Die Steigerung der Ubertragungskapazit¨ at und ¨ ¨ der Ubertragungsgeschwindigkeit, sowie die Freigabe f¨ur die Offentlichkeit sind dabei wohl als die entscheidenden Faktoren zu sehen, die den Siegeszug der elektri-

50

2 Geschichtlicher R¨uckblick

schen Telegrafie begr¨undeten. Gerade die Freigabe der Telegrafie f¨ur den individuellen, privaten Nachrichtenverkehr sorgte auch hier f¨ur eine gewaltige Expansion. Vor allem in Bezug auf ihre Reichweite er¨offnete die elektrische Telegrafie v¨ollig neue Dimensionen. So wurde 1851 das erste Kabel zwischen England und dem Kontinent verlegt, geographische durch das Meer gesetzten Grenzen wurden u¨ berwunden. Der erste Versuch, ein Seekabel zwischen Europa und Nordamerika zu verlegen, gelang dem US-amerikanischen Unternehmer Cyrus W. Fields (1819–1892) im Jahre 1858. Jedoch blieb dieses erste Kabel nur wenige Wochen in Betrieb und musste nach kurzer Zeit als unbrauchbar aufgegeben werden. Erst 1866 gelang es nach zahlreichen weiteren, kostspieligen Fehlschl¨agen eine zuverl¨assige Telegrafenverbindung quer durch den Atlantik zwischen Neufundland und Irland aufzubauen. Dann dauerte es nicht mehr lange, bis sich die Telegrafienetze um die ganze Welt ausgebreitet hatten.

2.6 Der Vormarsch der Individual-Telekommunikation 2.6.1 Telefon Wurde die Telegrafie lediglich in besonderen Lebenssituationen zum Zwecke der Individualkommunikation genutzt, so entstand doch besonders im Bereich der privaten Kommunikation im ausgehenden 19. Jahrhundert der Wunsch und das Bed¨urfnis, die neuen Kommunikationsformen auch f¨ur die private Kommunikation zu nutzen. W¨ahrend bei der Telegrafie eine kodierte Daten¨ubertragung in nur eine Richtung stattfand, kam jetzt die Idee auf, mit Hilfe der Elektrizit¨at auch Sprache u¨ ber große Entfernungen zu transportieren, um so die M¨oglichkeit zu einem echten Dialog zu er¨offnen. Eine Voraussetzung dazu lag in der Erkenntnis, dass der Schall, den das menschliche Ohr empf¨angt, nichts anderes ist, als eine periodisch an- und ¨ abschwellende Anderung des Luftdrucks – also eine Welle. Der Wellencharakter des Schalls war bereits im Altertum bekannt, schon der r¨omische Architekt Marcus Vitruvius Pollo (1. Jhd. v. Chr) verglich die Ausbreitung des Schalls mit den Wellen des Wassers. Diese Kenntnis ging allerdings im Mittelalter wieder verloren und erst der englische Physiker Isaac Newton (1643–1727) stellte auf Grund der von ihm entwickelten Wellentheorie einen Zusammenhang zwischen der Schallgeschwindigkeit und dem Luftdruck her. Einen ersten Apparat zur Reproduktion von T¨onen aller Art“, der dem mensch” lichen Ohr nachempfunden war, konstruierte der Physiklehrer Phillip Reis (1834– 1874). Ihm gelang es 1861 in einem ersten o¨ ffentlichen Versuch, ein Waldhornsolo eher schlecht als recht mit dem von ihm entwickelten Apparat elektrisch zu u¨ bertragen. Im Gegensatz zu Reis, dessen Schall¨ubertragungsverfahren auf der Unterbrechung eines Stromkreises durch die Schwingung einer Membrane beruhte, machte sich der US-amerikanische Physiologe Alexander Graham Bell (1848–1922) die von Michael Faraday (1791–1867) entdeckte elektromagnetische Induktion zu Nutze, um Sprache zu u¨ bertragen. Mr. Watson, kommen sie mal her, ich brauche Sie“, ”

2.6 Der Vormarsch der Individual-Telekommunikation

51

Abb. 2.13 Das Telefon von Philipp Reis (1863)

soll dann auch einer historischen Anekdote zufolge der Inhalt des ersten Telefongespr¨achs am 10. M¨arz 1876 in Bells eigenem Haus in Boston gewesen sein. Watson folgte der Aufforderung Bells, d.h. das Telefon hatte tats¨achlich funktioniert. Dieser Geschichte verdankt Thomas A. Watson, der handwerklich sehr begabte Assistent von Graham Bell, noch heute seine Bekanntheit. Sie zeigt jedoch auch, dass sich die Technik-Forschung verlagerte, weg von der Einzelperson des Wissenschaftlers, hin zu Forschergruppen, die in Teams versuchten, die technische Innovation voranzutreiben. Bells Telefon wurde am 25. Juni 1876 im Rahmen der Jahrhundertfeier der amerikanischen Unabh¨angigkeit in Philadelphia erstmals o¨ ffentlich vorgef¨uhrt. Nach weiteren Verbesserungen hatte Bell im Mai 1877 die endg¨ultige und dabei denkbar einfachste Form seines Telefons gefunden: Sender und Empf¨anger waren eins, jeder, der ein Telefongespr¨ach f¨uhren wollte, musste Bells Ger¨at abwechselnd zum Sprechen an den Mund und zum H¨oren ans Ohr halten. Zeitgleich mit Graham Bell reichte Elisha Gray (1835–1901) das Patent eines von ihm erfundenen Telefons im Washingtoner Patentamt ein, allerdings bestimmte die Geschichtsschreibung Graham Bell auf Grund einer Entscheidung des US-Supreme Courts nach elfj¨ahrigem Rechtsstreit als den Erfinder des Telefons [72]. Bell soll seinen Patentantrag knappe 2 Stunden vor Gray eingereicht haben. Die zur Ausnutzung der Bell’schen Patente gegr¨undete Bell Telephone Association nutzte das durch das Patent erteilte Recht r¨ucksichtslos aus und unterdr¨uckte als Monopolist lange Zeit jegliche anderweitige Herstellung von Telefonen. Aus ihr ging 1885 die American Telephone and Telegraf Company (AT&T) als die gr¨oßte private Telefongesellschaft der Welt hervor. Bereits ein Jahr nach Bells Erfindung wurde 1877 in Boston das erste Telefonnetz mit gerade 5 Anschl¨ussen in Betrieb genommen, deren Eigent¨umer allesamt Bankiers waren. Das Telefon diente also zun¨achst demselben Zweck wie der Telegraf, hatte aber den Vorteil gr¨oßerer Schnelligkeit und umf¨anglicherer Leistungsf¨ahigkeit. 1879 standen noch 294 der 300 in Pittsburgh angeschlossenen Telefonapparate

52

2 Geschichtlicher R¨uckblick

in Gesch¨aftsr¨aumen, w¨ahrend die restlichen 6 Anschl¨usse auf Unternehmer angemeldet waren, die ihre Fabrik auch von zu Hause aus erreichen wollten. Doch bereits im Jahre 1910 verf¨ugte schon ein Viertel aller Privathaushalte in den USA u¨ ber einen Telefonanschluss. Bis 1925 wuchs dieser Anteil sogar auf 40% an. Das Telefon war nun nicht mehr nur im Wirtschaftsleben von Bedeutung sondern spielte auch f¨ur die innerfamili¨are Kommunikation und Geselligkeit eine tragende Rolle. Bis sich das Telefonnetz zu einem weltumspannenden Netzwerk ausbreiten konnte, mussten aber noch viele technische Probleme gel¨ost werden. Lange Zeit verhinderten etwa ungel¨oste Probleme in der Signald¨ampfung den Bau von noch l¨angeren Telefonleitungen. W¨ahrend in der Telegrafie ein quasi digitales, bin¨ares“ Signal ” u¨ bertragen wurde, musste beim analogen Telefongespr¨ach ein ganzes Frequenzspektrum von Signalen u¨ bertragen werden. Der Grad der D¨ampfung eines elektrischen Signals in einem Kabel h¨angt von der Frequenz des Signals ab, d.h. verschiedene Frequenzen werden unterschiedlich stark ged¨ampft und mit fortschreitender Kabell¨ange wird das urspr¨ungliche Signal bis zur Unkenntlichkeit verzerrt. Der amerikanische Elektroingenieur Michael Idvorsky Puppin (1858–1935) entwickelte ¨ 1899 die nach ihm benannte Selbstinduktionsspule zur Verbesserung der Ubertragungsleistung von Fernsprechleitungen. Puppinspulen, in regelm¨aßigen Abst¨anden in die Telefonleitungen eingebaut, erm¨oglichten Ferngespr¨ache u¨ ber einige hundert Kilometer hinweg bei einem wirtschaftlich noch tragbaren Kabeldurchmesser. Die immer noch vorhandene Reichweitenbegrenzung konnte erst mit Einf¨uhrung der Elektronenr¨ohre beseitigt werden. So konnte die Verbindung New York – San Franzisko erst 1914 er¨offnet werden, w¨ahrend das erste Telefon-Transatlantikkabel sogar noch bis 1956 auf sich warten ließ. Ferngespr¨ache u¨ ber den Atlantik waren aber bereits seit 1927 m¨oglich, indem Funkverbindungen zwischengeschalten wurden [113]. Anfangs konnte die geringe Zahl der Telefonteilnehmer noch problemlos manuell durch das vielzitierte Fr¨aulein vom Amt“ u¨ ber Steckverbindungen vermit” telt werden. Die wachsende Zahl der Telefonteilnehmer aber machte die Entwicklung von automatischen Vermittlungsstellen, der sogenannten Selbstw¨ahlvermittlung notwendig. 1889 wurde dem Bestattungsunternehmer Almon Brown Strowger (1839–1902) dazu das erste Patent erteilt, doch konnte seine Erfindung erst nach dem Auslaufen der Patente von Bell 1893 ihren Siegeszug antreten, als auch kleinere, weniger schwerf¨allige Telefongesellschaften auf den Plan traten und den Markt belebten [232]. 1892 nahm die erste vollautomatische Telefonvermittlung der Welt in La Porte, Illinois, ihren Betrieb auf. 1896 entwickelten Mitarbeiter Strowgers dann das erste W¨ahlscheibentelefon.

2.6.2 Vom Phonograph zum Grammophon Etwa zeitgleich mit dem Aufkommen des Telefons kam es zur Entwicklung von Ger¨aten zur permanenten Aufzeichnung und Konservierung von T¨onen und Sprache, welche die beliebige Wiederholbarkeit eines akustischen Ereignisses m¨ogli-

2.6 Der Vormarsch der Individual-Telekommunikation

53

chen machten. 1876 richtete Thomas A. Edison (1847–1931) sein ber¨uhmtes Forschungslabor in Menlo Park ein, in dem er zusammen mit 15 Mitarbeitern an Problemen der Telegrafie und Telefonie arbeitete. 1877 entwickelte er das Kohlemi¨ at des Telefons erheblich verbesserte und die krophon, das die Ubertragungsqualit¨ Grundlage zum Bau des Phonographen, eines Ger¨ats zur Schallaufzeichnung lieferte. Drei Tage bevor Edison am 6 Dezember 1877 die legend¨ar gewordenen Kinderverse Mary had a little lamb“ auf seinem Phonographen abspielte, wurde in ” der Pariser Akademie der Wissenschaften ein Umschlag mit Pl¨anen des Franzosen Charles Cross (1842–1888) ge¨offnet, die dessen Sprachaufzeichnungs- und Wiedergabemaschine, des Pa(r)leophons“ beschrieben und die er bereits am 30. April ” desselben Jahres eingereicht hatte. Allerdings fehlten Cross die finanziellen Mittel, um seine Erfindung patentieren zu lassen [206]. Edisons Phonograph, im englischen auch als Speaking Machine“ bezeichnet, be” stand im Wesentlichen nur aus einer mit Staniolpapier umwickelten Metallwalze, die mit einer Handkurbel gedreht wurde. Tonaufnahme und -wiedergabe waren getrennt. Ein Schalltrichter lenkte den Schall auf eine Aufnahmemembran, die dadurch zu Schwingungen angeregt wurde. Diese Schwingungen wurden mit Hilfe einer Stahlnadel als spiralf¨ormige Rille in unterschiedlich tiefen Eindr¨ucken als wellenf¨ormige Erh¨ohungen und Vertiefungen auf der Walze aufgezeichnet. F¨uhrte man die Walze mit der gleichen Geschwindigkeit wieder unter der Nadel durch, so bewegte die aufgezeichnete Tonspur u¨ ber die Nadel die Membrane, und die aufgezeichneten Schwingungen wurden im Trichter wieder h¨orbar. Kopien einer Aufzeichnung konnten nicht erstellt werden, jede Walze musste einzeln besprochen bzw. bespielt werden. Dabei wirkte der aufgezeichnete Ton blechern und flach. Ab 1888 ersetzte Edison die Staniolpapierwalze durch einen Wachszylinder, wodurch die Klangqualit¨at erheblich verbessert werden konnte.

Abb. 2.14 Edison mit einem fr¨uhen Phonographen, um 1878

54

2 Geschichtlicher R¨uckblick

Anfangs war der Phonograph zun¨achst nur als Diktierger¨at f¨ur den Gesch¨aftsbereich gedacht. Edison versuchte sogar seinen Phonographen als den ersten Telefonanrufbeantworter zu positionieren, allerdings ohne Erfolg. Aufgrund der aufw¨andigen Verarbeitung, notwendig f¨ur die einigermaßen gute Pr¨azision bei der Selbstaufnahme, und des zum Antrieb erforderlichen Elektromotors war der Edison’sche Phonograph zun¨achst noch sehr kostspielig. Weitere Verbreitung fand der Phonograph erst, als preisg¨unstigere Ger¨ate mit Federantrieb auf den Markt kamen. Der entscheidende Nachteil des Phonographen bestand aber vor allen Dingen darin, dass ein praxistaugliches Kopierverfahren f¨ur die bespielten Walzen fehlte [87]. 1887 pr¨asentierte Emil Berliner (1851–1929), ein amerikanischer Elektrotechniker deutscher Herkunft, den ersten auf Edisons Aufnahmetechnik basierenden Musikautomaten, das Grammophon. Das Grammophon war anders als der Phonograph von Anfang an als reines Unterhaltungsmedium konzipiert, das durch seinen einfacheren Aufbau viel preiswerter als der Phonograph angeboten werden konnte. Dieses Ger¨at war allerdings ausschließlich zur Wiedergabe und nicht zur Aufzeichnung geeignet, wobei die im großen Maßstab nur schwer herzustellende Edison’sche Walze der viel einfacher zu vervielf¨altigenden Schallplatte weichen musste. Das Grammophon trat mit dem Einzug in die Privatsph¨are rasch seinen Siegeszug an. Die Schallplatte wurde zum Massenprodukt. Plattenfirmen sch¨utteten in den Jahren vor dem ersten Weltkrieg sagenhafte Dividenden von bis zu 70 Prozent aus und 1907 gab es bereits u¨ ber 100 verschiedene Plattenmarken ( Labels“), darunter auch Emil Berliners ” legend¨arer Hund Nipper, der vor dem Trichter eines Grammophons der Stimme seines Herrn ( His Masters Voice“) lauschte. 1913 stellte Edison die Produktion von ” Zylinder-Phonographen ein und stieg auf das Plattengesch¨aft um.

2.6.3 Fotografie Viel fr¨uher bereits begann die Entwicklung der Fotografie, der authentischen Aufzeichnung eines realen Bildes. Bereits um 900 hatten arabische Gelehrte die Lochkamera als astronomisches Ger¨at zur Beobachtung von Sonnen- und Mondfinsternissen verwendet, deren Prinzip bereits in der Antike entdeckt und von Aristoteles (384–322 v. Chr) dargelegt worden war. Beschrieben wurde die Lochkamera vom arabischen Physiker und Mathematiker Ibn Al-Haitham (965–1040). Ab dem 16. Jahrhundert wurde sie dann ausgestattet mit einer Linse zur Camera Obscura (=[lat.]dunkle Kammer) weiterentwickelt. Die Camera Obscura war nichts weiter als ein von innen geschw¨arzter Kasten, auf dessen transparenter R¨uckwand (der Mattscheibe) ein auf der Vorderseite befindliches Loch oder eine Sammellinse von einem Gegenstand außerhalb der Camera ein verkleinertes, auf dem Kopf stehendes und seitenverkehrtes Bild erzeugte. Der th¨uringer Jesuitenpater und Naturforscher Athanasius Kircher (1601–1680) kam als erster auf die Idee, eine Linse in die Camera Obscura einzubauen. So konnte er nachts mit Hilfe von Kerzen Bilder auf die Papierfenster eines gegen¨uberliegenden Hauses projizieren. Er belustigte und erschreckte seine Zuschauer, indem er furchterregende Teufel oder riesig vergr¨oßerte

2.6 Der Vormarsch der Individual-Telekommunikation

55

Fliegen an die W¨ande projizierte. Daher wurde seine Entwicklung im Volksmund als Zauberlampe – Laterna Magica – bekannt [170].

Abb. 2.15 Das Prinzip der Camera Obscura (1646), aus [131]

Bis ins 19. Jahrhundert wurde die Camera Obscura auch als Hilfsmittel von K¨unstlern benutzt, um m¨oglichst naturgetreue Zeichnungen anzufertigen. Der f¨ur seine Stadtansichten ber¨uhmte Maler Antonio Canaletto (1697–1768) beispielsweise fertigte seine ersten Skizzen einer Stadtansicht jeweils mit Hilfe einer tragbaren Camera Obscura an. Was aber zur Fotografie noch fehlte, war eine Methode, dieses Bild auf der Mattscheibe dauerhaft festzuhalten. Bereits im 17. Jahrhundert war bekannt, dass sich zahlreiche Substanzen, wie z.B. Silberverbindungen im Sonnenlicht verf¨arben bzw. schw¨arzen. Aber erst der deutsche Arzt Heinrich Schulze (1687–1744) entdeckte 1727 in Halle an der Saale, dass nicht die Sonnenw¨arme die Ursache f¨ur dieses Ph¨anomen war, sondern die Lichtenergie f¨ur die Ver¨anderung verantwortlich ist. Ihm gelang die Herstellung erster, allerdings noch nicht dauerhaft haltbarer Lichtbilder [169]. 1802 erschien ein Artikel Thomas Wedgewoods (1771–1805) in London, der die wichtigsten Ideen zur Technik der Fotografie vollst¨andig beschrieb. 15 Jahre sp¨ater gelang es dann dem franz¨osischen Offizier und Privatgelehrten Nic´ephore Niepce (1765–1833) mit der von ihm entwickelten Heliographie, diese Ideen zum ersten Mal in die Tat umzusetzen und dauerhafte Bilder zu entwickeln. Der Pariser Schausteller Louis Jacques Mand´e Daguerre (1787–1851), ein u¨ beraus t¨uchtiger Gesch¨aftsmann machte sich zu seinem Partner und setzte nach Niepce’s Tod dessen Arbeiten fort. Er entwickelte die Technik weiter zur nach ihm benannten Daguerreotypie, Jodsilberplatten von hoher Pr¨azision, die sich allerdings nicht vervielf¨altigen ließen, sondern immer nur Unikate blieben. 1839 bat er den renommierten franz¨osischen Wissenschaftler Francois Dominique Arago (1786–1853), seine Erfindung der Pariser Akademie der Wissenschaft vorzutragen. Arago gelang es tats¨achlich, das neue Verfahren wissenschaftliche zu rechtfertigen – Daguerre wurde als Nichtakademiker in diesem Kreis nicht ernst genommen – und motivierte die

56

2 Geschichtlicher R¨uckblick

franz¨osische Regierung dazu, Daguerre das Verfahren f¨ur einen enormen Geldbetrag abzukaufen. Dieser allerdings hatte bereits f¨unf Tage zuvor f¨ur das Verfahren in London einen Patentantrag gestellt [10]. Ein erstes Positiv-Negativ-Verfahren f¨ur Papierbilder, mit dem man Bilder beliebig oft vervielf¨altigen konnte, die Kalotypie, wurde 1839 vom Engl¨ander William Fox Talbot (1800–1877) entwickelt. Seine geniale Idee bestand darin, statt eines einmaligen Positivs ein Negativ herzustellen, von dem aus man beliebig viele Positivabz¨uge machen konnte. Dazu presste er ein bereits einmal belichtetes und ein unbelichtetes Papier unter einer Glasscheibe zusammen und setzte beide dem Sonnenlicht aus. So konnten sich dunkle Gegenst¨ande auf dem zweiten Papier auch dunkel abzeichnen und das im Gegensatz zu den bisherigen Verfahren auch seitenrichtig [1]. Dieses Verfahren wird in a¨ hnlicher Weise auch heute noch als sogenannte Kontaktkopie angewandt. In den folgenden Jahren weitete sich der Markt f¨ur Fotografie rasch aus, allerdings war neben den k¨unstlerischen F¨ahigkeiten des Fotografen immer auch seine handwerkliche Geschicklichkeit gefragt, da jeder Fotograf sein Fotomaterial selbst herstellen musste, was einer weitl¨aufigeren Verbreitung im Wege stand. Im Zuge der Weiterentwicklung der Fototechnologie gelang es, die n¨otige Belichtungszeit zu verk¨urzen. Waren bei Ni´epce noch mehrere Stunden notwendig, verk¨urzte Daguerre bereits die Belichtungszeit auf wenige Minuten. Der englische Bildhauer Frederick Scott Archer (1813–1857) entwickelte 1851 ein auf Kollodiumplatten basiertes Nassverfahren, das die Belichtungszeit sogar auf wenige Sekunden reduzierte und die Daguerrotypie zur veralteten Technik werden ließ. Bei Kollodium ¨ handelt es sich um eine z¨ahfl¨ussige L¨osung von Nitrozellulose in Alkohol und Ather, die u¨ blicherweise in der Medizin zum Schließen von offenen Wunden Verwendung fand. Allerdings mussten Archers Kollodiumplatten noch vor Ort und direkt vor der Belichtung angefertigt und nass (daher der Name des Verfahrens) in die Kamera gelegt werden [10]. Die Technik wurde weiter verbessert durch den englischen Arzt Richard Leach Maddox (1816–1902), der im Jahr 1871 Archers Kollodium erstmals durch Gelatine, versetzt mit Bromsilber als lichtempfindliche Schicht ersetzte. Die auf dieser Basis entwickelten Bromsilberpapiere lieferten in Sekundenschnelle Abz¨uge von Negativen und bildeten die Grundlage des heute noch u¨ blichen Verfahrens. Im Gegensatz zu Archers Kollodiumplatten mussten die mit Gelatine u¨ berzogenen Platten nicht sofort verarbeitet werden, sondern konnten vor der eigentlichen Belichtung monatelang gelagert werden [1]. Der Durchbruch der Fotografie f¨ur Jedermann gelang erst, als der Amerikaner George Eastman (1854–1932), ein ehemaliger Sparkassenangestellter, neben dem flexiblen und einfach handhabbaren Rollfilm im Jahr 1888 eine komplette Infrastruktur, angefangen von der Kamera bis zum Entwicklungs- und Vergr¨oßerungs-Service unter dem selbsterfundenen Namen Kodak“ auf den Markt brachte. Eastmans ” Kodak-Box“ Kamera wurde zusammen mit dem bereits darin befindlichen Film zu ” einem Preis von nur 25 US-Dollar angeboten. Waren alle 100 Bilder des Films abfotografiert, wurde die komplette Kamera an das Kodak-Werk eingeschickt, in dem dann die Bilder entwickelt und die Kamera mit einem neuen Film best¨uckt nach nur wenigen Tagen wieder an den Kunden zur¨uckgesandt wurde. Durch die Trennung der beiden Vorg¨ange des eigentlichen Fotografierens und der anschließenden

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen

57

chemischen Filmentwicklung konnte man jetzt auch ohne spezielle Ausbildung und Vorkenntnissen zum Amateurfotografen werden. Mit seinem Slogan You press the ” button, we do the rest“ ebnete Eastman der Fotografie den Weg zum Massenkonsum [169]. Der Weg vom analogen Film zum digitalen Bild war dann ein kurzer. Er begann ¨ zwischen 1960 und 1970, als im Zuge des US-Raumfahrtprogramms erste Uberlegungen angestellt wurden, aus Gruppen von diskreten Sensorelementen Standbilder und bewegte Videobilder zu gewinnen. Der Durchbruch in der Entwicklung der Digitalfotografie gelang 1973 mit einem von der Firma Fairchild entwickelten CCDBildsensor (Charge-Coupled Device), einem hochaufl¨osenden Sensor, der Lichtimpulse in elektrische Signale umzuwandeln vermochte. Steven Sasson (*1950), Entwicklungsingenieur bei Eastman Kodak, konstruierte damit 1975 den ersten Prototypen einer digitalen Kamera, die Schwarz-Weiß-Aufnahmen auf einer zugeh¨origen Bandkassette abspeichern konnte. Die Aufl¨osung der Kamera betrug gerade einmal 10.000 Bildpunkte (0.01 Megapixel). Sie wog knapp 4 kg und ben¨otigte 23 Sekunden um ein einzelnes Bild aufzunehmen. Ende der 1990ger Jahre erschienen die ersten preiswerteren Amateur-Digitalkameras auf dem Markt und der Siegeszug der Digitalfotografie begann, die heute die alte Analogfotografie beinahe vollst¨andig verdr¨angt hat.

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen 2.7.1 Funktelegrafie In Bezug auf ihren historischen Ursprung – der Telegrafie – steht die Entwicklung der Funktelegrafie und des Rundfunks in einem engen Zusammenhang mit der Telefontechnik. Aus der großen Zahl der Pioniere des Rundfunks ragen – abgesehen von Michael Faraday, James Clerk Maxwell (1831–1879), Heinrich Hertz (1857–1895) und Eduard Branly (1846–1940), deren Arbeiten die Grundlage der Funktechnik bildeten – zwei große Pers¨onlichkeiten heraus, die Ende des 19. Jahrhunderts zu Wegbereitern der drahtlosen Nachrichten¨ubertragung wurden: der russische Schiffsbauingenieur Alexander Stephanowitsch Popow (1858–1906) und der italienische Ingenieur und Physiker Guglielmo Marconi (1874–1934). Maxwell postulierte 1865 als erster die Existenz elektromagnetischer Wellen, die entstehen, wenn elektrische und magnetische Felder rasch ihre St¨arke ver¨andern und schuf mit seinem 1873 publizierten Aufsatz A Dynamical Theory of the Electroma” gnetic Field“ die theoretische Grundlage f¨ur eine neue, bislang v¨ollig unbekannte M¨oglichkeit der Kommunikation u¨ ber praktisch unbegrenzte Distanzen hinweg – die Radiotechnik [154]. Hertz gelang 1885 in seinem Labor in Karlsruhe der praktische Nachweis der von Maxwell postulierten Wellen. Er bewies, dass elektromagnetische Wellen tats¨achlich alle Eigenschaften physikalischer Wellen besitzen und sich nur durch ihre Frequenzen unterscheiden. Allerdings sah er noch keinen prak-

58

2 Geschichtlicher R¨uckblick

tischen Nutzen f¨ur seine Entdeckung. Den n¨achsten Schritt zum Radioempf¨anger machte der franz¨osische Physiker Branly im Jahre 1890. Ihm gelang es, die elektromagnetischen Wellen in elektrische Impulse umzuwandeln. Er entdeckte, dass sich Eisensp¨ane, die normalerweise schlechte elektrische Leiter sind, unter dem Einfluss von elektromagnetischen Wellen zu einem koh¨arenten – also gleichgerichteten, zusammenh¨angenden – B¨undel ausrichten und entwickelte daraus die erste Radior¨ohre der Welt, den Koh¨arer [179]. Popow pr¨asentierte bereits 1895 einen kompletten Empf¨anger f¨ur elektromagnetische Wellen. Da es aber noch an einem ad¨aquaten Sendeger¨at mangelte, konstruierte Popov auf Basis des von Branly entwickelten Koh¨arers einen Gewitter-Detektor, der durch Blitzentladungen in der Atmosph¨are verursachte elektromagnetische Wellen empfangen konnte. Im darauffolgenden Jahr gelang es ihm an der Universit¨at in Sankt Petersburg mit Hilfe eines von ihm konstruierten Sendeger¨ats, drahtlose Signale u¨ ber eine Entfernung von 250 Metern zu u¨ bertragen. Noch im selben Jahr konnte Popow vermittels einer von ihm entwickelten speziellen Ballonantenne nachweisen, dass auch Weitverkehrs-Signal¨ubertragungen u¨ ber eine Distanz von mehr als 30 Kilometern m¨oglich waren [70]. Zu den ersten Einsatzgebieten der neuen Funktelegrafie z¨ahlte der Schiffsfunk, auf den auch die ersten Experimente Marconis ausgerichtet waren. F¨ur die Kombination der Arbeiten von Popow (Antenne, Relais und Klingel), Hertz (Hochfrequenzerzeuger) und Branly (Koh¨arer) erhielt Marconi 1896 ein Patent, das zur Grundlage seiner weiteren Versuche wurde, die Fernwirkung von Funksignalen zu erh¨ohen. Wurden bislang elektromagnetische Wellen mit Hilfe einer Funkenstrecke erzeugt, so verlegte der deutsche Physiker und Funkpionier Karl Ferdinand Braun (1850–1918) die Funkenstrecke in einen Schwingkreis und koppelte ihn mit einer Antenne. Durch diesen 1898 patentierten gekoppelten“ Sender war es m¨oglich, Funkwellen in eine ” bestimmte Richtung zu lenken und gr¨oßere Reichweiten zu erzielen [91]. Am 12. Dezember 1901 gelang Marconi die erste Funk¨ubertragung zwischen England und Neufundland u¨ ber den Atlantik und bereits 1907 wurde der erste kommerzielle transatlantische Funktelegrafiedienst eingerichtet. Die Forderung der Milit¨ars nach Erbringung schriftlicher Belege f¨ur Nachrichten war dann aber ein wesentlicher Grund, dass sich die neue Technik gegen¨uber der bereits bew¨ahrten, drahtgest¨utzten Morse-Telegrafie nur z¨ogerlich durchzusetzen begann. Dennoch kam die neue Funktechnik bereits im ersten Weltkrieg auf beiden gegnerischen Seiten bei Heer und Marine zum Einsatz. Mit dem Untergang der Titanic in der Nacht vom 14. auf den 15. April 1912 erschien die neue Funktechnik pl¨otzlich in einem ver¨anderten Licht: Sie wurde zu einem Medium, mit dem sich Rettungsarbeiten auf hoher See koordinieren ließen. Das modernste Schiff der Welt ging unter, aber noch im Untergang erm¨oglichte es die neue Technik, Verbindung mit dem Festland aufzunehmen. Der Untergang der Titanic hatte insofern weitreichende Konsequenzen, als nur wenige Monate sp¨ater auf der dritten internationalen Funkkonferenz in London, der sogenannten Titanic-Konferenz“ – beschlossen wurde, dass zuk¨unftig alle Reeder ” ihre Schiffe mit Funktechnik auszur¨usten hatten. Zus¨atzlich wurde die Einf¨uhrung einer internationalen Seenotfrequenz und die Verwendung des SOS“-Notsignals ” beschlossen [70, 91].

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen

59

Abb. 2.16 Portrait des Funkpioniers Guglielmo Marconi (1874–1937)

Mit der Einf¨uhrung der Drei-Elektroden-Vakuumr¨ohre mit Metallgitter, der Triode, ¨ gelang 1908 dem Amerikaner Lee De Forest (1873–1961) und dem Osterreicher Robert von Lieben (1878–1913) der Durchbruch in der Verst¨arkertechnik, die bislang auf dem Branly-Koh¨arer basierte. Von nun an bis zur Einf¨uhrung des Transistors (1947) bildet die Trioden-R¨ohre die Grundlage f¨ur die Rundfunktechnik.

2.7.2 Rundfunk Die erste Rundfunk¨ubertragung der Geschichte fand am 25. Dezember 1906 statt: Die Funker auf den Schiffen vor der K¨uste Neuenglands waren sicherlich erstaunt, als sie an diesem Weihnachtstag zwischen dem gew¨ohnlichen Piepsen der Morsezeichen pl¨otzlich eine Stimme h¨orten, die aus dem Evangelium nach Lukas las, gefolgt von einer Violin-Interpretation des Weihnachtsliedes Stille Nacht“. Reginald ” Fesseden (1866–1932), kanadischer Ingenieur und Erfinder war f¨ur diese erste ex¨ perimentelle Ubertragung verantwortlich [179]. Bereits 1900 gelang Fesseden und seinem Assistenten die erste Sprechfunk¨ubertragung mit Hilfe eines von ihm entwickelten Modulationsverfahrens. Die Idee eines Rundfunks f¨ur alle“ und wie dieser eine tragf¨ahige wirtschaftli” che Basis erhalten k¨onnte, geht auf David Sarnoff (1891–1971), einen Radiotechniker Marconis und sp¨ateren Vizedirektor der American Marconi Company zur¨uck. Sarnoff erhielt bereits zuvor Ber¨uhmtheit, da er der Funker war, der 1912 die Signale der sinkenden Titanic auf Nantucket Island in Massachussetts empfing und w¨ahrend 72 Stunden ununterbrochen die Namen der Geretteten notierte und weiterleitete. Er hatte bereits 1916 ein Memorandum an Marconi gerichtet, in dem er die

60

2 Geschichtlicher R¨uckblick

Idee der Radio Music Box“ als einem h¨auslichen Konsumartikel, a¨ hnlich wie das ” Klavier oder der Phonograph, vorstellte. Zun¨achst als verr¨uckte Idee verworfen, die angesichts der andauernden Patentkriege zwischen den verschiedenen Funkpionieren wenig aussichtsreich erschien, legte er 1920 seinen hinsichtlich der wirtschaftlichen Aspekte erg¨anzten Plan erneut vor und und diesmal mit Erfolg: der Rundfunk war aus der Taufe gehoben. Angesichts des immer noch herrschenden Kriegsrechts kontrollierte die amerikanische Regierung noch alle Patente. Dadurch wurde die Bildung einer gesamtamerikanischen Radiogesellschaft m¨oglich gemacht, der Radio Corporation of America (RCA), die in der Folge zum weltgr¨oßten Hersteller von Radioger¨aten werden sollte. Die erste auf kommerzieller Basis, regelm¨aßig arbeitende Rundfunkstation, der amerikanische Sender KDKA, der im Oktober 1920 eine Sendelizenz erteilt bekam, startete seine Sendungen am 2. November 1920 in Pittsburgh. Er arbeitete im Mittelwellenbereich und sendete unterhaltsame und informative Programme. Hervorgegangen ist diese erste Rundfunkstation aus den Aktivit¨aten eines fr¨uhen Hobbyfunkers. Der ehemalige Marineoffizier und Angestellte der Telegrafenfirma Westinghouse, Frank Conrad, (1874–1941) begann zwischen 1918 und 1919 zun¨achst zu Testzwecken Grammophonplatten und Klavierst¨ucke von seiner Garage aus u¨ ber Funk abzuspielen und bat benachbarte Funkamateure um eine R¨uckmeldung bzgl. der erzielten Sendequalit¨at. Schnell entwickelte sich diese stets freitagabends abge¨ zu einem beliebten Freizeitereignis [70]. Conrad begann spielten Atherkonzerte“ ” mit dem Ausbau eines Senders. Den Auftakt der ersten o¨ ffentlichen Rundfunk¨ubertragung bildete eine Live¨ubertragung der Ergebnisse der amerikanischen Pr¨asidentschaftswahl. Innerhalb weniger Monate entstanden zahlreiche weitere Sender, und Firmen der unterschiedlichsten Branchen begannen in Eigenverantwortung, Shows und Programme zu Werbezwecken auszusenden. Zur selben Zeit vollzog sich in Deutschland die Entwicklung eines o¨ ffentlichen Rundfunks. Am 19. November 1919 zeigte der Funkpionier Hans Bredow (1879– 1959) in einer o¨ ffentlichen Demonstration die Wirkungsweise des Unterhaltungsrundfunks, wobei er zwei Jahre sp¨ater in einem Vortrag erstmals auch den Begriff Rundfunk“ pr¨agte. Ausschlaggebendes Ereignis f¨ur die Entwicklung des Medi” ums war der sogenannte Funkerspuk“: Am 9. November 1918 besetzten nach russi” schem Vorbild revolution¨are Arbeiter die Zentrale des deutschen Pressenachrichtenwesens und verk¨undeten irrt¨umlich den Sieg der radikalen Revolution in Deutschland. Daraufhin entstanden erste Kontrollgesetze, um den Missbrauch des neuen Mediums zu verhindern. 1919 wurde ein Hoheitsrecht des deutsche Reiches verabschiedet, dass die Einrichtung und den Betrieb von Sende- und Empfangsanlagen genehmigungspflichtig machte. Ab 1922 war Privatleuten der Empfang von Funksendungen sogar untersagt, jedoch wurde das Gesetz bereits im Folgejahr wieder fallengelassen und statt dessen eine Geb¨uhrenordnung verabschiedet. Als Geburtsstunde des deutschen Rundfunks gilt der 29. Oktober 1923, an dem die erste Runfunk-Unterhaltungssendung aus dem Vox-Haus in Berlin-Tiergarten, nahe dem Potsdamer Platz in Berlin ausgestrahlt wurde [91]. Der Schritt des Rundfunks zum Massenmedium war schnell vollzogen und auch Politiker erkannten die ungeheueren M¨oglichkeiten dieses drahtlosen Kommuni-

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen

61

kationsmediums. Der Missbrauch des Rundfunks zur manipulierenden Propaganda vollzog sich sp¨atestens mit dem ab 1933 durch die deutschen Nationalsozialisten propagierten Einheitsradio, dem sogenannten Volksempf¨anger“. Der erste ” billige Volksempf¨anger, der ber¨uhmte VE301 (die Zahl 301 wies auf den Tag der Macht¨ubernahme durch die Nationalsozialisten in Deutschland hin) wurde millionenfach produziert, war unpf¨andbar und konnte sinnigerweise keine ausl¨andischen Sender empfangen. Am 23. Dezember 1947 demonstrierten die Amerikaner John Bardeen (1908–1991), Walter House Brattain (1902–1987) und William Shockley (1910–1989) in den Bell Laboratories/New York den ersten Transistor f¨ur den sie 1956 gemeinsam mit dem Nobelpreis ausgezeichnet wurden. Zu Demonstrationszwecken entfernten sie aus einem herk¨ommlichen R¨ohrenradio alle Vakuumr¨ohren und ersetzten diese durch Transistoren: das Transistorradio war geboren. Die Bell-Telefongesellschaft, die einen ungeheueren Personalaufwand betrieb, um ihre Telefon-Netzwerke zu warten, hatte die Aufgabe gestellt, einen zuverl¨assigeren und widerstandsf¨ahigeren Schalter als die fehleranf¨allige Vakuumr¨ohre zu entwickeln. Nach unz¨ahligen Versuchen gelang es dem Team um Shockley aus halbleitenden Materialien den ersten Transistor als Schaltelement zu entwickeln. Niemand konnte damals die Auswirkungen dieser Entdeckung auch nur erahnen, die sich sehr schnell in allen Bereichen der Elektronik als von Bedeutung erwies. Weil die Bell Laboratories die Patente gegen Zahlung von Lizenzgeb¨uhren freigeben mussten, konnten sich von Anfang an viele Produzenten an der weiteren Nutzbarmachung des Transistors beteiligen. Das erste kommerzielle Transistorradio brachte 1954 die amerikanische Firma Texas Instruments auf den Markt. Ein wichtiger Vorteil f¨ur die Hersteller von Radioger¨aten bestand nun darin, dass der Transistor die Konstruktion von leichteren und mobilen Ger¨aten gestattete, was zu ihrer explosionsartigen Verbreitung f¨uhrte.

2.7.3 Film und Kino Der Film oder das mit optischen bzw. mechanischen Mitteln erzeugte Bewegungsbild, begann nicht mit Aufnahmen aus der realen Welt, sondern mit von Menschenhand geschaffenen Zeichnungen und Bildern. Das zu Grunde liegende Prinzip macht sich ein als Netzhauttr¨agheit bezeichnetes Ph¨anomen zu Nutze, das bereits im Altertum von Ptolem¨aus von Alexandria (85–165 n. Chr.) im 2. Jahrhundert beschrieben wurde: Ein Bild der Gesichtswahrnehmung bleibt auf der Netzhaut des menschlichen Auges f¨ur ca. 1/16 Sekunde erhalten, bevor es wieder verlischt. Erst im 19. Jahrhundert wurde dieses Ph¨anomen wiederentdeckt und erste mechanische Apparate zum Betrachten von Bewegtbildern wurden entwickelt, die in schneller Folge eine Sequenz von Stroboskopbildern zeigten und dadurch den Eindruck eines Bewegungsablaufes vermittelten. Ausgehend von Entwicklungen wie dem photo” ´ graphischen Gewehr“ (1882) des franz¨osischen Physiologen Etienne Jules Marey (1830–1904), reichte Thomas A. Edison 1889 ein Patent auf den Kinematographen ein, dem 1894 das Kinematoskop als Vorf¨uhrger¨at f¨ur das neue Medium folgte.

62

2 Geschichtlicher R¨uckblick

Beide Apparate folgten demselben Prinzip, indem Zelluloidfilmstreifen mechanisch an einem Objektiv vorbeitransportiert und dabei belichtet bzw. betrachtet werden konnten. Allerdings konnte das Kinetoskop immer nur von einer einzelnen Person benutzt werden. Da Edison die Bedeutung des Films in diesem Kontext untersch¨atzte, unternahm er keine Anstrengungen, das Kinetoskop zu einem Projektionsger¨at weiterzuentwickeln, wie es naheliegend gewesen w¨are [1]. Dies bewerkstelligten erst die Gebr¨uder Louis Jean Lumi`ere (1864–1948) und Auguste Lumi`ere (1862–1954) mit dem von ihnen 1895 entwickelten, ausgereiften kinematografischen Verfahren. Am 28. Dezember 1895 f¨uhrten sie ihren ersten Film einem gr¨oßeren – und auch zahlendem – Publikum im Grand Caf`e auf dem Bou¨ des Kinos hatte begonnen. Bereits zwei levard des Capucines in Paris vor: die Ara Monate vor dem Erfolg der Br¨uder Lumi`ere f¨uhrten die beiden deutschen Schausteller Max und Emil Skladanowsky (1863–1939 und 1859–1945) ihre ersten Filme mit dem von ihnen entwickelten Vorf¨uhrger¨at, dem Bioskop, im Berliner Variet´e Wintergarten vor und verbl¨ufften ihr Publikum. Da die Gebr¨uder Lumi`ere als Fabrikanten u¨ ber das n¨otige Kapital und Kontakte zur Wirtschaft verf¨ugten, aber auch da der von ihnen entwickelte Cin´ematographe sowohl Filmkamera, Kopierger¨at und Filmprojektor zugleich war, konnte sich ihre Erfindung in den Folgejahren durchsetzen. Die Lumi`eres verliehen und verkauften ihre Apparate an Schausteller, die zun¨achst auf Jahrm¨arkten, sp¨ater dann als Wanderkinobetreiber Kurzfilme vorf¨uhrten. Mit wachsender Bekanntheit und Popularit¨at des Films entstanden erste ortsfeste Kinos – in Deutschland als Kintop“ und in den USA als Nickelodeon“ bezeichnet. Um Be” ” sucher anzulocken, waren diese Kinos st¨andig auf neues Filmmaterial angewiesen. Da die Lumi`eres den Film nur als reine Erweiterung oder Erg¨anzung zur Fotografie sahen, beschr¨ankten sie sich auf die Dokumentation realer Ereignisse. Der franz¨osische Theaterbesitzer Georges M`eli´es ist der erste Filmproduzent, der das narrative (erz¨ahlende) Potenzial der bewegten Bilder erkannte und ab 1896 ausschließlich inszenierte Filme drehte – die Filmindustrie war geboren [170]. Schon gleich zu seiner Geburt versuchte man den Film mit dem Edisonschen Phonographen zu kombinieren, doch die notwendige Synchronisation der beiden Medien stellte ein großes Problem dar, das es zu l¨osen galt. Besonders deutlich wurde dieses Problem, wenn sprechende Menschen gezeigt wurden, da hier Unregelm¨aßigkeiten in der Synchronisation sofort wahrgenommen werden. Es musste also ein Weg gefunden werden, Bild und Ton auf ein gemeinsames Medium zu bannen. Doch wirklich stumm war der Kinofilm nie. Von Anfang an wurde in den Kinos¨alen f¨ur musikalische Begleitung gesorgt, die meist von Klavierspielern, sogenannten Tap” peuren“ u¨ bernommen wurde. Bei Premierenfeiern oder in großen Kinos wurden Filme sogar von ganzen Orchestern begleitet. Ein praktikables Tonfilmverfahren konnte erst unter Ausnutzung des sogenannten Photoeffekts entwickelt werden, der bewirkt, dass sich die Leitf¨ahigkeit bestimmter Substanzen bei unterschiedlichen Lichtbedingungen ver¨andert. Eine Tonspur kann mit diesem als Lichttonverfahren bezeichneten Verfahren synchron zusammen mit dem Bild auf dem optischen Filmtr¨agermedium gespeichert werden. 1922 gelang dem polnischen Ingenieur J`ozef Tykoci`nski-Tykociner (1877–1969) in den USA die erste technische Umsetzung des Lichttonverfahrens. Unabh¨angig davon entwickelte

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen

63

Abb. 2.17 Kinematograph um 1917, aus [45]

auch der deutsche Ingenieur Hans Vogt (1890–1979) ein Lichttonverfahren und am 17. September 1922 konnte im Berliner Filmtheater Alhambra am Kurf¨urstendamm ¨ der erste kurze Lichttonfilm der Offentlichkeit vorgef¨uhrt werden [125]. Allerdings blieb der Erfolg in Deutschland zun¨achst aus, so dass die Tonfilm-Patente in die USA an William Fox (1879–1952) verkauft wurden, der den Tonfilm ab 1928 zu Weltgeltung bringen sollte. Am 6. Oktober 1927 fand die Premiere des von den Warner-Brothers produzierten abendf¨ullenden Tonfilms The Jazz Singer“ mit Al ” ¨ war endg¨ Jolson in der Hauptrolle statt, und die Tonfilm-Ara ultig angebrochen. Mittlerweile existieren digitale Lichttonspuren, wie Dolby Stereo SR-Digital, das heute am weitesten verbreitete digitale Tonverfahren. Dabei wird im Gegensatz zum analogen Lichttonverfahren der Ton nicht analog auf den Film kopiert, sondern in Form digitaler Informationen, die von einer Fotozelle erfasst und anschließend in einem Dekoder in Tonsignalen verwandelt werden. Digitale Lichttonspuren erlauben eine h¨ohere Dynamik und damit eine bessere Klangqualit¨at, mehr Kan¨ale f¨ur bessere r¨aumliche Abbildung des Tons und eine gesteigerte Rauschunterdr¨uckung.

2.7.4 Fernsehen Ebenso wie beim Film nutzt Fernsehen das Ph¨anomen der Netzhauttr¨agheit. Das ¨ Fernsehen als elektromagnetische Ubertragung von Bewegtbildern beruht auf dem

64

2 Geschichtlicher R¨uckblick

Prinzip, das Bild in einzelne Zeilen und Punkte aufzul¨osen, die bei der Reproduktion hinreichend schnell wieder zum urspr¨unglichen Bild zusammengesetzt werden. Beim Fernsehen wird so bereits bei der Wiedergabe jedes Einzelbildes die Netzhauttr¨agheit ausgenutzt, damit dieses u¨ berhaupt als ein Gesamtbild erkannt werden kann. Ausgehend von der systematischen Abtastung einer Szene zur Signalgewinnung entwickelte der Ingenieur Paul Nipkow (1860–1940) eine nach ihm benannte Lochscheibe mit spiralf¨ormig angeordneten L¨ochern, die zur Aufnahme einer Szene in Rotation versetzt wird und die er bereits 1884 patentieren lies [1]. Auf der Aufnahmeseite wird die aufzunehmende Szene zeilenweise mit Hilfe der Nipkowscheibe abgetastet, wobei das r¨aumliche Nebeneinander der einzelnen Bildpunkte, d.h. deren Helligkeitswerte mit Hilfe einer lichtempfindlichen Selenzelle in ein zeitliches Nebeneinander unterschiedlicher Spannungswerte umgesetzt wird. Auf der Wiedergabeseite wird das Bild demselben Prinzip folgend wieder zusammengesetzt. Nipkow nannte seine Erfindung noch elektrisches Teleskop“. Sein Patent ” verfiel jedoch bereits 1885 aus Geldmangel und diente zahlreichen weiteren Fernsehpionieren als Arbeitsgrundlage. Das deutsche Wort Fernsehen ist erst um 1890 herum entstanden, w¨ahrend das Wort Television“ erst nach der Jahrhundertwende ” in Frankreich und den USA in Gebrauch kam. Zusammen mit der 1897 von Karl Ferdinand Braun erfundenen und nach ihm benannten Elektronenstrahlr¨ohre, die zuerst von dem deutschen Physiker Max Dieckmann (1882–1960) und dem russischen Physiker Boris Iwanowitsch Rosing (1869– 1933) als Wiedergabeger¨at 1906/1907 benutzt wurde, konnte das erste elektromechanische Fernsehsystem der Welt geschaffen werden. Allerdings ließ die erste o¨ ffentliche Fernseh¨ubertragung noch bis 1925 auf sich warten. Sie fand dann jedoch nahezu zeitgleich in drei L¨andern statt: in Deutschland durch August Karolus (1893–1972), in Großbritannien durch John Logie Baird (1888–1946) und in den USA durch Charles Francis Jenkins (1867–1934). Die erste, elektromechanische Epoche des Fernsehens endete 1928/1929. Es standen bereits 60-zeilige Abtastinstrumente zur Verf¨ugung und in den USA wurden die ersten regelm¨aßigen“ Fern” sehsendungen ausgestrahlt. Die erste vollelektronische Fernsehkamera, das Ikonoskop wurde von Vladimir K. Zworykin (1889–1982), der heute als der eigentliche Vater des modernen Fernsehens gilt, 1923 zum Patent angemeldet. Die erste elektronische Bildr¨ohre – das Kinoskop – folgte 1929. Zu Beginn konnte Zworykin mit seiner neuen Methode nur ein einfaches Fadenkreuz u¨ bertragen, so dass die Firma, bei der er besch¨aftigt war, die Westinghouse Electric Corporation in Pittsburgh, kein besonderes Interesse an der Neuentwicklung zeigte. 1929 gelang es Zworykin den Radiopionier David Sarnoff von RCA mit einer verbesserten Version seiner Entwicklung zu u¨ berzeugen, der ihn bei RCA als Direktor f¨ur elektronische Forschung besch¨aftigte. 1939 erhielt Zworykin das Patent auf ein vollelektronisches Fernsehsystem auf Basis von Ikonoskop und Kinoskop. In Deutschland startete 1935 das erste regelm¨aßige Fernsehprogramm, das allerdings nur f¨ur ein halbes Jahr in Betrieb gehen sollte und auf einem 180-zeiligen Verfahren beruhte. Die 1922 gegr¨undete British Broadcasting Corporation (BBC) betrieb von 1936–1939 bereits einen hochaufgel¨osten 405-zeiligen Fernsehdienst, der

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen Tabelle 2.2 Meilensteine in der Geschichte der Kommunikationsmedien (2) 1184 v. Chr. 150 n. Chr. 1608 1684 1690 1730 1745 1794 1809 1816 1819 1820 1831 1833 1838 1840 1845 1851 1856 1860 1877 1877 1886 1888 1889 1889 1893 1893 1896 1901 1919 1924 1927 1935 1935 1962 1973 1982 1995 2002 2008

der Fall Trojas wird mit Fackelzeichen nach Griechenland telegrafiert der Effekt der Netzhauttr¨ agheit wird beschrieben das Fernrohr wird in Holland erfunden Robert Hookes Mittel zur Mitteilung der eigenen Gedanken u ¨ber ” weite Entfernungen“ Guillaume Amontons erste Experimente mit dem Semaphor Stephen Gray zeigt, dass sich Elektrizit¨ at entlang eines Drahts fortpflanzt mit der Leidener Flasche l¨ asst sich Elektrizit¨ at erstmals speichern erste regul¨ are optische Telegrafenlinie zwischen Paris und Lille Samuel Thomas S¨ ommerring verbessert den Elektrolyt-Telegraf Nic` ephore Niepce entwickelt die Fotografie Christian Oerstedt entdeckt den Elektromagnetismus Andr` e Marie Amp´ ere’s elektromagnetischer Nadeltelegraf Michael Faraday entdeckt die elektromagnetische Induktion Carl Friedrich Gauss und Wilhelm Weber entwickeln den Zeigertelegrafen Samuel Morses schreibender Telegraf tritt seinen Siegeszug an Einf¨ uhrung des Morse-Alphabets sternf¨ ormiges optisches Telegrafennetz in ganz Frankreich erstes Unterseetelegrafenkabel zwischen England und dem Kontinent das erste Transatlantik-Telegrafenkabel wird verlegt James Maxwell entwickelt eine einheitliche Theorie f¨ ur Elektrizit¨ at und Magnetismus Alexander Graham Bell und Elisha Gray entwickeln das Telefon Thomas A. Edison stellt den ersten Phonographen vor Heinrich Hertz entdeckt die elektromagnetischen Wellen George Eastman entwickelt das Fotografieren f¨ ur jedermann Almon B. Strowger entwickelt die automatische Telefonvermittlung ¨ des Kinos ein Thomas A. Edisons Kinematograph l¨ autet die Ara in den USA werden erste Selbstw¨ ahlvermittlungsstellen f¨ ur Telefongespr¨ ache eingerichtet Louis und Auguste Lumi` ere f¨ uhren ihren ersten Film ¨ offentlich vor Alexander Popow gelingt die erste drahtlose Nachrichten¨ ubertragung Guglielmo Marconi f¨ uhrt die erste Funk¨ ubertragung u ¨ber den Atlantik durch Hans Bredow propagiert den Rundfunk f¨ ur alle“ ” August Karolus gelingt die erste Fernsehbild¨ ubertragung The Jazzsinger“, der erste Tonfilm kommt in die Kinos ” erster regelm¨ aßiger Fernsehprogrammdienst in Berlin erstes Tonbandger¨ at mit elektromagnetischer Aufzeichnung von AEG erste Fersehdirekt¨ ubertragung via Satellit zwischen USA und Europa erster digitaler Bildsensor (CCD) f¨ ur digitale Fotokameras Philips und Sony f¨ uhren die digitale Audio Compact Disc (CD) ein Einf¨ uhrung der Digital Versatile Disc (DVD) als Datenspeicher Spezifikation der Blu-ray Disc und der HD DVD das terrestrische analoge Fernsehen wird in Deutschland durch das digitale DVB abgel¨ ost

65

66

2 Geschichtlicher R¨uckblick

im allgemeinen als der erste moderne Fernsehdienst der Welt angesehen wird. Der BBC Fernsehdienst beruhte auf einem von Isaac Shoenberg (1880–1963) entwickelten System, einer Weiterentwicklung von Zworykins Verfahren, das Ultrakurzwellen zur Signal¨ubertragung nutzte. Die BBC hielt bis 1962 am Schoenberg-System (405 Zeilen, 25 Bilder pro Sekunde) fest. 1953 wurde das amerikanische NTSCFarbfernsehverfahren (NTSC=National Television System Committee) freigegeben, nachdem die amerikanische Firma CBS bereits 1940 ein erstes, technisch allerdings noch nicht ausgereiftes Farbfernsehsystem vorgestellt hatte. Langsamer als erwartet stellte das Publikum allerdings von seinen Schwarzweiß-Empf¨angern auf die neuen Farbapparate um. Das NTSC-System war zu hastig entwickelt worden, um wirklich eine optimale Farbgebung garantieren zu k¨onnen. So wurde NTSC schnell als Never The Same Color“ verspottet ( Niemals dieselbe Farbe“ ). Schließlich konn” ” te sich das NTSC-Farbfernsehsystem gegen¨uber dem damals noch vorherrschenden Schwarzweiß-Fernsehen aufgrund seiner Kompatibilit¨atseigenschaften durchsetzen. Farbfernsehsendungen konnten mit Schwarzweiß-Empf¨angern ohne Sch¨arfeverlust betrachtet werden und Schwarzweiß-Fernsehsendungen konnten in Farbfernsehempf¨angern ebenso betrachtet werden wie mit Schwarzweiß-Empf¨angern [245]. Die in Frankreich entwickelte Norm SECAM ([franz.] S´equence a´ M´emoire) folgte 1957 und in Deutschland entwickelte Walter Bruch (1908–1990) aufbauend auf den Erfahrungen mit NTSC und SECAM 1963 die PAL Farbfernseh¨ubertragungstechnik ([engl.] Phase Alternation Line). 1983 wurde in Japan die erste hochaufl¨osende Fernsehtechnik HDTV (High Definition TeleVision) vorgestellt, auf die in Abschnitt 4.6.1 detaillierter eingegangen wird.

2.7.5 Analoge und digitale Aufzeichnungsverfahren Die M¨oglichkeit der auf elektromagnetischen Verfahren beruhenden Aufzeichnung von Bild und Toninhalten reicht zur¨uck in das 19. Jahrhundert. Ausgehend von ersten Entwicklungsvorschl¨agen, wie etwa von Paul Janet (1863–1937), der bereits 1887 die magnetische Tonaufzeichnung auf Stahldraht vorschlug, oder dem von Kurt Stille (1873–1957) 1918 vorgestellten Diktierger¨at Dailygraph“, dessen ex” trem d¨unner Draht mit 4400 Metern L¨ange eine Aufzeichnungskapazit¨at von bis zu 2 Stunden erm¨oglichte, gelang der Magnetaufzeichnungstechnik der große Durchbruch erst mit der Entwicklung des Magnetbandes. 1928 wurde von Fritz Pfleumer (1897–1945) ein Magnetbandverfahren auf Papierbasis patentiert, das kurz darauf 1935 durch ein Magnetband auf Kunststoffbasis von den Firmen AEG und BASF ersetzt wurde. 1935 wurde das erste Tonbandger¨at der Welt, das Magnetophon ” K1“ auf der Berliner Funkausstellung o¨ ffentlich vorgestellt [87]. Anf¨anglich nur im professionellen Bereich genutzt, erlebt die Tonbandtechnik nach dem zweiten Weltkrieg, nach dem Totalverlust des deutschen Patentbesitzes einen weltweiten Aufschwung und 1947 wurde das erste Heimger¨at von der amerikanischen Firma Brush Development Co. auf den Markt gebracht. Erste technisch realisierbare Verfahren

2.7 Drahtlose Telekommunikation - Rundfunk und Fernsehen

67

f¨ur die magnetische Aufzeichnung von breitbandigen Fernseh-Signalen gelangen erst 1956 durch Einf¨uhrung eines neuen Frequenzmodulationsverfahrens f¨ur Bildsignale durch den bei der Firma Ampex arbeitenden Ingenieur Charles P. Ginsburg (1920–1992). Die Abl¨osung der analogen Speichermedien und somit der Einzug digitaler Speicher¨ und Reproduktionstechniken hat ihren Ursprung in der Ubertragung von Telefonaten u¨ ber Weitverkehr-Funkstrecken. Alec A. Reeves (1902–1971) entwickelte 1938 das Pulsecode-Modulationsverfahren (PCM), das ein analoges frequenz- oder amplitudenmoduliertes Signal in eine rasche Serie einzelner Pulse von konstanter Amplitude u¨ bertr¨agt. Das zu u¨ bertragende diskrete Signal kann dabei mit Hilfe eines bin¨aren Codes repr¨asentiert werden. Da die gespeicherte Information nicht von der Pulsamplitude abh¨angt, d.h. ein Rauschen die kodierte Information nicht ver¨andert, sind PCM-Signale im Vergleich zu herk¨ommlichen Modulationsverfahren nahezu st¨orungsfrei [136]. PCM-Audiorecorder waren seit Ende der 60er Jahre im Gebrauch und 1979 brachten Philips und Sony die digitale Audio Compact Disc (CDDA) zur Marktreife. Dieses plattenf¨ormige Speichermedium besitzt einen Durchmesser von 11,5 Zentimetern (¨ubrigens dieselbe Gr¨oße wie Emil Berliners erste Schallplatte) und bot (vorerst) einen Speicherplatz von 74 Minuten oder 650 MB. Eine Compact Disk ist eine mit einer Aluminiumschicht bedampfte 1,2 mm dicke Polycarbonat-Scheibe, in die digitale Informationen eingepresst werden, bevor sie mit einem Schutzlack versiegelt wird. Im Gegensatz zur spiralf¨ormigen Rille der analogen Audio-Schallplatte liegt die Information auf der CD in Form von mikroskopisch kleinen, l¨anglichen Vertiefungen (sogenannter Pits“) vor, die von einem ” 780-Nanometer-Laserstrahl ber¨uhrungsfrei abgetastet und von der Elektronik des Abspielger¨ats wieder in akustische Signale umgesetzt werden. Die von innen nach außen verlaufende Spur der Pits weist dabei eine L¨ange von nahezu sechs Kilome¨ tern auf (bei einer Breite von 0,6 µm). Dabei repr¨asentiert ein Ubergang von Pit zur h¨oher gelegenen Umgebung (dem sogenannten Land“) bzw. vom Land zum Pit ” ¨ eine logische Eins, w¨ahrend ein Ubergang von Pit zu Pit bzw. Land zu Land eine logische Null darstellt [183]. Nachdem man sich nach langem Streit um einen einheitlichen Standard und um Methoden des Kopierschutzes endlich geeinigt hatte, erschien 1995 die erste Digital Versatile Disc (DVD). Sie bot im Vergleich zur CD eine eine vielfache Speicherkapazit¨at (bei Verwendung mehrerer optischer Schichten und beider Seiten der DVD bis zu 17 GB) und fand zun¨achst Verwendung in der digitalen Speicherung von komprimierten Videodaten. Doch die Entwicklung digitaler Speichermedien strebte zu noch h¨oheren Speicherkapazit¨aten, wie man sie z.B. f¨ur die Aufzeichnung des hochaufgel¨osten Fernsehstandards HDTV (High Definition TeleVision) ben¨otigt. Anfangs gab es in diesem Bereich zwei konkurrierende Standards, die Blu-ray Disc und die federf¨uhrend von Toshiba entwickelte HD DVD (High Density DVD). Die Blu-ray Disc, deren Name sich von dem zu ihrer Abtastung eingesetzten blau-violetten, kurzwelligen Laserstrahl herleitet, besitzt mit 25 GB (Single Layer) bis 50 GB (Dual Layer) eine h¨ohere Speicherkapazit¨at als die HD DVD, die 15 GB bzw. 30 GB Speicherkapazit¨at besitzt. Ab dem Februar 2008 konnte sich

68

2 Geschichtlicher R¨uckblick

die Blu-ray Disc auf dem Mark durchsetzen, nachdem Toshiba bekannt gab, die Weiterentwicklung und Fertigung der HD DVD aufzugeben.

2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager Der Computer wird heute oft als das Leitmedium“ der Zukunft angesehen und hat ” das Fernsehen in seiner Eigenschaft als solches bereits abgel¨ost. Dabei wird h¨aufig u¨ bersehen, dass der Computer in seiner historischen Entwicklung vom technischen Begriff betrachtet eigentlich gar kein Medium im Sinne der Funktion des Aufneh¨ mens, Speicherns, Ubertragens und Reproduzierens von Information war. Die Entwicklungen der letzten 25 Jahre versetzten den Computer in die Lage, analoge akustische oder optische Informationen zu verarbeiten, aber erst mit dem Aufkommen von Internet und WWW tritt seine Funktion als Medium, das einen integrativen Transport multimedialer Information gestattet, in den Vordergrund. Die Urspr¨unge des Computers als Instrument zur Durchf¨uhrung automatischer Berechnungen reicht bis in die Antike zur¨uck. In Griechenland und Rom gab es bereits im 3. Jahrhundert v. Chr. Rechenbretter aus Holz, Metall oder Stein – Abakus genannt –, die in der Gr¨oße einer Postkarte bereits leicht transportabel und weitverbreitet waren. Die Rechensteine des Abakus werden claviculi oder calculi genannt – woher sich auch das Wort Kalkulation ableitet – und werden vom Rechenmeister – dem calculator – auf dem Brett verschoben zur Ausf¨uhrung der vier Grundrechenarten [187]. In China ist der Gebrauch eines dem Abakus sehr a¨ hnlichen Recheninstruments – des Suan-pan – bereits im 1. Jahrhundert v. Chr. nachzuweisen. Um komplizierte Multiplikationen leichter ausf¨uhren zu k¨onnen, entwickelte der schottische Mathematiker John Napier (1550–1617) 1617 den ersten Rechenschieber, eine einfache Multiplikationstafel aus beweglichen St¨aben, die auf dem von Napier 1614 eingef¨uhrten Logarithmus und dem Dezimalpunkt basiert. Bereits zuvor entwarf 1494 Leonardo da Vinci eine erste mechanische Uhr mit einem Pendel, wobei die Konstruktion einer korrekt arbeitenden Pendeluhr noch gut 200 Jahre auf sich warten ließ. Die dazu notwendige Feinmechanik allerdings bildete auch die Grundlage f¨ur die Entstehung der ersten mechanischen Rechenmaschinen. Im 17. Jahrhundert bem¨uhten sich vorallem Willhelm Schickard (1592– 1635), Blaise Pascal (1623–1662) und Gottfried Wilhelm Leibniz (1646–1716) um die Konstruktion komplexer Rechenmaschinen. Schickard konstruierte 1623 die erste zahnradgetriebene Rechenmaschine, um seinem Freund, dem Astronomen Johannes Kepler (1571–1630) langwierige Berechnungen bei der Bestimmung von Planetenpositionen zu erleichtern. Kepler erhielt diese Maschine aber nie, da sie noch im halbfertigen Zustand bei einem Brand zerst¨ort wurde. Schickards Maschine beherrschte die vier Grundrechenarten, wobei Multiplikation und Division auf manuelle Unterst¨utzung bei der Berechnung von Teilprodukten mit Hilfe von Rechenst¨aben angewiesen waren, und besaß eine sechsstellige Dezimalanzeige. Seine Erfindung geriet aber in Vergessenheit, so dass der franz¨osische Mathematiker

2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager

69

Abb. 2.18 Die personifizierte Rechenkunst (Arithmetica) mit Pythagoras (links) und Boethius (rechts), die einen Wettstreit zwischen Rechenbrett und dem Rechnen mit modernen arabischen Zahlen austragen (1504)

Blaise Pascal 1642 die zahnradgetriebene Rechenmaschine erneut erfand und noch jahrhundertelang als Erfinder der mechanischen Rechenmaschine galt. Um seinem Vater, einem k¨oniglichen Steuerbeamten, bei seiner Arbeit zu helfen entwickelte der 19-j¨ahrige Pascal diese Rechenmaschine. Sie erlaubte die beiden Grundrechenarten Addition und Subtraktion und wurde u¨ ber 50 mal gebaut, wobei allerdings nur wenige Exemplare verkauft wurden. Eine erste mechanische Rechenmaschine, die auch eine direkte Multiplikation, basierend auf wiederholter Addition erlaubte, konstruierte der deutsche Mathematiker Gottfried Wilhelm Leibniz [153]. Um die Multiplikation mit einer großen Zahl durchf¨uhren zu k¨onnen, muss im Gegensatz zur einfachen Addiermaschine der Multiplikand gespeichert werden und das Einstellwerk gegen¨uber dem Ergebniswerk verschiebbar sein, um eine mehrfache stellenrichtige Addition durchf¨uhren zu k¨onnen. Leibniz verwendete hierzu die sogenannte Staffelwalze, eine Anordnung von achsparallelen Zahnrippen gestaffelter L¨ange. Je nach Position eines zweiten verschiebbaren Zahnrades wurde dieses bei einer Umdrehung der Staffelwalze um null bis neun Z¨ahne weitergedreht. Zu Lebzeiten konnte er aber nie das Problem des Zehner¨ubertrags u¨ ber mehrere Stellen l¨osen, so dass seine Maschine erst 1894 zur einwandfreien Funktion gebracht werden konnte, als die Feinmechanik weiter fortgeschritten war. 1679 entwickelte Leibniz unter anderem auch das bin¨are Zahlen- und Rechensystem, das die Grundlage zur Konstruktion moderner Computer werden sollte. Mit der Lochkarte tauchte um 1805 erstmals ein wichtiges Element zur Speicherung und Verrechnung von Information auf, als Joseph-Marie Jacquard (1752– 1834) den Musterwebstuhl erfand. Er trennte als erster die Software – also das Steuerprogramm in Gestalt von Lochkarten oder -streifen – von der Hardware – der eigentlichen Maschine, die nach den durch die L¨ocher in der Karte vorgegebenen Instruktionen arbeitete. Je nach Lochkarte oder Programm war die Maschine

70

2 Geschichtlicher R¨uckblick

in der Lage, ein Gewebe mit einem durch die Lochkarte vorgegebenen Muster und vorgegebenen Farben mechanisch herzustellen. Mit der Lochkarte f¨uhrte Jacquard das bis heute die Grundarchitektur aller datenverarbeitenden Maschinen und Computer bestimmende bin¨are System in den Maschinenbau ein: Wo die Nadel, die die Lochkarte abtastete, auf ein Loch, eine Eins, traf, da fand eine Ver¨anderung statt. Wo sie jedoch auf Pappe, also eine Null stieß, blieb der Zustand unver¨andert [71]. 1822 fand die Lochkarte erstmals Verwendung in einer mechanischen Rechenmaschine: in der Difference Engine“ von Charles Babbage (1791–1871). Babbage ” war als Mathematikprofessor aufgefallen, dass die Erstellung mathematischer Tabellen oft nur auf der einfachen mechanischen“ Wiederholung bestimmter Arbeits” schritte beruhte, wobei sich die Ersteller solcher Tabellen aber sehr oft verrechneten. Seine Forschungen richteten sich folglich auf die maschinelle Umsetzung mathematischer Probleme und deren L¨osung. Die von ihm 1822 vorgeschlagene Difference Engine sollte dampfgetrieben und von der Gr¨oße einer Lokomotive in der Lage sein, Differentialgleichungen zu l¨osen und die Ergebnisse direkt auszudrucken. Nachdem er zehn Jahre lang an dieser Maschine gearbeitet hatte, kam ihm pl¨otzlich die Idee zu einer frei programmierbaren Rechenmaschine, die in der Lage war, beliebige vorgegebene Berechnungen auszuf¨uhren, der Analytical Engine“ , die vom Konzept ” her bereits alle Elemente eines modernen Computers aufwies: einen Zahlenspeicher f¨ur f¨unfzigstellige Dezimalzahlen, der mit Hilfe 50.000 einzelner Zahnr¨ader realisiert werden sollte, einem Rechenwerk und eine Steuereinheit zur Steuerung des gesamten Programmablaufs einschließlich der Rechenoperationen und des Datentransports. Babbage’s Assistentin, Augusta Ada King, Countess of Lovelace (1815– 1842), die Tochter des englischen Dichters Lord Byron, trug maßgeblich zum Design der Maschine bei. Als eine der wenigen Menschen, die in der Lage waren, die M¨oglichkeiten der Analytical Engine einzusch¨atzen, entwickelte sie bereits erste Programmroutinen, die so fortschrittliche Konzepte, wie logische Verzweigungen, Programmschleifen und Sprunganweisungen enthielten und somit eine zyklische Durchf¨uhrung von Rechenanweisungen erm¨oglichten. Babbage’s Denken u¨ ber das mechanisierte Rechnen war seiner Zeit weit voraus. Er scheiterte an der mangelnden Pr¨azision der Feinmechanik, die nicht in der Lage war, eine so komplexe Maschine herzustellen [120]. Erst zwischen 1989 und 1991 konnte im London Science Museum ein voll funktionsf¨ahiger Nachbau von Babbages Difference Engine fertiggestellt werden. Ebenso wie Babbage setzte der amerikanische Erfinder Hermann Hollerith (1860– 1929) Lochkarten ein, um mit Hilfe einer ersten funktionsf¨ahigen Datenverarbeitungsanlage die amerikanische Volksz¨ahlung zu unterst¨utzen. Die Auswertung der vormals in den USA durchgef¨uhrten Volksz¨ahlung, die noch ohne maschinelle Unterst¨utzung auskommen musste, nahm ann¨ahernd sieben Jahre in Anspruch. In Anbetracht des raschen Bev¨olkerungswachstums und der Menge an Fragen, die gestellt wurden, bef¨urchteten die Beh¨orden, dass bei einer neuen Volksz¨ahlung diese Zeit auf u¨ ber zehn Jahre anwachsen k¨onnte, so dass ein entsprechender Ausweg gefunden werden musste. 1890 erhielt Hollerith das Patent auf eine Lochkartenz¨ahlmaschine, die im Gegensatz zu Babbages Maschine die Lochkarten zur Speicherung von Daten und nicht zur Steuerung des Rechenablaufs benutzte. Holleriths Loch-

2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager

71

Abb. 2.19 Entwurfskizze zur Difference Engine von Charles Babbage (1833)

karte war ein hochflexibles Speichermedium, das in Verbindung mit elektromechanischen Lesevorrichtungen bereits M¨oglichkeiten der heutigen Datenverarbeitung vorwegnahm: Datenbankeinrichtung, Z¨ahlung, Sortierung und Suchl¨aufe nach beliebigen Kriterien. Mit Holleriths Maschine wurde es m¨oglich, die Auswertung der 11. US-amerikanischen Volksz¨ahlung anstelle in der projektierten Zeit von zehn Jahren in nur sechs Wochen durchzuf¨uhren. Der erste betriebsf¨ahige, programmgesteuerte Rechenautomat wurde schließlich 1937 von Konrad Zuse (1910–1995) konstruiert, die noch vollkommen mechanisch realisierte Z1“, die auf den Prinzipien der von George Boole (1815–1864) ein” gef¨uhrten Bin¨arrechnung beruhte. 1941 baute Zuse nach Auftr¨agen des Reichsluftfahrtministeriums einen ersten elektromechanischen Computer, die Z3“, die logi” sche Schaltverbindungen auf Basis von elektromechanischen Relais benutzte [256]. Neben Zuse befassten sich Ende der 30er Jahre noch zahlreiche andere Wissenschaftler mit der Realisierung von frei programmierbaren Rechenmaschinen. Der amerikanische Mathematiker Howard H. Aiken (1900–1973) begann 1939 an der Harvard Universit¨at mit der Konstruktion eines Großrechners, dem Harvard Mark ” I“, der neben Lochkarten-Baugruppen auch aus elektromechanischen Relais und R¨ohren aufgebaut war, und 1944 fertiggestellt werden konnte. Die Kriegsanstrengungen und die neuen M¨oglichkeiten des milit¨arischen Geheimfunks, wie etwa die Verschl¨usselung alphanumerischer Information durch die deutsche Chiffriermaschine Enigma“ oder die Vorausberechnung von Geschossflugbahnen trieben die Ent” wicklung automatisierter Rechenanlagen voran. 1942 begann in England der Bau einer Rechenanlage unter dem Decknamen Colossus“, die ab 1943 einsatzbereit ”

72

2 Geschichtlicher R¨uckblick

war und zur Dechiffrierung der geheimen Funkspr¨uche der deutschen Wehrmacht genutzt wurde. Der erste vollelektronische, ausschließlich aus Elektronenr¨ohren aufgebaute Universalrechner, der 1945 an der University of Pennsylvania von John P. Eckert (1919–1995), John W. Mauchly (1907–1980), Herman H. Goldstine (*1913) und John von Neumann (1903–1957) konstruierte ENIAC“ (Electronic Numerical In” tegrator and Calculator), beinhaltete die damals unglaubliche Anzahl von 18.000 Elektronenr¨ohren und ben¨otigte zu seinem Betrieb eine Leistung von 160 Kilowatt elektrischen Strom. Anders als seine Vorg¨anger Colossus“ und Mark I“ war der ” ” ENIAC“ ein richtiger, frei programmierbarer Computer, der zudem bedingt durch ” seine vollelektronische Bauweise Berechnungen bis zu 1.000-mal schneller als diese durchf¨uhren konnte. 1951 begann mit der Fertigstellung von UNIVAC I“ der ” Firma Sperry der serienm¨aßige Bau von Universalrechnern. Die Erfindung des Transistors 1947 durch die Amerikaner John Bardeen (1908– 1991), Walter House Brattain (1902–1987) und William Shockley (1910–1989) in den Bell Laboratories in New York ver¨anderte die Entwicklung der Computer maßgeblich. Die sehr aufw¨andige R¨ohrenbauweise, die einen extrem hohen Wartungsaufwand verursachte, konnte durch den wesentlich kleineren und zuverl¨assigeren Transistor als Schaltelement in v¨ollig neue Dimensionen vorstoßen. Ausgehend vom ersten Transistorrechner TRADIC“ der Bell Telephone Laboratories 1955 trat ” der Transistor gemeinsam mit der Entwicklung des Magnetplattenspeichers 1956 durch IBM seinen Siegeszug an. Erstmalig konnte auch die komplizierte Programmierung der Computer, die bislang auf eine jeweils eigene im Bin¨arcode verfasste Maschinensprache, die auf die Architektur der unterschiedlichen Rechner maßgeschneidert war durch einfacher zu erlernende Hochsprachen – Programmiersprachen auf einem h¨oheren Abstraktionsniveau – ersetzt werden, wie dem kommerziell orientierten COBOL (Common Bussiness Oriented Language) oder dem wissenschaftlichen FORTRAN (Formula Translator). Diese Hochsprachen erm¨oglichten die Gestaltung von komplexeren Programmabl¨aufen und vereinfachten die Ausbildung und die Entwicklungsarbeit der Programmierer. Schon im Lauf der 50er Jahre war die Tendenz zur stetigen Verkleinerung der Transistoren sp¨urbar. 1958 gelang es Jack S. Kilby (1923–2005) bei Texas Instruments erstmals, mehrere Bauteile einer Schaltung, bestehend aus Widerst¨anden, Transistoren und Kondensatoren auf einem Kristallpl¨attchen aus Germanium als Tr¨ager zu integrieren: der integrierte Schaltkreis (Integrated Circuit, Chip) war geboren. Die stetige Verkleinerung der Schaltelemente f¨uhrte zu Beginn der 60er Jahre zur Entstehung einer neuen Gr¨oßenklasse von Computern, den Minicomputern. Der erste Minicomputer, der mit den kleiner gewordenen Schaltelementen ausgestattet war, ist der PDP-1“ der Firma Digital Equipment, der 1960 auf den Markt kam und ” erstmals weniger als eine Million Dollar kostete. Die PDP-1“ war kein Univer” salcomputer, sondern auf Aufgaben der Prozesssteuerung eingeschr¨ankt. Die neuen Minicomputer f¨uhrten allerdings mit ihren spezialisierten Arbeitsbereichen in den 60er und 70er Jahren zu einem beispiellosen Automatisierungsschub. Ab 1961 wurden integrierte Schaltkreise erstmals großmaßst¨ablich industriell gefertigt und der n¨achste Schritt in der Verkleinerung der Schaltelemente gelang 1970 mit der

2.8 Der Computer als universeller pers¨onlicher Kommunikationsmanager Die f¨ unf Generationen moderner Computer 1. Generation (1945–1956) Zu Beginn des zweiten Weltkrieges begann die Entwicklung moderner Computer aus dem Bestreben der einzelnen Regierungen heraus, sich dadurch einen potenziellen und strategischen Vorteil zu verschaffen. Computer dieser ersten Generation waren dadurch gekennzeichnet, dass die verwendeten Maschinenbefehle und Arbeitsinstruktionen speziell f¨ ur den Zweck entworfen wurden, f¨ ur den der betreffende Rechner konzipiert war. Jeder Rechner besaß einen unterschiedlichen Befehlssatz (Maschinencode), der auf unterschiedliche Weise bin¨ ar kodiert wurde und verantwortlich daf¨ ur war, dass die Programmierung zu einer aufw¨ andigen und langwierigen Angelegenheit wurde. Basistechnologie der Computer der ersten Generation waren Elektronenr¨ ohren, Lochkarten und der magnetische Trommelspeicher. 2. Generation (1956–1963) Der 1947 entwickelte Transistor revolutionierte das Design und die Entwicklung der Computer. Auf Transistorbasis aufgebaute Rechner waren zuverl¨ assiger, energieeffizienter und kleiner als ihre R¨ ohrenvorg¨ anger. Mit der zweiten Generation der Computer hielten Programmiersprachen wie COBOL oder FORTRAN ihren Einzug. Die Programmierung gestaltete sich wesentlich einfacher im Vergleich zum kryptischen Maschinencode. Die Computer gestatteten nur einen sogenannten Stapelbetrieb (Batchbetrieb), d.h. die zu erledigenden Jobs konnten nur einzeln, nach einander erledigt werden. Mit seinen deutlich gesunkenen Kosten hielt der Computer Einzug in die Wirtschaftswelt. Zur Einund Ausgabe wurden weiterhin Lochkarten, aber auch Magnetb¨ ander verwendet. 3. Generation (1964–1971) Obwohl Transistoren bereits deutliche Vorteile gegen¨ uber der R¨ ohrentechnik aufwiesen, war die von ihnen erzeugte Abw¨ arme oft doch so groß, dass Computer dadurch besch¨ adigt wurden. Im n¨ achsten Schritt der Miniaturisierung und der Einf¨ uhrung des integrierten Schaltkreises konnte eine weitaus gr¨ oßere Anzahl von Schaltelementen auf dazu noch kleinerem Raum verbaut werden, bei einer gleichzeitigen energie-effizienteren Umsetzung. Als Konsequenz daraus wurden die Computer leistungsf¨ ahiger, kleiner und auch preiswerter. Gleichzeitig setzte die Entwicklung von Betriebssystemen ein, die einen Mehrfachprogrammbetrieb gestatteten, d.h. verschiedene Jobs konnten zeitgleich abgearbeitet werden und die Ressourcen des Computers benutzen. 4. Generation (1971 – heute) Seit der Entwicklung des ersten Mikroprozessors schreitet die Miniaturisierung zusehends voran. Die Hochintegration (VLSI – Very Large Scale Integration) zu Beginn der 80er Jahre und die anschließende ULSI (Ultra Large Scale Integration) bringt Millionen von Transistoren auf einem einzigen integrierten Schaltkreis unter. Unter dem zunehmenden Preisverfall verbreitet sich der Computer mit dem PC bis in die Privathaushalte. Dies erm¨ oglichen vor allem auch einfach zu bedienende graphische Benutzeroberfl¨ achen, die es auch dem Nichtfachmann erm¨ oglichen, einen Computer zu bedienen. Internet und lokale Netze halten Einzug in die Computerwelt. 5. Generation (heute – ) Gegen Ende der 80er Jahre wurde der Auftakt f¨ ur die f¨ unfte Computergeneration mit Weiterentwicklungen auf den Gebieten der k¨ unstlichen Intelligenz und dem Aufkommen der Supercomputer gesehen. Zunehmende Parallelisierung der Berechnungen in Mehrprozessorsystemen in Verbindung mit Spracherkennung und nat¨ urlichem Sprachverstehen kennzeichnen diese Entwicklung.

Abb. 2.20 Die f¨unf Generationen moderner Computer

73

74

2 Geschichtlicher R¨uckblick

Abb. 2.21 ENIAC – der erste rein elektronische digitale Universalrechner

Entwicklung des Mikroprozessors, als erstmals alle Bestandteile eines Universalrechners – das Rechenwerk, das Steuerwerk, der Datenbus und die verschiedenen Register – auf einem einzigen Chip, dem Intel 4004, untergebracht werden konnten. Doch bis 1976 wurden Mikroprozessoren nur als Komponenten von Minicomputern und in der Prozesssteuerung eingesetzt. Die Idee, den Mikroprozessor zum Kernst¨uck eines eigenen Universalrechners zu machen, entstand abseits der großen Computerfirmen unter Studenten. Zur Gruppe dieser jungen Leute z¨ahlten Steve Jobs (*1955) und Stephen Wozniak (*1950), die 1976 die Firma Apple gr¨undeten, und wenige Jahre sp¨ater mit dem Apple II“ ” den ersten erfolgreichen Personalcomputer entwickelten. IBM brachte 1981 seinen ersten Personalcomputer (PC) f¨ur den Einsatz in B¨uro, Schule und Heim auf den Markt und der Siegeszug der neuen Rechner begann. Jedes Jahr erschienen neue, leistungsf¨ahigere und immer kleinere Mikroprozessoren auf dem Markt, die zu stetig g¨unstigeren Preisen angeboten wurden. Der PC erhielt grafische und akustische Ausgabef¨ahigkeiten und mit der Einf¨uhrung fensterbasierter grafischer Benutzeroberfl¨achen 1984 auf dem Apple Macintosh vereinfachte sich die Bedienung, so dass der PC letztendlich den Massenmarkt eroberte. Bill Gates (*1955) gr¨undete 1975 zusammen mit Paul Allen die Firma Microsoft, die ihren Erfolg mit der Bereitstellung des Betriebssystems MS-DOS f¨ur den IBM PC begr¨undete und in den 1990er Jahren mit dem grafische Betriebssystem Microsoft Windows und der B¨uro-Software Microsoft Office, zum Marktf¨uhrer wurde. ¨ Mit der Einf¨uhrung lokaler Netzwerke und der Freigabe des Internet f¨ur die Offentlichkeit, er¨offneten sich f¨ur den PC ungeahnte M¨oglichkeiten als universelles Kommunikationsmedium. Ausgestattet mit der benutzerfreundlichen Bedienschnittstelle des Browsers war jedermann in der Lage, das Internet – oder genauer das World Wide Web – als neues Kommunikationsmedium zu nutzen, das die M¨oglichkeit bietet, Informationen in jeglicher Auspr¨agungsform, sei es Text, Sprache, Musik, Grafik oder Video, also multimedial auszutauschen.

2.9 Die untrennbare Geschichte von InternetundWWW

75

Tabelle 2.3 Historische Entwicklung des Computers 30.000 v. Chr. Verwendung von primitiven Zahlenzeichen 3.000 v. Chr. erste abstrakte Zahlbegriffe in Mesopotamien auf Basis des Sexagesimalsystems 3. Jhd. v. Chr. die Griechen verwenden den Abakus um 500 Einf¨ uhrung des arabischen Dezimalzahlensystems 1494 Leonardo da Vinci konstruiert die erste Pendeluhr 1617 John Napier entwickelt einen Rechenschieber 1623 Willhelm Schickard konstruiert erste mechanische Rechenmaschine f¨ ur Addition und Subtraktion 1642 Blaise Pascal konstruiert ebenfalls eine mechanische Rechenmaschine f¨ ur Addition und Subtraktion 1675 Gottfried W. Leibniz konstruiert eine mechanische Rechenmaschine f¨ ur alle vier Grundrechenarten 1679 Gottfried W. Leibniz f¨ uhrt das bin¨ are Zahlensystem ein 1805 Joseph Marie Jacquard f¨ uhrt eine Lochkarte zur Steuerung von mechanischen Webst¨ uhlen ein 1822 Charles Babbage konstruiert die Differential Engine, eine mechanische Rechenmaschine zur L¨ osung von Differentialgleichungen 1832 Charles Babagge skizziert die Analytical Engine, den ersten frei programmierbaren mechanischen Computer, seine Assistentin Ada Augusta King entwickelt erste Computerprogramme 1890 Herman Hollerith entwickelt eine Lochkartenz¨ ahlmaschine f¨ ur die Volksz¨ ahlung in den USA 1937 Konrad Zuse konstruiert die Z1, den ersten programmgesteuerten und tats¨ achlich einsatzbereiten mechanischen Computer 1941 Zuse konstruiert die Z3, den ersten elektromechanischen und frei programmierbaren Computer 1943 in England wird der Großrechner Colossus fertiggestellt zur Dechiffrierung deutscher geheimer Funkspr¨ uche 1944 der erste amerikanische Großrechner, der Harvard Mark I wird fertiggestellt 1945 der erste vollelektronische Computer ENIAC wird an der Universit¨ at von Pennsylvania fertiggestellt 1947 der Transistor wird erfunden 1951 der erste in Serie gebaute Computer: UNIVAC von Sperry 1955 der erste Computer aus Transistoren: TRADIC von den Bell Labs 1956 IBM entwickelt den Magnetplattenspeicher 1958 Jack S. Kilby entwickelt den integrierten Schaltkreis 1960 der erste Minicomputer: die DEC PDP-1 1969 das ARPANET als Vorl¨ aufer des Internet wird gestartet 1971 der erste Mikroprozessor, der Intel 4004, kommt auf den Markt 1977 der erste Personal Computer, der Apple II kommt auf den Markt 1981 IBM bringt den ersten IBM PC heraus 1984 Apple stellt den ersten benutzerfreundlichen Macintosh Computer vor.

2.9 Die untrennbare Geschichte von Internet und WWW 2.9.1 Das ARPANET – wie alles begann... Die Urspr¨unge des Internet reichen weit zur¨uck in die Zeit des kalten Krieges. Mit der kolportierten Absicht ausfallsichere und zuverl¨assige Kommando- und Kommu-

76

2 Geschichtlicher R¨uckblick

nikationsverbindungen zu gew¨ahrleisten, die selbst einen Atomschlag u¨ berstehen, wurde die Idee eines paketvermittelten Kommunikationsdienstes entwickelt, der in der Lage sein sollte, unterschiedlichste Rechnernetze zu u¨ berbr¨ucken – das ARPANET, benannt nach seinem Sponsor, der amerikanischen Regierungsbeh¨orde ARPA. Verschiedene amerikanische Universit¨aten wurden von Anfang an in die Grundlagenforschung miteinbezogen und so spaltete sich das 1969 gestartete ARPANET schon bald in ein rein milit¨arisch genutztes Teilnetz und einen zur wissenschaftlichen Kommunikation genutzten zivilen Teilbereich auf. Der zivile Teilabschnitt entwickelte sich immer rasanter, vor allem nachdem die National Science Foundation (NSF) ein eigenes Hochgeschwindigkeitsnetzwerk zwischen den amerikanischen Universit¨aten und Forschungseinrichtungen zu unterst¨utzten begann (NSFNET). Das urspr¨ungliche ARPANET verlor daraufhin zusehends an Bedeutung und wurde schließlich 1989 deaktiviert. Die Idee der Paketvermittlung, ein Grundpfeiler der Internet-Technologie, ohne die eine sichere Kommunikation in einem unsicherem, fehleranf¨alligen Netzwerk nur schwer vorstellbar ist, wurde bereits zu Beginn der 60er Jahre von Paul Baran bei der amerikanischen RAND Corporation, Donald Davies am britischen National Physical Laboratory (NLP) und Leonard Kleinrock am Massachussetts Institute of Technology (MIT) entwickelt. Bei einem Treffen der ARPA Forschungsdirektoren im Fr¨uhjahr 1967 brachte das Information Processing Techniques Office (IPTO oder nur IPT) unter der Leitung ¨ von Joseph C. R. Licklider und Lawrence Roberts erstmalig das Thema der Uberbr¨uckung heterogener Netzwerke, also den Zusammenschluss von nicht kompatiblen Computernetzwerken auf die Tagesordnung. Bereits im Oktober 1967 konnten die ersten Spezifikationen diskutiert werden f¨ur die Interface Message Processors (IMP), dezidierten Minicomputern, a¨ hnlich den heute eingesetzten InternetRoutern, die den u¨ ber Telefonverbindung zu koppelnden Rechnern vorgeschaltet werden sollten. Die Entscheidung zur Verwendung standardisierter Verbindungsknoten zur Koppelung propriet¨arer Hardware zu einem Kommunikations-Subnetz (vgl. Abb. 2.22), vereinfachte die Entwicklung der notwendigen Netzwerkprotokolle, da die Software-Entwicklung f¨ur die Kommunikation zwischen IMP und den propriet¨aren Rechnern dem jeweiligen Kommunikationspartner u¨ berlassen werden konnte. Auch brauchte man sich nicht mit dem Problem herumschlagen, dass die in den 60er und 70er Jahren eingesetzten Computer keiner standardisierten Architektur folgten. Weder das auf diesen eingesetzte Betriebsystem, noch die verwendete Hardware verf¨ugte u¨ ber gemeinsame Schnittstellen, so dass f¨ur jede Kommunikationsverbindung zwischen zwei Rechnern eine eigene Schnittstelle h¨atte entwickelt werden m¨ussen. Bei der Verwendung eines Kommunikations-Subnetzes, bei dem die eigentliche Kommunikation speziell dazu vorgesehenen Kommunikationsrechnern obliegt, musste lediglich jeweils eine spezielle Schnittstelle zwischen Host-Rechner und Kommunikations-Rechner geschaffen werden. Die Anzahl der neu zu schaffenden Schnittstellen wuchs in diesem Fall nur linear zur Anzahl der unterschiedlichen Rechnerarchitekturen und war daher wirtschaflich wesentlich effizienter. Ende 1968 konnten dann basierend auf den Arbeiten des Stanford Research Institutes (SRI) die endg¨ultigen Spezifikationen der IMPs festgeschrieben werden. Um

2.9 Die untrennbare Geschichte von InternetundWWW

77

Subnetz IMP IMP

Host

Host

IMP IMP

Host Host

Abb. 2.22 ARPANET – Netzwerkmodell mit Kommunikations-Subnetz

sich mit dem Kommunikations-Subnetzwerk zu verbinden, kommunizierten die jeweiligen Host-Rechner u¨ ber eine bitserielle Hochgeschwindigkeits-Schnittstelle mit den vorgeschalteten IMPs. Das Design der IMPs basierte auf Vorschl¨agen von Larry Roberts und wurde von der Firma Bolt, Beranek & Newman (BBN) auf der Basis von Honeywell DDP-516 Minicomputern implementiert. Die IMPs selbst kommunizierten miteinander via Modems, die u¨ ber permanent geschaltete Telefonleitungen verbunden waren, um Datenpakete zwischenzuspeichern und weiterzuleiten (Storeand-Forward Packet Switching). Die ersten vier zu verbindenden Netzwerkknoten des ARPANETs geh¨orten zu universit¨aren Forschungseinrichtungen der Universit¨aten Los Angeles (UCLA, Sigma-7), Santa Barbara (UCSB, IBM-360/75), Stanford (SRI, SDS-940) und Utah (DEC PDP-10). Am 29. Oktober 1969 war es dann soweit: die ersten vier IMPs waren erfolgreich sowohl untereinander, als auch mit ¨ des Internet begann, auch wenn der Netzihren Hostrechnern verbunden und die Ara werkknoten der UCLA beim ersten Login-Versuch bei der Eingabe des Buchstaben G von LOGIN abst¨urzte [103]. Im M¨arz 1970 erreichte die Ausdehnung des neuen ARPANET erstmals die Ostk¨uste der USA und im April 1971 waren bereits 23 Hosts u¨ ber 15 Knotenpunkte miteinander verbunden. Die erste prominente“ Anwendung des neuen Netzwerks war eine ” Software zum Transfer von Textnachrichten, das erste E-Mail Programm, das 1971 von Ray Tomlinson von BBN entwickelt wurde. Im Januar 1973 wuchs die Anzahl der Rechner im ARPANET auf 35 Knoten an. Ab Mitte 1973 kam dann auch Rechner in England und Norwegen als erste internationale Knoten mit hinzu. Im selben Jahr wurde auch die erste Anwendung zum Dateitransfer, das File Transfer Protocol (FTP) implementiert. Ab 1975 wurden die außerhalb der USA liegenden Netzwerkknoten u¨ ber eine Satellitenverbindung angeschlossen. Die Zahl der Rechner im Netz wuchs mit 111 angebundenen Hostrechnern im Jahr 1977 auf u¨ ber 500 Hosts im Jahr 1983 an. Eine erste sehr erfolgreiche o¨ ffentliche Demonstration des Internetworking erfolgte im November 1977, als u¨ ber spezielle Gateway-Rechner das ARPANET mit einem der ersten Funkdatennetze, dem Packet Radio Network und einem Satellitennetzwerk, dem Atlantic Packet Satellite Network zusammengeschaltet wurde. Das

78

2 Geschichtlicher R¨uckblick

Jahr 1983 wurde dann zum großen Wendepunkt in der Geschichte des ARPANET: die Kommunikationssoftware aller angeschlossenen Rechensysteme wurde vom alten Network Control Protocol (NCP) auf die 1973 unter der Leitung von Vinton Cerf (Universit¨at Stanford) und Robert Kahn (DARPA) entwickelte Kommunikationsprotokollsuite TCP/IP umgestellt. Diese vom Department of Defense initiierte Umstellung auf das TCP/IP-Protokoll wurde notwendig, da es unter NCP nur eingeschr¨ankt m¨oglich war, eine Kommunikation u¨ ber heterogene Netzwerke hinweg zu gew¨ahrleisten. Die Umstellung war eine entscheidende Voraussetzung f¨ur die weltweite Verbreitung, die dieses Netz der Netze schließlich fand. Entscheidend f¨ur die Entwicklung eines Internets, also eines Netzverbundes von Netzen unterschiedlichster Kommunikationsnetzwerkarchitekturen, war die L¨osung der Fragestellung, wie eine Kommunikation zwischen Rechnern an Endpunkten von Netzwerken unterschiedlicher Technologie organisiert werden kann, ohne dass die beteiligten Rechner wissen, was auf der Kommunikationsstrecke zwischen ihnen geschieht. 1983 wurde das ARPANET aufgespalten in einen milit¨arisch (MILNET) und einen zivil zu nutzenden Bereich. Verwaltungs- und betriebstechnisch gab es jetzt zwei verschiedene Netzwerke, doch weil Gateways sie verkn¨upften, bemerkten die Nutzer nichts von dieser Auftrennung. Das ARPANET war zu einem ausgewachsenem Internet geworden. Immer mehr eigenst¨andige lokale Netze wurden an das ARPANET angebunden, so dass in der ersten H¨alfte der 80er Jahre das Internet einem Stern glich mit dem ARPANET in der Mitte und den verschiedenen Netzwerken, die sich um dieses Zentrum herum gruppierten. Ende der 80er Jahre wandelte sich dann dieses Bild. Das Anfang der 80er Jahre in das ARPANET integrierte CSNET (Computer Science Network) der amerikanischen National Science Foundation (NSF) verband immer mehr amerikanische Universit¨aten. Schließlich erm¨oglichte es dessen Nachfolger, das NSFNET, das alle Universit¨aten u¨ ber einen eigens dazu geschaffenen Hochgeschwindigkeits-Backbone verbinden sollte, dass jeder CollegeStudenten zum Internet-User werden konnte. So entwickelte sich das NSFNET sehr schnell zum eigentlichen R¨uckgrat des Internet, und das nicht nur, weil dessen Leitungen mehr als 25 mal schneller waren als die des alten ARPANET. Neben der wissenschaftlichen Nutzung etablierte sich u¨ ber das NSFNET auch die wirtschaftliche Nutzung, die im urspr¨unglichen ARPANET streng untersagt war. Anfang der 90er Jahre u¨ bertraf die Zahl der weltweit u¨ ber das NSFNET vernetzten Computer bei weitem diejenige im ARPANET. Das DARPA-Management – die ARPA war mittlerweile in Defense Advanced Research Project Agency umbenannt worden – entschied im August 1989 anl¨asslich des 20-j¨ahrigen Bestehens des ARPANET, dass dieses sich mittlerweile selbst u¨ berlebt habe und es nun an der Zeit sei, das ARPANET stillzulegen. Das NSFNET und die regionalen Netzwerke, die daraus hervorgegangen waren, wurden zum neuen, zentralen Backbone, zum Internet wie wir es heute kennen.

2.9 Die untrennbare Geschichte von InternetundWWW

79

¨ Tabelle 2.4 Vom ARPANET zum Internet – Ubersicht (1957 – 1989) 1957 Start des ersten sowjetischen Satelliten Sputnik und Gr¨ undung der ARPA 1960 Paul Barans, Donald Davies’ und Leonard Kleinrocks erste Arbeiten zum Packet Switching 1962 die IPTO wird als Abteilung der ARPA ins Leben gerufen 1965 die ARPA unterst¨ utzt die Grundlagenforschung an den amerikanischen Universit¨ aten 1967 erstes Treffen der ARPA-Manager zum Thema ARPANET 1968 Spezifikation der IMP-Kommunikationsrechner abgeschlossen 29.10.1969 die ersten 4 Knoten des ARPANET werden zusammengeschaltet 1970 ALOHANET, das erste Funknetz zur Verbindung der Hauptinseln Hawaiis nimmt den Betrieb auf 1971 Ray Tomlinson versendet die erste E-Mail 1972 ARPA wird umbenannt in Defense Advanced Research Projects Agency (DARPA), von Larry Roberts organisierte erste ¨ offentliche Demonstration des ARPANET 1973 das ARPANET umfasst 35 Knoten Vinton Cerf und Robert Kahn entwickeln das TCP-Protokoll, Robert Metcalfe erarbeitet Ideen zur Ethernet-Technologie (LAN) 1973 das Dateitransferprogramm FTP wird implementiert 1975 Satellitennetzverbindung Hawaii, US-Festland, London via Intelsat 1 1975 ARPA gibt den Betrieb des ARPANET an die DCA ab 1977 erste ¨ offentliche Demonstration des Internetworking 1983 die Standardisierungsorganisation ISO verabschiedet das OSIKommunikationsschichtenmodell 1983 Aufspaltung des ARPANET in einen zivil genutzten und einen milit¨ arisch genutzten Teilbereich (MILNET), Umstellung des gesamten ARPANET auf TCP/IP 1984 das Supercomputer Programm der National Science Foundation (NSF) schließt Aufbau und Wartung eines Hochgeschwindigkeitsnetzwerks mit ein (NSFNET, 56kbps Backbone) 1986 NSFNET nimmt den Betrieb auf 1988 erster Internetwurm bef¨ allt das Netz, 10% der bis dato 60.000 Hosts sind betroffen 1989 150.000 Hosts sind im Internet vernetzt. Die Stillegung des alten ARPANET wird beschlossen

2.9.2 The Internet goes public F¨ur den Siegeszug des Internet als Massenkommunikationsmedium sind wohl haupt¨ s¨achlich zwei Gr¨unde ausschlaggebend: die Offnung des neuen Mediums f¨ur die Allgemeinheit und die Bereitstellung einer einfachen Benutzerschnittstelle, dem WWW-Browser, die auch den Nichtfachmann in die Lage versetzt, das Medium Internet und die im Internet angebotene Dienste wie WWW oder E-Mail sehr leicht zu nutzen. Die Geburtsstunde des eigentlichen Internets wird oft gleichgesetzt mit der am 1. Januar 1983 erfolgten Umstellung des ARPANET vom bis dato g¨ultigen Netzwerk-

80

2 Geschichtlicher R¨uckblick

protokoll NCP auf die neue Protokollfamilie TCP/IP mit ihren drei Basisprotokollen IP (Internet Protocol), TCP (Transmission Control Protocol) und ICMP (Internet Control Message Protocol), die bereits 1981 in Form von RFCs (Request for Comments), als Internetstandards festgelegt und ver¨offentlicht worden waren. Durch die Verwendung der TCP/IP Protokollfamilie wurde erstmals eine gemeinsame Zusammenschaltung unterschiedlicher Netzwerktechnologien auf einfache und effiziente Weise m¨oglich. Die neue Technik wurde schnell von der Wissenschaftlergemeinde angenommen, da sie den wissenschaftlichen Kommunikationsprozess immens vereinfachte und beschleunigte. Interessant ist, dass Weiterentwicklung und Ausgestaltung des Internet auch immer wieder durch den Spieltrieb der angeschlossenen Teilnehmer neue Impulse erhielt. So gab es bereits zwischen 1973 und 1975 erste w¨ochentliche Net” Meetings“ , zu denen sich Teilnehmer aus einer Vielzahl der angeschlossenen Forschungseinrichtungen virtuell“ verabredeten, um gemeinsam STAR TREK“ , ein ” ” einfaches, verteiltes Computerspiel basierend auf der gleichnamigen Fernsehserie zu spielen. Auch die Entwicklung und Verbreitung des Betriebssystem UNIX hatte einen wichtigen Anteil an der Verbreitung von TCP/IP und damit an der Popularit¨at des Internet, insbesondere die Entwicklung des frei verf¨ugbaren Betriebssystems BSDUNIX an der University of California in Berkeley. Der ARPA war es von Anfang an daran gelegen, Forschern und Wissenschaftlern an den Universit¨aten die Nutzung des Internet schmackhaft zu machen. Ein Großteil der Informatik-Institute an den amerikanischen Universit¨aten setzte damals UNIX, insbesondere BSD-UNIX als Betriebssystem f¨ur ihre Rechner ein. Die ARPA unterst¨utzte auf der einen Seite BBN bei der z¨ugigen Implementierung der TCP/IP-Protokolle und auf der anderen Seite Berkeley, damit die TCP/IP-Protokolle mit in deren BetriebssystemDistribution aufgenommen wurde. Damit gelang es der ARPA, u¨ ber 90% der Informatik-Abteilungen der amerikanischen Universit¨aten zu erreichen, und das zur rechten Zeit. Die ersten entstehenden Informatik-Abteilungen waren n¨amlich gerade dabei, ihre Rechner zu kaufen und diese in einem lokalen Netzwerk zu verbinden. Dabei kamen die neuen Kommunikationsprotokolle gerade recht. Das urspr¨ungliche ARPANET wurde 1989 schließlich stillgelegt, da der unter ziviler F¨orderung entstandene NSFNET Netzwerkverbund als Backbone technologisch u¨ berlegen war und eine wesentlich h¨ohere Bandbreite zur Verf¨ugung stellte. Die Zahl der am Internet angeschlossenen Computer war 1989 bereits auf u¨ ber 150.000 angestiegen. Als am Abend des 2. November 1988 der erste Internetwurm, ein sich selbst reproduzierendes Programm, sagenhafte 10% der damals 60.000 an das Internet angeschlossenen Rechner lahmlegte, erregte dieser Vorfall großes Aufsehen ¨ in der Offentlichkeit. Direkt betroffen waren Computer vom Typ VAX und SUN3, auf denen verschiedene Versionen des weit verbreiteten Berkeley BSD-UNIX Betriebssystems liefen, die wiederum als Ausgangspunkt f¨ur den Angriff auf weitere Computer benutzt wurden. Innerhalb weniger Stunden hatte sich das Programm u¨ ber das Gebiet der gesamten USA ausgebreitet, hatte Tausende von Computern befallen und diese, auf Grund der Systemlast, die seine Aktivit¨at erzeugte, außer Betrieb gesetzt. Die Bedeutung, die Datennetze wie das Internet f¨ur das o¨ ffentliche

2.9 Die untrennbare Geschichte von InternetundWWW

81

Internet Design Prinzipien Im Jahr 1974 ver¨ offentlichen Vinton Cerf und Robert Kahn Architekturprinzipien, die sie als Open Network Architecture bezeichneten, und die heute noch die Grundlage des Internets bilden: Minimalismus und Autonomie: Ein Netzwerk sollte in der Lage sein, alleine und eigenst¨ andig zu arbeiten. Um mit anderen Netzwerken vernetzt zu werden, sollen keine ¨ internen Anderungen notwendig sein. Bestm¨ oglicher Service: Miteinander vernetzte Netzwerke sollen einen bestm¨ oglichen Service von einem Endger¨ at zum anderen bieten. Um eine zuverl¨ assige Kommunikation zu gew¨ ahrleisten, werden fehlerhafte oder verlorengegangene Nachrichten erneut vom Sender u ¨bertragen. Zustandslose Vermittlungsrechner: Die Vermittlungsrechner in vernetzten Netzwerken sollen keine Angaben dar¨ uber speichern oder verarbeiten, in welchem Zustand sich eine bestehende Netzwerkverbindung befindet. Dezentralisierte Kontrolle: Es soll keine globale Kontrolle u ¨ber die einzelnen vernetzten Netzwerke geben, die Organisation erfolgt dezentral. Weiterf¨ uhrende Literatur: Cerf, V., Kahn, R.: A Protocol for Packet Network Interconnection, in IEEE Transactions on Computing, vol. COM-22, pp. 637–648 (1974)

Abb. 2.23 Internet Design Prinzipien von V. Cerf und R. Kahn

Leben inzwischen erlangt hatten, und die zunehmende Abh¨angigkeit von diesen, ließen solche Angriffe zu einer direkten Bedrohung f¨ur das o¨ ffentlichen Leben werden, die – im Extremfall – inzwischen sogar ein ganzes Land und seine Wirtschaft in ein Informationschaos st¨urzen k¨onnen. Als Reaktion auf diesen Angriff wurde das Computer Emergency Response Team (CERT) mit seinem Sitz an der Carnegie Mellon Universit¨at in Pittsburgh vom amerikanischen Verteidigungsministerium ins Leben gerufen. Die Aufgabe des CERT besteht darin, eine hohe Expertise zum Thema Internet-Sicherheit aufzubauen, um die Schwachstellen bisheriger Internet-Installationen und Anwendungen herauszufinden und um Empfehlungen auszusprechen, nach denen sich die Benutzer und Betreiber des Internet richten sollen. Sicherheitszwischenf¨alle werden an das CERT gemeldet, das versucht, diese aufzukl¨aren und Vorsorge zu treffen, a¨ hnliche Vorf¨alle in Zukunft zu vermeiden bzw. die Verantwortlichen zur Rechenschaft zu ziehen. Dabei ist das CERT eine reine Forschungseinrichtung ohne jegliche polizeiliche, bzw. staatliche Gewalt und kann nicht selbst gegen eine Bedrohung oder deren Verursacher vorgehen.

2.9.3 Das WWW revolutioniert das Internet Schließlich verhalfen das World Wide Web (WWW) und seine einfach zu bedienende Benutzerschnittstelle, der Browser, dem Internet zu seinem sagenhaften Erfolg

82

2 Geschichtlicher R¨uckblick

und der weltweiten Verbreitung. Die Tatsache, dass der Browser in der Lage ist, als integrative Schnittstelle den Zugriff auf viele verschiedenartige Internetdienste wie E-Mail oder Filetransfer zu vereinen, vereinfachte die Nutzung des neuen Mediums derart, dass es zum bedeutenden Massenkomunikationsmittel wachsen konnte. Grundlage des World Wide Web ist die Vernetzung von Einzeldokumenten u¨ ber so genannte Hyperlinks. Ein Hyperlink ist dabei nichts anderes, als der explizite Verweis auf ein anderes Dokument im Web bzw. auf eine andere Stelle innerhalb des selben Dokuments. Solange es sich dabei um textbasierte Dokumente handelt, spricht man von untereinander vernetzten Hypertext-Dokumenten. Die zugrundeliegende Idee des Verweises auf eine andere Textstelle oder ein anderes Textdokument ist keine Erfindung des Computerzeitalters. Bereits die j¨udische Gesetzessammlung des Talmud, deren Urspr¨unge bis in das 1. Jahrhundert unserer Zeitrechnung zur¨uck reichen, enthielt derartige Querverweise. Ein weiteres prominentes, historisches Beispiel eines Hypertextdokumentes ist die große franz¨osische Enzyklop¨adie (Encyclop`edie, ou dictionnaire raisonn`e des sciences, des arts et des m`etiers), die zwischen 1751 und 1766 von Jean le Rond d’Alembert und Denis Diderot herausgegeben wurde. Allerdings beginnt die Geschichte des elektronischen Hypertexts erst im 20. Jahrhundert. Der US-amerikanische Ingenieur Vannevar Bush ver¨offentlichte 1945 in der Zeitschrift Atlantic Monthly“ einen Artikel ” unter dem Titel As We May Think“, in dem er ein von ihm als Memex bezeichne” tes Ger¨at vorschl¨agt, das auf elektromechanische Weise auf Mikrofilm vorliegende Dokumente miteinander vernetzen und in Beziehung setzen sollte, um so das Wissen eines Menschen abzubilden und dessen Ged¨achtnis zu unterst¨utzen [34]. Bush gilt heute als Vision¨ar und Vorbote des World Wide Web. Obwohl viele Experten das Memex nicht als echtes Hypertextsystem anerkennen, beeinflusste Bush durch seinen Artikel die Arbeit der ihm folgenden WWWPioniere. Ted Nelson pr¨agte bereits 1965 die Begriffe Hypertext“ und Hyperme” ” dia“ und arbeitete 1968 mit an der Entwicklung des Hypertext Editing Systems (HES) an der Brown Universit¨at in Providence, Rhode Island. Douglass Engelbart entwickelte von 1962 bis 1968 das NLS (oNLine System), ein Hypertextsystem das unter anderem als erstes Computersystem u¨ berhaupt eine fensterbasierte Benutzerschnittstelle und eine Maus als Eingabeger¨at aufwies. In den 80er Jahren erreichten Hypertext und Hypermedia mit Apples HyperCard den Personal Computer. 1989 formulierte Tim Berners Lee im Schweizer Kernforschungsinstitut CERN einen Vorschlag Information Management: A Proposal“, in dem er ein verteil” tes Hypertext-basiertes Dokumenten-Managementsystem vorschlug, mit dem Dokumentation und Forschungsdaten, die im CERN in riesigen Mengen anfielen, verwaltet werden sollten. Im Folgejahr erhielt er gr¨unes Licht, um seine Idee zusammen mit Robert Cailliau auf einem NeXT-Computersystem in die Tat umzusetzen. Bereits im November 1990 war der erste WWW-Server lauff¨ahig, dem Tim Berners Lee den Namen WorldWideWeb gab, im M¨arz 1991 folgte dann der erste WWWBrowser. Einige Monate sp¨ater, im September 1991, besuchte der amerikanische Physiker Paul Kunz vom Stanford Linear Acceleration Center (SLAC) das CERN und lernte dort das WWW kennen. Begeistert von der Idee nahm er eine Kopie des Program-

2.9 Die untrennbare Geschichte von InternetundWWW

83

Tabelle 2.5 Die Geschichte des World Wide Web 1945 Vennevar Bush beschreibt Memex, das erste Hypertextsystem 1965 Ted Nelson pr¨ agt als erster das Wort Hypertext auf der ACM-Jahreskonferenz 1968 Doug Engelbart entwickelt ein Hypertext-basiertes Prototypensystem NLS und erfindet zu diesem Zweck die Maus als Eingabeger¨ at 1980 Tim Berners-Lee schreibt ein erstes Notizbuch-Programm (ENQUIRE) mit Hypertextlinks 1989 Tim Berners-Lee verfasst ein erstes Memorandum zu seinem HypertextDokumentenverwaltungssystem am Kernforschungszentrum CERN 1990 zusammen mit Robert Cailliau entwickelt Tim Berners-Lee den ersten WWWServer und WWW-Browser: die Geburtsstunde des WorldWideWeb 1993 NCSA Mosaic, der erste WWW-Browser mit grafischer Benutzeroberfl¨ ache erscheint 1994 Netscape wird gegr¨ undet 1994 Gr¨ undung des World Wide Web Consortiums (W3C) 1995 Microsoft liefert sein Betriebssystem Windows95 zusammen mit dem Internet Explorer als WWW-Browser aus 1998 Netscape wird as AOL verkauft, Ende der Browser-Kriege 2004 Dale Daugherty und Tim O’Reilly pr¨ agen den Begriff des Web 2.0 und sprechen von einer Wiedergeburt des WWW

mes mit zur¨uck und schon im Dezember 1991 ging der erste WWW-Server der USA am SLAC ans Netz. Der Aufbau neuer Server oblag haupts¨achlich der Eigeninitiative von Universit¨atsangeh¨origen. W¨ahrend 1992 gerade einmal 26 WWW-Server existierten, hatte sich bis Anfang 1993 die Zahl der weltweit betriebenen WWWServer auf fast 50 St¨uck verdoppelt. Mit dem ersten WWW-Browser mit grafischer Benutzeroberfl¨ache, dem NCSA Mosaic von Marc Andreesen f¨ur das X-Windows System, war es ab Ende 1993 dann endlich auch dem Nichfachmann m¨oglich, das WWW zu nutzen, insbesondere da die NCSA kurz darauf Versionen f¨ur IBM PC und Apple Macintosh ver¨offentlichte. Ende 1993 war die Anzahl der WWW-Server bereits auf 500 gestiegen und das WWW verursachte etwa 1% des weltweiten Internet-Datenverkehrs. 1994 sollte dann das eigentliche Jahr des WWW werden: Die erste internationale World-Wide-Web Conference wurde im Mai 1994 am CERN abgehalten. Eigentlich hatten sich weit mehr als die 400 teilnehmenden Forschern und Entwickler angemeldet, doch war der vorhandene Platz einfach zu beschr¨ankt f¨ur das große Interesse, das dem WWW entgegengebracht wurde. Berichte u¨ ber das WWW gelangten in die Medien und im Oktober startete eine zweite Konferenz in den USA, an der bereits 1300 Personen teilnahmen. Durch die Verbreitung des zum Netscape Navigator weiterentwickelten Mosaic Browsers und seines Markt-Konkurrenten, dem Microsoft Internet Explorer, der jedem verkauften Microsoft Betriebssystem seit 1995 beilag, erfuhr das World Wide Web eine ungebremste Popularit¨at. Lag die Wachstumsrate bisher bei einer j¨ahrlichen Verdoppelung der angeschlossenen Computer, so verdoppelte sie sich nun alle drei Monate. Explosionsartig verbreitete sich das WWW u¨ ber den ganzen Globus und hielt Einzug in B¨uros und Privathaushalte.

84

2 Geschichtlicher R¨uckblick

Abb. 2.24 WorldWideWeb – der erste Web-Browser f¨ur das WWW Tabelle 2.6 Das WWW – wie alles begann Erster WWW-Server der Welt: nxoc01.cern.ch Erste WWW-Seite der Welt: http://nxoc01.cern.ch/hypertext/WWW/TheProject.html

In Anlehnung an das Internet und seine regulativen Institutionen sah Tim BernersLee die Notwendigkeit, auch die Entwicklung und das Wachstum des WWW durch eine unabh¨angige Instanz regeln zu lassen. Standards sollten ebenfalls nur von einem unabh¨angigen Gremium und nicht durch die Industrie alleine definiert werden, um die Entstehung von Monopolen zu verhindern. So begann Lee zusammen mit Michael Dertouzos, dem Leiter des Laboratory of Computer Science am MIT, Mittel f¨ur die Einrichtung eines World Wide Web Consortiums (W3C) einzuwerben. 1994 konnte das W3C dann ins Leben gerufen werden mit Unterst¨utzung des MIT, des Institute National de Recherche en Informatique et en Automatique (INRIA) in Europa, der DARPA und der Europ¨aischen Kommission mit dem Ziel, die weitere Entwicklung der WWW-Protokolle zu u¨ berwachen und die Interoperabilit¨at des WWW zu f¨ordern. E-Commerce wurde dann ab 1995 zum Begriff: Wirtschaft und Handel entdecken das WWW und seine M¨oglichkeiten. Erste Internet-Shopping-Systeme wurden eingerichtet und Firmen wie Amazon.com oder Google.com entstanden aus dem Nichts und wurden u¨ ber Nacht zu B¨orsenriesen. Die Registrierung von Internetadressen und Namen wurde zu einem kostenpflichtigen Service und die großen Firmen ließen sich die rechtliche Absicherung ihrer Namen im WWW oft eine Menge Geld kosten. Ein regelrechter Hype entstand und riss die gesamte Wirtschaft mit sich. In den Medien wurde unter dem Begriff der New Economy“ euphorisch ” ein neues Internet-basiertes Wirtschaftsmodell gefeiert. Das amerikanische Silicon Valley wurde zur Brutst¨atte der dot-coms, so bezeichnet nach dem Adress-Suffix

2.9 Die untrennbare Geschichte von InternetundWWW

85

.com ihrer WWW-Adressen, die meist mit einer simplen Gesch¨aftsidee eines Webbasierten Dienstes und der Hilfe von Venture-Kapital und Investoren meist in nur wenigen Monaten aufgebaut wurden, bevor sie – im Erfolgsfall mit astronomischen Gewinn – von einem gr¨oßeren Konkurrenten aufgekauft wurden. Der reale Gewinn allerdings, den diese Firmen projektierten, blieb in den meisten F¨allen aus. Auch der Konsument blieb, was das Online-Shopping angeht, zaghaft, zumindest solange noch keine einheitlichen und sicheren Transaktionsmechanismen zur Verf¨ugung standen. In der Jahresmitte 2000 brach dieser Markt dann schlagartig zusammen – die so genannte Dotcom-Blase“ platzte. Dem alten B¨orsengesetz folgend kam ” nach dem u¨ berschw¨anglichen Hype erst einmal eine lange Talfahrt, bevor der Markt langsam wieder zur¨uck zu einer realen Bewertung fand.

200.000.000 180.000.000 160.000.000 140.000.000 120.000.000 100.000.000 80.000.000 60.000.000 40.000.000 20.000.000 0 08 20 07 20 06 20 05 20 04 20 03 20 02 20 01 20 00 20 99 19 98 19 97 19 96 19 95 19 94 19 93 19 92 19

Abb. 2.25 Wachstum des World Wide Web

2.9.4 Web 2.0 und Semantic Web – Die Zukunft des WWW Die zweite Dekade des WWW neigt sich ihrem Ende entgegen, doch ist ein Ende der Entwicklung des WWW noch nicht abzusehen. Zum Einen entwickelt sich das WWW zusehends weiter mit den M¨oglichkeiten der neuen Zugriffsger¨ate. Schon gegen Ende der 90er Jahre versuchten erste Initiativen das WWW auch auf mobile Endger¨ate und Mobiltelefonen verf¨ugbar zu machen. Allerdings konnte sich diese Variante des WWW-Datenverkehrs zun¨achst nur langsam durchsetzen, was auch auf die mangelnde Qualit¨at der jeweiligen mobilen Benutzerschnittstelle zur¨uckzuf¨uhren war. Mobile Endger¨ate bieten per se nur ein relativ kleines Display, auf

86

2 Geschichtlicher R¨uckblick

1.000.000.000 100.000.000 10.000.000 1.000.000 100.000 10.000 1.000 100 10 1

08 20 7 0 20 6 0 20 5 0 20 4 0 20 3 0 20 2 0 20 1 0 20 0 0 20 9 9 19 8 9 19 7 9 19 6 9 19 5 9 19 4 9 19 3 9 19 92 19 1 9 19 0 9 19 9 8 19 8 8 19 7 8 19 6 8 19 5 8 19 4 8 19 83 19 2 8 19 1 8 19 9 7 19 77 19 4 7 19 3 7 19 2 7 19 1 7 19 0 7 19 9 6 19

Abb. 2.26 Anzahl der an das Internet angeschlossenen Hosts

dem WWW-Inhalte dargestellt werden k¨onnen. Andererseits setzten schmale Bandbreiten und unausgereifte Display-Technik dem mobilen WWW-Datenverkehr enge Grenzen. Fortschreitende Miniaturisierung und schnelle Mobilfunknetze der 3. Generation erm¨oglichen heute jedoch ein ann¨ahernd gleichwertiges Arbeiten auch im mobilen Bereich. Zudem erm¨oglichen Satellitenortungssysteme (Global Positioning System, GPS) die geografische Erfassung des jeweiligen Browserstandortes und damit das Angebot spezieller, standortabh¨angiger Dienste, wie z.B. Auskunfts- und Navigationssysteme. Seit seiner Geburtsstunde im Jahre 1990 hat sich das WWW auch inhaltlich sehr ver¨andert. Zun¨achst nur ein u¨ ber Hyperlink vernetztes Dokumentenmanagementsystem, das lediglich einer kleinen Zahl von Nutzern zur Verf¨ugung stand, sollte es sich in den folgenden Jahren zum gr¨oßten verteilten Informationssystem aller Zeiten entwickeln. Mit dem Aufkommen des E-Commerce verschob sich der Fokus des WWW weg von dem pers¨onlichen Kommunikations- und Publikationsmedium f¨ur Spezialisten, hin zu einem Medium der Massenkommunikation: Informationsproduktion und Informationskonsumption bleiben strikt getrennt. Lediglich der Spezialist war in der Lage, eigene Inhalte im WWW online zustellen. Die breite Masse konsumierte das Informationsangebot der gleich einem traditionellen BroadcastMedium agierenden kommerziellen Informationsanbieter. Die Interaktion der Nutzer beschr¨ankte sich lediglich auf das Lesen von Webseiten, das Online-Bestellen von Waren und Konsumg¨utern, sowie das Anklicken von Werbebannern. Doch das WWW ver¨anderte sich weiter. Neue Technologien wurden entwickelt, die es auch dem Laien erm¨oglichen, Informationsinhalte auf einfache Art und Weise selbst zu publizieren. Weblogs, Chatrooms, Tauschb¨orsen, Tagging Systeme und Wikis eroberten das WWW und er¨offnen dem Anwender auf breiter Basis den Weg zu echter

2.9 Die untrennbare Geschichte von InternetundWWW

87

Interaktion und Partizipation in der digitalen Welt. Als der Medienunternehmer und Netzpionier Tim O’Reilly im Oktober 2004 diese Ver¨anderung des WWW einem reinen Fachpublikum unter dem Namen Web 2.0 vorstellte, war noch nicht abzusehen, dass diese Renaissance des WWW“ derart um sich greifen w¨urde. Das In” ternet hatte sich von einem reinen Broadcast-Medium zu einem echten interaktiven Marktplatz gewandelt, der Nutzer ist Informationskonsument und Informationsproduzent zugleich. Diese neue Interaktivit¨at erm¨oglicht direkt und indirekt auch die Entstehung neuer sozialer Netzwerke. Neben dieser evolution¨aren Entwicklung des WWW wuchs die angebotene Informationsf¨ulle weiter u¨ ber alle Maßen. Um sich in diesem Informationsuniversum zurecht zu finden wurden Suchmaschinen, wie z.B. Google entwickelt, die den Nutzer auf seinem Weg durch das WWW leiten. Google verwaltet zu diesem Zweck einen gigantischen Index, der auf die Eingabe eines Suchbegriffes hin einen sekundenschnellen umf¨anglichen Zugriff auf die relevanten Webdokumente bietet. Das funktioniert aufgrund der schieren Gr¨oße des WWW nur mit Hilfe automatischer Verfahren zur Indexerstellung, die mit statistischen Methoden alle Begriffe innerhalb eines Webdokuments auswerten, indizieren und die jeweiligen Dokumente so bzgl. eines bestimmten Schlagworts in eine Rangreihenfolge bringen. Doch bereits die Menge an zur¨uckgelieferten Suchergebnissen ist f¨ur den Anwender nicht mehr nachvollziehbar. So liefert etwa eine Anfrage nach dem Suchbegriff Web 2.0“ mehr als 74 ” Millionen Ergebnisse (Stand 10/2008). Allerdings finden sich in den Ergebnislisten nur Dokumente, die diesen Begriff auch wortw¨ortlich enthalten. Umschreibungen und Synonyme k¨onnen auf diese Weise nicht gefunden werden. Ebenso muss ein Dokument, das den gesuchten Begriff enth¨alt, nicht notwendigerweise auch thematisch diesen Begriff in den Mittelpunkt stellen. Vollst¨andigkeit und Genauigkeit der Suchergebnisse k¨onnen daher alleine aufgrund der problematischen Interpretation der nat¨urlicher Sprache nie auch nur ann¨ahernd erreicht werden. Dazu w¨are eine systematische Erg¨anzung der Webdokumente mit entsprechend aussagekr¨aftigen zus¨atzlichen Daten (sogenannten Metadaten) notwendig. Ein derart mit Metadaten erg¨anztes Webdokument m¨usste zusammen mit jedem f¨ur dieses Dokument relevanten Begriff einen Verweis auf ein diesen Begriff beschreibendes Konzept enthalten. Diese konzeptuellen Beschreibungen – so genannte Ontologien – k¨onnten in einer maschinenlesbaren, standardisierten Form hinterlegt werden und von einer Suchmaschine zus¨atzlich ausgewertet werden, um die Trefferquote der pr¨asentierten Suchergebnisse zu erh¨ohen. Das f¨ur die Standardisierung des WWW zust¨andige WWW-Consortium (W3C) hat bereits die dazu notwendigen Grundlagen in Form von Ontologiebeschreibungssprachen, wie z.B. RDF, RDFS oder OWL geschaffen. Semantisch annotierte Webseiten erm¨oglichen es autonom agierenden Agenten, zielgerichtet Informationen zu sammeln, um darauf aufbauend selbstst¨andig Entscheidungen im Sinne ihres Auftraggebers zu treffen und Transaktionen u¨ ber das WWW zu initiieren. Dieses semantische Netzwerk (Semantic Web) stellt die n¨achste Evolutionsstufe des WWW dar und soll schon in naher Zukunft Realit¨at werden.

88

2 Geschichtlicher R¨uckblick

2.10 Glossar Alphabet: Geordnete Folge von Buchstaben (Lautzeichen) einer Sprache, leitet sich ab von [lat.]alphabetum, [griech.]alphabetos, zu Alpha (α ) und Beta (β ), den beiden ersten Buchstaben des griechischen Alphabets. Etwa ab dem 3. Jhd. v. Chr. dient die Bezeichnung als zusammenfassender Name aller griechischen Buchstaben. Erstmals wurde das Wort alphabetum“ vom in lateinischer Sprache schreibenden fr¨ uhen christlichen Dichter ” Tertullian (ca. 160–220 n. Chr.) verwendet. Die deutsche Schrift basiert auf dem lateinischen Alphabet, das sich aus einer Linie des ph¨ onizischen Alphabets entwickelt hat. Das deutsche Alphabet besteht aus je 26 Großbuchstaben (Majuskeln) und Kleinbuchstaben (Minuskeln) sowie Buchstabenkombinationen mit Umlauten und Akzentzeichen. analog: (ana logum=[griech.] im richtigen Verh¨ altnis), Bezeichnung f¨ ur Technologien/Verfahren, in denen kontinuierlich stetige, d.h. stufenlose physikalische Gr¨ oßen verwendet werden. ARPANET (Advanced Research Projects Agency Net): Erstes paketvermittelndes Datennetz und Vorl¨ aufer des Internet, ins Leben gerufen von der DARPA, einer Forschungsinitiative des amerikanischen Verteidigungsministeriums. Der erste Netzknoten (Interface Message Processor, IMP) war am 30. August 1969 einsatzbereit und das ARPANET wurde nahm Dezember 1969 mit 4 IMPs in Stanford, Santa Barbara, Los Angeles und Utah den Betrieb auf. Es umfasste in seiner Bl¨ utezeit mehrere Satellitenverbindungen, darunter von der West- zur Ostk¨ uste der USA, nach Hawaii, Großbritannien, Norwegen, Korea und Deutschland. Das ARPANET stellte seinen Betrieb im Juli 1990 ein. Blockbuch: Werden mehrere Einzelblattdrucke zu einem kleinen Buch gebunden, entsteht ein so genanntes Blockbuch, wobei die Texte und Bilder der Einzelblattdrucke in Holz geschnitten werden (Holzschnitt). digital: (digitus=[lat.] Finger), Bezeichnung f¨ ur Technologien/Verfahren, die nur diskrete unstetige, d.h. stufenf¨ ormige arithmetische Gr¨ oßen verwenden. Grundlage der Digitaltechnik ist das bin¨ are Zahlensystem, das lediglich die zwei Zust¨ ande wahr“ und un” ” wahr“ bzw. die Zahlenwerte 1“ und 0“ beinhaltet. Diese bin¨ aren Zahlenwerte werden ” ” als Bit (Binary Digit) bezeichnet und stellen die kleinstm¨ ogliche Informationseinheit dar. Flugblatt: Als Flugbl¨ atter werden politisch oder kommerziell motivierte, ereignisbezogene Einblattdrucke bezeichnet. Urspr¨ unglich dienten Flugbl¨ atter weniger der politischen Agitation, sondern waren eine Handelsware, angeboten von Marktschreiern und fahrenden H¨ andlern mit meist anonymem Verfasser. Das Flugblatt gilt als das erste Massenkommunikationsmittel. Flugschrift: Flugschriften gelten als Vorl¨ aufer unserer heutigen Tageszeitung. Sie erschienen aber nur unperiodisch und umfassten im Gegensatz zum Flugblatt meist mehrere, beidseitig bedruckte Seiten. Grammatik: Beschreibung der Struktur und der Regeln einer Sprache als Teil der Sprachwissenschaft (morphologische und syntaktische Regularit¨ aten einer nat¨ urlichen Sprache). Im Vergleich zur Sprach- und Schriftentwicklung bildete sich das feste Regelsystem der Grammatik zur Festlegung des Sprachgebrauchs erst sp¨ at in geschichtlicher Zeit (ab dem 5. Jahrhundert v. Chr.) heraus. Die Philologie sieht in der Grammatik ein Hilfsmittel der Sprachanalyse zur Erfassung der historischen Entwicklung der Sprache. ¨ Hochdruck: Altestes Verfahren der Drucktechnik, bei dem die Druckfarbe auf die erhabenen Teile des Druckstockes aufgebracht und direkt auf den zu bedruckenden Stoff abgerieben wird. Im spiegelverkehrten Bild auf dem Druckstock m¨ ussen zuvor die nichtdruckenden Teile mit Messern vertieft werden. Holzschnitt: Variante des Hochdrucks auf Papier. Nach Anbringen einer Vorzeichnung auf dem Holzstock werden die nichtdruckenden Teile eingetieft, die u ¨brig gebliebenen Stege werden eingef¨ arbt und auf einen befeuchteten Papierbogen gedruckt, der u ¨ber

2.10 Glossar

89

den eingef¨ arbten Holzstock gelegt und mit einem Stoffballen abgerieben wird. Da die Druckfarbe meist durch das Papier durchschlug, wurde oft nur einseitig gedruckt. Eine Holzschnitt-Druckvorlage konnte mehrere hundert Male verwendet werden. Homonym: W¨ orter, die die gleiche Lautung besitzen, aber unterschiedliche Dinge bezeichnen bzw. unterschiedlichen Sinn haben, z.B. sieben“ (Zahlwort und Verb). ” Ideogramm: Bildzeichen oder Kombinationen von Bildzeichen, die zur Kennzeichnung von nichtgegenst¨ andlichen Begriffen verwendet werden, wie z.B. T¨ atigkeiten, abstrakte Begriffe oder Gef¨ uhle. Die Bedeutung von Ideogramme erschließt sich nicht von selbst, sondern muss erst entsprechend des durch den jeweiligen Kulturkreis festgelegten formalen Systems erlernt werden. Illuminieren: K¨ unstlerische Hervorhebung und bildliche Ausschm¨ uckung von Initialen (Satz- und Kapitelanf¨ angen) und Hinzuf¨ ugen von weiteren schm¨ uckenden Beiwerk (meist Ranken) zu einer Handschrift oder einem fr¨ uhen Druckwerk. Je nach Bedeutung eines Abschnitts wurde f¨ ur die Ausgestaltung der Initialen zwischen zwei und zehn Zeilen freigehalten. Imprimatur: ([lat.]=es darf gedruckt werden) Kirchliche Erlaubnis zum Druck eines Werkes. P¨ apstliche Bullen durch Papst Innozenz VIII. (1432–1492) und Papst Alexander VI. (1430–1503) institutionalisierten eine erste Druckzensur. Ohne die entsprechende kirchliche Erlaubnis durfte ein Buch nicht erscheinen. Inkunabeln: Fr¨ uhe Druckerzeugnisse ( Wiegendrucke“), die in der Zeit zwischen 1450 ” und 1500 entstanden sind. Der Name leitet sich von incunabula“, dem lateinischen ” Wort f¨ ur Windel“ ab. Das ber¨ uhmteste zu den Inkunabeln z¨ ahlende Werk ist die von ” Gutenberg gedruckte 42-zeilige Prachtbibel, von deren urspr¨ unglich 185 Exemplaren heute noch 48 – manche davon nur in Teilen – erhalten sind. Internet: Das Internet ist das weltweit gr¨ oßte Computernetzwerk, das aus vielen miteinander verbundenen Netzwerken und auch einzelnen Ressourcen besteht. Zu den wichtigsten Leistungen des Internets – man spricht auch von Diensten“– z¨ ahlen die elektronische ” Post (E-Mail), Hypermediadokumente (WWW), Dateitransfer (FTP) und Diskussionsforen (Usenet/Newsgroups). Popul¨ ar geworden ist das globale Netz haupts¨ achlich durch Einf¨ uhrung des World Wide Webs (WWW), das nicht selten mit dem Internet gleichgesetzt wird, tats¨ achlich aber nur eine Untermenge – also einen von mehreren Diensten – des Internets darstellt. Kolophon: ([griech.]=Zielpunkt, Endpunkt) Angaben u ¨ber Drucker, Ort und Zeitpunkt am Ende einer Druckschrift bzw. Angaben zum Schreiber einer Handschrift. Kommunikation: Unter Kommunikation versteht man den Prozess ein- oder wechselsei¨ tiger Abgabe, Ubermittlung und Aufnahme von Informationen durch Menschen oder technische Systeme. Onomatopoetika: W¨ orter, die einen Begriff auf lautmalerische Weise oder klangnachahmend beschreiben, z.B. grunzen“. ” Medium: Auspr¨ agung eines Transportkanals zur Nachrichten¨ ubermittlung zwischen Sender und Empf¨ anger. Netzhauttr¨ agheit: Ein Bild der Gesichtswahrnehmung bleibt auf der Retina des menschlichen Auges f¨ ur ca. 1/16 Sekunde erhalten, bevor es wieder verlischt. Bereits im Altertum von Ptolem¨ aus von Alexandria (85–165 n. Chr.) beschrieben, bildet die Netzhauttr¨ agheit die Grundlage f¨ ur die Entwicklung von Film und Fernsehen. Werden Einzelbilder schnell genug hintereinander folgend dargestellt, so entsteht bei einer Abfolge ab 15 Bilder pro Sekunde der Eindruck einer kontinuierlichen Bewegung. Pergament: Pergament ist ein Beschreibstoff tierischen Ursprungs, der bereits im Altertum entwickelt wurde. Zu seiner Herstellung dienten in Kalklauge eingelegte Tierh¨ aute, die durch Abschaben von Fleisch und Haaren gereinigt und anschließend in Rahmen aufgespannt getrocknet wurden.

90

2 Geschichtlicher R¨uckblick

Petroglyphen: In Stein geritzte bzw. auf Stein gemalte Zeichnungen vorgeschichtlicher, nomadischer J¨ ager. Photoeffekt: Unter dem Photoeffekt (auch photoelektrischen Effekt, Hallwachs-Effekt oder lichtelektrischer Effekt) versteht man das Freisetzen von Elektronen aus einer Metalloberfl¨ ache, die von elektromagnetischer Strahlung, also insbesondere von Licht getroffen wird. Der Photoeffekt ist die Grundlage von lichtempfindlichen Sensoren, wie z.B. CCD-Sensoren in der Digitalfotografie. Piktogramm: Bildzeichen, die zur Bezeichnung von Gegenst¨ anden, Personen oder Tieren verwendet werden, z.B. als Hinweis- oder Verkehrszeichen. Piktogramme gelten als fr¨ uhe Stufe in der Schriftentwicklung. Pulse Code Modulation (PCM): Methode der Analog-Digital Umwandlung, die auf der Abtastung eines analogen Signals mit anschließender Diskretisierung der gewonnenen Abtastwerte beruht. Die Abtastung (Sampling) zerlegt den kontinuierlichen, zeitlichen Verlauf eines Signals in diskrete Einzelzeitpunkte und erfasst die gerade vorliegenden Momentan-Werte eines Analogsignals zu jeweils diskreten Zeitpunkten (AbtastZeitpunkt). Diese exakten Abtastwerte werden zur anschließenden bin¨ aren Kodierung innerhalb vordefinierter Quantisierungsintervalle gerundet. Semantic Web: Als Semantic Web wird eine Erweiterung des bestehenden World Wide Web bezeichnet. Dabei erh¨ alt jede im Semantic Web repr¨ asentierte Information eine wohldefinierte und maschinenlesbare Bedeutung zugeteilt, die es autonom agierenden Programmen erm¨ oglichen soll, den Inhalt der Informationen zu interpretieren und darauf aufbauend Entscheidungen treffen zu k¨ onnen. Das Konzept des Semantic Web beruht auf einem Vorschlag des WWW-Begr¨ unders Tim Berners-Lee. Semantik: Als Semantik wird ein Teilgebiet der Sprachwissenschaft (Linguistik), die Bedeutungslehre bezeichnet. Sie besch¨ aftigt sich mit dem Sinn und der Bedeutung von Sprache und sprachlichen Zeichen. Im Mittelpunkt steht dabei die Frage, wie sich Sinn und Bedeutung komplexer Begriffe aus denen von einfacheren Begriffen abgeleitet werden k¨ onnen. Die Semantik st¨ utzt sich dabei auf die Regeln der Syntax. Sprache: Als Sprachen werden in der Sprachwissenschaft die lautbasierten Kommunikationsformen des Menschen bezeichnet. Dabei handelt es sich nicht um eine im Instinkt ¨ wurzelnde Methode zur Ubermittlung von Gedanken, Gef¨ uhlen und W¨ unschen mittels eines Systems von frei geschaffenen Symbolen. Synonym: W¨ orter, die eine unterschiedliche Lautung besitzen, aber denselben Gegenstand bezeichnen bzw. denselben Sinn haben, z.B. Raumpflegerin“ und Putzfrau“. ” ” Web 2.0: Als Web 2.0 wird eine scheinbar“ neue Generation Web-basierter Dienste be” zeichnet, die in besonderem Maße durch eine einfache M¨ oglichkeit der Partizipation und Interaktion im WWW auch f¨ ur den Nicht-Fachmann gekennzeichnet ist. Typische Beispiele f¨ ur diese Dienste sind Wikis, Weblogs, Bild- und Videoportale oder Tauschb¨ orsen. World Wide Web: Englische Bezeichnung f¨ ur das weltweite Datennetz“ (auch WWW, ” 3W, W3, Web). Gemeint ist der j¨ ungste und zugleich erfolgreichste Dienst im Internet, der sich durch hohe Benutzerfreundlichkeit sowie multimediale Elemente auszeichnet. WWW bezeichnet eigentlich eine Technologie, die in der Lage ist, ein verteiltes, Internetbasiertes Hypermedia-Dokumentenmodell zu implementieren. Internet und World Wide Web (WWW) werden heute oft synonym verwendet, obwohl es sich beim WWW nur um einen speziellen Dienst im Internet handelt, der mit dem HTTP-Protokoll u ¨bertragen wird. WWW-Server: Prozess auf einem Computer mit der Funktionalit¨ at, auf Anfragen von Browsern u ¨ber das WWW zu antworten. Aus technischer Sicht kann auf jedem Computer, der an das Internet angeschlossen ist, ein WWW-Server betrieben werden.

2.10 Glossar

91

Zeichen: Bezeichnung f¨ ur etwas“, das f¨ ur etwas anderes ( Bezeichnetes“) steht. Die ” ” Beziehung zwischen Zeichen und bezeichnetem Objekt ist stets eine direkte. Die Beziehung der Zeichen untereinander, wie sie miteinander zu neuen Begriffen kombiniert werden k¨ onnen wird durch die Syntax festgelegt.

Kapitel 3

Grundlagen der Kommunikation in Rechnernetzen

Wenn alle Menschen nur dann redeten, wenn sie ” etwas zu sagen haben, w¨ urden die Menschen sehr bald den Gebrauch der Sprache verlieren.“ – William Shakespeare, (1564 – 1616)

¨ Digitale Kommunikation, also die Ubermittlung digitaler Nachrichten und G¨ uter braucht Rechnernetze. Doch wie gelangen Informationen in Form von digitalen Daten von einem Rechner zum anderen? Wieso kann eine E-Mail ¨ uberhaupt korrekt zugestellt werden? Wie kann unter der Vielzahl der Kommunikationsteilnehmer im weltumspannenden Internet der Richtige herausgefunden werden – und das millionenfach? Das folgende Kapitel stellt die Grundlagen der Rechnerkommunikation vor und hilft, diese technischen Vorg¨ ange in einem Rechnernetz wie dem Internet und das Zusammenspiel seiner vielf¨ altigen Komponenten zu verstehen. Mit Hilfe eines sogenannten Schichtenmodells werden die zahlreichen Teilprobleme, die zur erfolgreichen und effizienten Daten¨ ubertragung in einem Rechnernetz zu l¨ osen sind, geb¨ undelt hierarchisch angeordnet und die jeweiligen Teill¨ osungen zu einem funktionsf¨ ahigen Ganzen zusammengef¨ ugt. Das Prinzip der Paketvermittlung bietet dabei einen erfolgreichen Ansatz zur L¨ osung des Problems der Kommunikation: Die effiziente und sichere Kommunikation vieler Kommunikationsteilnehmer ¨ uber ein fehleranf¨ alliges, gleichzeitig gemein¨ sam genutztes Ubertragungsmedium. Sicher wird diese Kommunikation durch den Einsatz von Fehlererkennungs- und Fehlerkorrekturverfahren, die eine zuverl¨ assige Kommunikation ¨ uberhaupt erst erm¨ oglichen.

3.1 Grundbegriffe und -konzepte 3.1.1 Kommunikation und Datenubertragung ¨ Kommunikation (communicare = [lat.] teilen, mitteilen, teilnehmen lassen) ist der ¨ Austausch, die Bereitstellung, Ubermittlung und Aufnahme von Nachrichten – im Falle der digitalen Kommunikation von digitalen Daten – zwischen zwei oder meh-

C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 3,

93

94

3 Grundlagen der Kommunikation in Rechnernetzen

reren Kommunikationspartnern. Basiskomponenten jeglicher Form von Kommunikation, sei es Alltagskonversation oder digitaler Datenaustausch zwischen Computern, bilden die zu u¨ bertragenden Nachrichten selbst, deren Sender und Empf¨anger, sowie das Medium, u¨ ber das die Nachrichten u¨ bertragen werden, das sogenannte Kommunikationsmedium (siehe auch Kap. 1.2 Digitale Kommunikation und ih” re Grundlagen“). Schallwellen sind z.B. das Kommunikationsmedium f¨ur unsere allt¨agliche Konversation, u¨ ber das die sprachlichen Nachrichten mit Hilfe akustischer Signale ausgetauscht werden. M¨oglich sind aber auch andere Medien, wie z.B. Radiowellen oder elektrische Signale. Damit Kommunikation stattfinden kann, m¨ussen folgende Bedingungen erf¨ullt sein: 1. Die Nachricht muss in einem zur Kommunikation tauglichen Zeichensystem dargestellt werden (z.B. Laute, Schrift, bin¨are Kodierung, etc.), 2. die Zeichen m¨ussen in physikalische Signale (z.B. Schallwellen, elektrische Impulse, Radiowellen, etc.) transformiert werden, und 3. der Empf¨anger muss die empfangenen Signale deuten und durch Interpretation die vermittelte Bedeutung der Nachricht erschließen k¨onnen. Außerdem sollte es m¨oglich sein, eventuelle Fehler, die w¨ahrend der Nachrichten¨ubertragung auftreten k¨onnen, zu erkennen und gegebenenfalls sogar zu korrigieren. Handelt es sich bei den beteiligten Kommunikationspartnern um Computer, so ¨ spricht man von einer Datenubertragung. Unter einer Daten¨ubertragung versteht man den Austausch von Informationseinheiten (Daten), zwischen zwei oder mehreren, r¨aumlich voneinander getrennten Rechnern, die die Nachricht ausmachen. ¨ Die Kommunikation l¨auft dabei u¨ ber geeignete Ubertragungsmedien – sogenannte Datenverbindungen ab. Die miteinander verbundenen Rechner bilden ein Rechner¨ ¨ netz, oder kurz ein Netz, das System der Ubertragungsleitungen bildet das Ubertragungsnetz oder Netzwerk. Die beteiligten Rechner m¨ussen bei einer Daten¨ubertragung bis ins kleinste Detail festgelegten Vorschriften folgen – den sogenannten Kommunikationsprotokollen – um die Daten so senden bzw. empfangen zu k¨onnen, dass der jeweils andere Rechner die Daten korrekt auffassen und weiterverarbeiten kann. In der DIN 44302 wird das Prinzip der Daten¨ubertragungssysteme definiert [64]: Je¨ des Datenubertragungssystem wird von (mindestens) zwei Datenstationen (Rech¨ nern) gebildet, die durch einen Ubertragungsweg, allgemeiner eine Kommunikati¨ onseinrichtung, miteinander verbunden sind. Jeder an ein Ubertragungsnetz ange¨ schlossener Rechner ben¨otigt zwei Komponenten: die Datenubertragungseinrichtung (Data Circuit Transmission Equipment, DCE), die direkt an die (meist o¨ ffentli¨ che) Ubertragungsstrecke angebunden ist, und die mit der als Datenendeinrichtung (Data Terminal Equipment, DTE) bezeichneten Recheneinheit kommuniziert. Dabei verwandelt die DCE die zu u¨ bertragenden Daten zum Senden in elektrische Signale bzw. die empfangenen elektrischen Signale wieder in (meist bin¨ar kodierte) Daten zur¨uck (siehe Abb. 3.1). Zwischen DTE und DCE existiert eine standardisierte Schnittstelle (Interface), deren allgemeine Funktion in DIN 66020 und DIN 66021 festgelegt wird [65, 66].

3.1 Grundbegriffe und -konzepte

95

Die Schnittstelle sorgt daf¨ur, dass auch Ger¨ate verschiedener Hersteller miteinan¨ der kommunizieren k¨onnen. Die Ubertragung betreffende Aufgaben von DTE und ¨ DCE ergeben sich aus dem jeweils verwendeten Ubertragungsverfahren. Unter ei¨ nem Ubertragungsweg versteht man die Verbindung von zwei Datenstationen u¨ ber einen Kanal, auf dem kodierte Informationen als elektrische oder optische Signale oder durch elektromagnetische Wellen u¨ bermittelt werden.

Rechner 1

DTE

DCE Übertragungsstrecke

Schnittstelle (Interface)

Schnittstelle (Interface)

Rechner 2

DTE

DCE

Abb. 3.1 Modell der Daten¨ubertragung nach DIN 44302

Die Aufgabe der Datenendeinrichtung (DTE) besteht im Senden (Datenquelle = Ursprung der Daten) und Empfangen (Datensenke = Bestimmungsort der Daten) von Daten. Eine DTE enth¨alt eine oder mehrere der nachfolgenden Komponenten: • • • • •

Eingabewerk (Input Processing Unit), Ausgabewerk (Output Processing Unit), Rechenwerk (Arithmetic Logical Unit, ALU), Steuerwerk (Control Unit) und Speicher (Memory).

¨ Die Datenubertragungseinrichtung (DCE) ist im Rechensystem f¨ur die folgenden Aufgaben zust¨andig: ¨ • Transformation der zu sendenden Daten in f¨ur das Ubertragungsmedium geeignete Signale und der empfangenen Signale in f¨ur die DTE verst¨andliche Daten (Signalumsetzung), • Auf- und Abbau von Datenverbindungen, • Erzeugung und Aufrechterhaltung eines konstanten Sende- und Empfangtaktes zwischen den beteiligten DCEs und ¨ • Erkennen und Beheben von Ubertragungsfehlern. Beispiele f¨ur Daten¨ubertragungseinrichtungen sind etwa ein Modem zum Anschluss an das Telefonnetz oder ein Transceiver zum Anschluss an ein Ethernet-Netzwerk. DCEs sind damit Bestandteil des eigentlichen Kommunikationssubsystems.

96

3 Grundlagen der Kommunikation in Rechnernetzen

¨ Sind in einem Ubertragungsnetzwerk die DCEs unmittelbar durch Leitungen miteinander verbunden, ohne dass zus¨atzliche Komponenten dazwischengeschaltet sind, die z.B. Entscheidungen u¨ ber den weiteren Weg der Daten treffen oder diese anderweitig ver¨andern, so spricht man von einer direkten Verbindung, anderenfalls von einer indirekten Verbindung. Zum Zweck der Daten¨ubertragung k¨onnen Rechner in einer Vielzahl von Anordnungen miteinander verbunden werden. Dabei k¨onnen die unterschiedlichen Netze nach ihrer r¨aumlichen Ausdehnung und nach ihrer Topologie, d.h. der Form der Verteilung und Verbindung der einzelnen Rechnerknoten klassifiziert werden. Die einfachste und a¨ lteste Art der Vernetzung ist die Punk-zu-Punkt Verbindung zwischen zwei Rechnern. Teilen sich dagegen mehrere Rechner ein gemeinsames ¨ Ubertragungsnetz, sind die Rechner also lediglich indirekt miteinander verbunden, so spricht man – in Abh¨angigkeit von der dabei u¨ berbr¨uckten Distanz – von einem lokalen Netzwerk (Local Area Network, LAN) bzw. einem Weitverkehrsnetzwerk (Wide Area Network, WAN). An das Netzwerk angeschlossene Endger¨ate und Rechner werden allgemein auch als Hosts bezeichnet. Wird das Netzwerk aus topologischer Sicht betrachtet, so bilden die daran angeschlossenen Rechensysteme die Netzknoten. Werden verschiedene Netze miteinander verbunden, entsteht ein Netzwerkverbund bzw. ein Internet. Zwei Rechner, die in diesem Internet die Endpunkte einer gerade stattfindenden Kommunikation sind, werden als Endsysteme bezeichnet, w¨ahrend alle Rechner entlang des Verbindungsweges zwischen diesen beiden Endsystemen als Zwischensysteme bezeichnet werden. Sind diese Zwischensysteme in mehrere Kommunikationsverbindungen eingebunden und mit verschiedenen anderen Zwischensystemen des Internets direkt verbunden, so m¨ussen sie bei der Weiterleitung jeder Nachricht entscheiden, u¨ ber welche Kommunikationsverbindung sie die Nachricht verschicken. Dieser Entscheidungsprozess wird Routing genannt, die Zwischensysteme, die diese Entscheidung treffen, heißen Vermittlungsstelle, Vermittlungsrechner oder Router. Die wichtigsten Grundbegriffe der Netzwerktechnik sind in Abb. 3.2 kurz zusammengestellt. Zwischen den Endsystemen eines Computernetzwerks k¨onnen verschiedene Beziehungs- bzw. Verkehrsarten unterschieden werden. Je nachdem, ob Nachrichten an einen, an mehrere oder an alle Endsysteme des Netzwerkes verschickt werden sollen, spricht man von Unicast, Multicast oder Broadcast (siehe Abb. 3.3). UnicastDatenverkehr stellt dabei die nat¨urliche Form der Kommunikation in Computernetzwerken zwischen zwei Endsystemen dar. Multicast-Datenverkehr wird z.B. zur Auslieferung von Multimediadatenstr¨omen an mehrere gleichzeitig adressierte Endsysteme eingesetzt, um dadurch die Netzwerkbelastung zu reduzieren. Auch die zur Steuerung der Netzwerkkommunikation unter den Zwischensysteme auszutauschenden Nachrichten werden als Multicast versendet. Broadcast-Datenverkehr schließlich kommt in Computernetzwerken nur selten zum Einsatz, da dies eine erhebliche Belastung der verf¨ugbaren Ressourcen nach sich zieht. Die Betriebsart der Nachrichten¨ubertragung gibt an, in welcher Richtung Nachrichten zwischen zwei Endsystemen ausgetauscht werden k¨onnen. Man unterscheidet Simplex-Betrieb, bei dem Nachrichten unidirektional, d.h. in einer Richtung

3.1 Grundbegriffe und -konzepte

97

Internet Endsystem Rechner A Verbindung

Netzwerk 3

Netzwerk 1 Zwischensystem Vermittlungsstelle

Endsystem Rechner B Netzwerk 2

Abb. 3.2 Wichtige Grundbegriffe im Netzwerk Verkehrsarten Die Verkehrsart gibt an, an wieviele der an das Netzwerk bzw. an den Netzwerkverbund angeschlossenen Empf¨ anger ein Sender seine Nachricht schickt. Grunds¨ atzlich unterscheidet man:

• Unicast: Ein Sender sendet eine Nachricht an einen einzelnen Empf¨ anger (Punkt-zu-Punkt ¨ ¨ Ubertragung). Beispiel f¨ ur eine Unicast Ubertragung ist ein Telefongespr¨ ach oder eine pers¨ onliche E-Mail. • Multicast: Ein Sender sendet eine Nachricht an eine Gruppe von Empf¨ angern (Punkt-zu-Gruppe ¨ ¨ Ubertragung). Beispiel f¨ ur eine Multicast Ubertragung ist eine Telefonkonferenz mit mehreren Teilnehmern oder eine E-Mail, die an einen E-Mail-Verteiler gesendet wird. • Broadcast: Ein Sender sendet eine Nachricht an alle Empf¨ anger eines Netzwerkes (Punkt-zu-alle ¨ ¨ Ubertragung). Beispiel f¨ ur eine Broadcast Ubertragung sind klassische Massenmedien, wie z.B. Zeitung, Rundfunk und Fernsehen. Abb. 3.3 Verkehrsarten in Kommunikationsnetzwerken

98

3 Grundlagen der Kommunikation in Rechnernetzen

u¨ bertragen werden, vom Duplex-Betrieb, bei dem ein bidirektionaler Nachrichtenaustausch, d.h. also ein Nachrichtenaustausch zwischen zwei Endsystemen in beide Richtungen m¨oglich ist. Beim Duplex-Betrieb unterscheidet man noch die beiden Varianten Halbduplex, bei der Nachrichten in beiden Richtungen nur sequentiell, d.h. abwechselnd nacheinander zwischen den beteiligten Endsystemen ausgetauscht werden k¨onnen, und Vollduplex, bei dem dies gleichzeitig in beiden Richtungen m¨oglich ist (siehe Abb. 3.4).

Endsystem

Zeit

Endsystem

Zeit

Simplex-Betrieb

Endsystem

Zeit

Endsystem

Zeit

Halbduplex-Betrieb

Endsystem

Endsystem

Zeit

Zeit

Vollduplex-Betrieb

Abb. 3.4 M¨ogliche Betriebsarten bei der Kommunikation im Rechnernetz

3.1.2 Klassifikationen von Kommunikationssystemen Rechner-Kommunikationssysteme lassen sich nach verschiedenen Gesichtspunkten klassifizieren. Im Hinblick auf den praktischen Einsatz von Computernetzwerken sind folgende Kriterien von Bedeutung: • • • • • •

die r¨aumliche Ausdehnung des Netzwerkes, die Art der Rechnervernetzung (direkte oder indirekte Vernetzung), die jeweilige Einsatzcharakteristik f¨ur die das Netzwerk ausgelegt ist, den Grad der Homogenit¨at der beteiligten Komponenten, die anvisierte Benutzergruppe (¨offentlicher oder nicht¨offentlicher Zugang), ¨ die Ubertragungskapazit¨ at (Bandbreite) des Netzwerkes (Schmalband vs. Breitband), ¨ • das technische Ubertragungskonzept des Netzwerks (Broadcast-Netzwerk oder Punkt-zu-Punktverbindung) und

3.1 Grundbegriffe und -konzepte

99

• der Art des Netzwerkbetreibers (privat oder o¨ ffentlich). Unterschiedliche Distanzen zwischen den zu vernetzenden Rechnern bzw. Prozessoren erfordern den Einsatz unterschiedlicher Technologien, die f¨ur die jeweils zu u¨ berbr¨uckende Distanz und f¨ur die Erf¨ullung der jeweiligen Anforderungen am geeignetsten sind. ¨ Tabelle 3.1 gibt einen Uberblick u¨ ber die M¨oglichkeiten zur Zusammenschaltung von mehreren Endsystemen, geordnet nach ihrer r¨aumlichen Distanz. An oberster Position in der Tabelle stehen Mehrprozessorsysteme, Parallelrechner und RechnerCluster, also Prozessoren, die u¨ ber sehr schnelle und kurze Systembusse miteinander verbunden sind. Die im eigentlichen Sinne als Netzwerk bezeichneten KommuTabelle 3.1 Klassifikation der Rechnernetze nach ihrer r¨aumlichen Ausdehnung Distanz Ordnungseinheit Beispiel 0,1 m Platine 1 m System 10 m Raum

Multiprozessorsystem Multiprozessor-Cluster Personal Area Network

100 m Geb¨ aude 1 km Campus

Local Area Network

10 km Stadt

Metropolitan Area Network

100 km Land 1.000 km Kontinent 10.000 km Planet

Wide Area Network Internet

nikationssysteme finden sich erst auf der nachfolgenden Stufe der Gr¨oßenordnung. Personal Area Networks (PAN) Unter einem Personal Area Network versteht man ein Netz, das u¨ blicherweise zwischen Kleinger¨aten, wie z.B. PDAs (Personal Digital Assistants) oder Mobiltelefonen und deren Peripherie ad hoc auf- und wieder abgebaut werden kann. PANs erstrecken sich lediglich u¨ ber eine r¨aumliche Ausdehnung von wenigen Metern und ¨ u¨ berbr¨ucken die Arbeitsumgebung eines Nutzers an dessen Arbeitsplatz. Als Ubertragungstechnologien kommen sowohl verschiedene drahtgebundene Techniken, ¨ wie z.B. USB (Universal Serial Bus) oder FireWire, als auch drahtlose Ubertragungstechniken, wie z.B. IrDA (Infrared Data Association) oder Bluetooth zum Einsatz. Bluetooth basierte PANs werden auch als Piconets, drahtlose PANs als Wireless PANs (WPAN) bezeichnet. PANs k¨onnen sowohl zur Vernetzung von Kleinger¨aten untereinander, aber auch zum Anschluss an ein gr¨oßeres Netzwerk dienen (Uplink). Lokale Netze (Local Area Networks LAN) Die Ausdehnung von lokalen Netzwerken kann sich von einzelnen R¨aumen, u¨ ber ganze Etagen bis hin zu mehreren Geb¨audekomplexen erstrecken, wobei selten mehr als ein einzelnes Grundst¨uck mittels einer LAN-Technologie vernetzt wird. Die Reichweite von LANs erreicht maximal einige wenige Kilometer und ihr

100

3 Grundlagen der Kommunikation in Rechnernetzen

Haupteinsatzgebiet liegt in der Vernetzung von Personal Computern und deren Peripherie in Organisationen, Unternehmen und zu Hause. Man unterscheidet drahtgebundene LAN-Technologien, wie z.B. Ethernet oder Token Ring, von drahtlosen, meist funkbasierten LANs, sogenannten Wireless LANs (WLANs). LANs sind meist als sogenannte Broadcast-Netzwerke realisiert, d.h. alle angeschlossenen Endsysteme nutzen dieselbe Kommunikationshardware und k¨onnen jede dar¨uber gesendete Nachricht empfangen. Um dabei eine effiziente Kommunikation zwischen den einzelnen Endger¨aten zu erm¨oglichen, kommen unterschiedliche Verfahren zur statischen oder dynamischen Kanalzuweisung zum Einsatz. LANs sind oft in privater Hand, es bestehen keine Reglementierungen bzgl. ihrer Nutzung. Stadtnetzwerke (Metropolitan Area Networks, MAN) Ein Metropolitan Area Network (MAN) ist ein breitbandiges, meist in Glasfasertechnologie realisiertes Kommunikationsnetz, dessen Aufgabe u¨ berwiegend darin besteht, die wichtigsten B¨urozentren einer Großstadt miteinander zu verbinden. Andererseits sind auch viele Kabelfernsehnetzwerke als MAN organisiert. Ein MAN kann eine Ausdehnung bis zu 100 km besitzen. Vom technischen Standpunkt aus betrachtet lassen sich MAN-Technologien und die n¨achsth¨ohere Kategorie der Weitverkehrsnetzwerke (WAN-Technologien) meist nicht unterscheiden. Weitverkehrsnetze (Wide Area Networks, WAN) Fernnetzwerke und Weitverkehrsnetze erstrecken sich u¨ ber ein großes geographisches Gebiet (z.B. Land oder Kontinent) und dienen der weitr¨aumigen Vernetzung von Endsystemen und einzelnen LANs. W¨ahrend die an ein WAN angeschlossenen Endsysteme meist in privater Hand sind, wird das Weitverkehrsnetzwerk selbst u¨ blicherweise von o¨ ffentlicher Hand oder einem Telekommunikationsunternehmen betrieben. Im Gegensatz zu lokalen Netzwerken ist die Anzahl der an ein WAN angeschlossenen Endger¨ate nicht begrenzt. Die Vernetzung mehrerer, verschiedener Netzwerke bezeichnet man als Internet oder auch als Global Area Network (GAN). Ein weiteres Kriterium zur Klassifikation von Computernetzwerken ist die Art der Rechnervernetzung innerhalb des Kommunikationssystems. Hier unterscheidet man zwischen direkter und indirekter Vernetzung. Sind die Rechner bzw. genauer die Datenendeinrichtungen (DTE) unmittelbar miteinander verbunden, ohne dass eigenst¨andige Vermittlungsrechner dazwischengeschaltet sind, die die Weiterleitung der Daten organisieren, so spricht man von einer direkten Vernetzung. Sind dagegen Vermittlungsrechner an der Weiterleitung der Daten beteiligt, so spricht man von einer indirekten Vernetzung. Innerhalb eines LANs sind eigenst¨andige Vermittlungsrechner oft nicht notwendig. Strikt hierarchisch organisierte Systeme, bei denen von einem Leitsystem (Master) aus eine Reihe von unselbst¨andigen Datenstationen (Slaves) kontrolliert werden, sind im eigentlichen Sinn keine Rechnernetze. Auch sind verteilte Systeme von einem Rechner-Netzwerk zu unterschieden: Ein verteiltes System erscheint seinen Benutzern als homogenes System und verbirgt bewusst, wo und wie die Verarbeitungsleistung erbracht wird. Dem Benutzer wird der Eindruck vermittelt, er arbeite an einem einzigen System und nicht an einem Verbund aus einzelnen Rechenein-

3.1 Grundbegriffe und -konzepte

101

Rechnernetze und verteilte Systeme Verteilte Systeme und Rechnernetze haben viele gemeinsame Eigenschaften (siehe Punkt 1-3), doch unterscheiden sie sich erheblich in der verwendeten Software und hinsichtlich der Transparenz der erbrachten Dienste (Punkt 4-5):

• Gemeinsamkeiten: 1. Zusammenschluss einer Vielzahl von physisch und logisch unterschiedlichen Komponenten, denen dynamisch Auftr¨ age zugeordnet werden k¨ onnen. 2. Einzelkomponenten sind r¨ aumlich verteilt. 3. Einzelkomponenten arbeiten autonom, aber kooperativ.

• Unterschiede: 4. Die durch die Systemkomponenten erbrachten Dienste erscheinen bei verteilten Systemen transparent und k¨ onnen vom Benutzer nicht einer bestimmten Einzelkomponente zugeordnet werden. 5. Das Rechnernetz wird durch ein Netzbetriebssystem kontrolliert, das die notwendigen Verarbeitungsschritte eines Benutzerauftrags koordiniert.

Abb. 3.5 Rechnernetze und verteilte Systeme

heiten. Direkte Zuweisungen von Ressourcen und Zugriffe auf die Systemperipherie sind f¨ur den Benutzer nicht sichtbar. In einem Rechnernetz dagegen obliegt die Zuordnung von Ressourcen der Koordination des Nutzers und nicht dem u¨ bergeordneten Betriebssystem. Rechnernetze k¨onnen auch entsprechend ihrer Einsatzcharakteristik untergliedert werden. So spricht man von einem Funktionsverbund, sobald in einem Netz Rechner f¨ur Spezialanwendungen oder Rechner mit spezieller Peripherieaustattung bzw. spezifischen Datenbest¨anden verbunden sind. Ein Lastverbund liegt vor, wenn ein Lastausgleich zwischen den einzelnen im Rechnernetz verbundenen Komponenten durchgef¨uhrt wird. Enth¨alt das Netz spezifische Datenbest¨ande, die auf verschiedenen Systemen im Netz verteilt vorliegen, so spricht man von einem Datenverbund. Ist der Haupteinsatzzweck des Netzes der Austausch von Nachrichten, so liegt ein Nachrichtenverbund vor. Sind in einem Netz zus¨atzliche Redundanzen vorgesehen, die im Falle des Ausfalls einer oder mehrerer Systemkomponenten deren Funktion u¨ bernehmen, dann handelt es sich um einen Sicherheitsverbund. Weiter kann der Typ der im Netzwerk zusammengeschalteten Rechnern als Unterscheidungskriterium herangezogen werden: Sind alle Rechner vom selben Typ, so handelt es sich um ein homogenes, anderenfalls um ein heterogenes Netzwerk. Netze k¨onnen f¨ur unterschiedliche Benutzergruppen bereitstehen. Man unterscheidet Rechnernetze, die u¨ ber einen o¨ ffentlichen Zugang verf¨ugen und auf die jedermann zugreifen kann, von sicherheitskritischen Netzen, deren Zugang nicht¨offentlich ist und nur einem eng begrenzten Benutzerkreis zur Verf¨ugung steht, wie z.B. die Netze von Banken, Polizei oder Milit¨ar. Ausgehend von der Zugangsart unterscheidet man weiter Netze nach der Art ihres Verbindungstyps: Die einzelnen Teilnehmer schalten sich entweder u¨ ber eine

102

3 Grundlagen der Kommunikation in Rechnernetzen

W¨ahlverbindung nur nach Bedarf in das Netz ein bzw. stehen permanent u¨ ber eine Standleitung mit dem Netz in Verbindung. Prinzipiell lassen sich Netzwerke, die sich in privater Hand befinden (Private Netz¨ werke) von denen unterscheiden, die von einem o¨ ffentlichen Tr¨ager (Offentliche Netzwerke) betrieben werden. Zu den privaten Netzwerken geh¨oren alle diejenigen, deren Netzinfrastruktur, d.h. Verkabelung, Netzhardware und -software einem Unternehmen oder einem Privateigent¨umer geh¨oren. So sind die u¨ berwiegende Zahl der lokalen Netze (LANs), Netze, die sich auf Privatgel¨ande befinden und an die die Rechner des Eigent¨umers angeschlossen sind, private Netze. Großunternehmen sind auch in der Lage, eigene Weitverkehrsnetze (WANs) zu unterhalten, die verschiedene Standorte miteinander verbinden. Dabei kann das Unternehmen die Netzstruktur, die Vermittlung im Netz und die verwendeten Netzadressen innerhalb vorgegebener Grenzen selbst festlegen. Allerdings kann ein Privatunternehmen eine eigene Verkabelung nur dann durchf¨uhren, wenn sich diese auf dessen Privatgel¨ande verlegen l¨asst. F¨ur Weitverkehrsverbindungen m¨ussen daher oftmals Teilstrecken o¨ ffentlicher Netzbetreiber, wie z.B. der deutschen Telekom oder anderer großer Betreiber angemietet werden. Dennoch ist ein WAN, das zum Teil u¨ ber angemietete Leitungen betrieben wird, immer noch als privat zu betrachten, wenn der Mieter u¨ ber ein exklusives Nutzungsrecht verf¨ugt. Der Mieter ist dann selbst f¨ur den Betrieb und das Management dieses Netzes verantwortlich. Ein Netz, das seinem Verhalten nach wie ein privates Netzwerk arbeitet, aber auf der Infrastruktur des Internet aufsetzt, wird als Virtual Privat Network (VPN) bezeichnet. Ein o¨ ffentliches Netz ist dagegen ein Netzwerk, das mit dem traditionellen Telefonnetz vergleichbar ist. Jeder, der einen Computer an ein o¨ ffentliches Netzwerk anschließen m¨ochte, kann dies u¨ ber ein gewisses, an den Betreiber des Netzes zu entrichtendes Entgelt, tun. Er muss sich dabei aber die vorhandene Netzinfrastruktur mit vielen anderen Nutzern teilen und verf¨ugt nicht u¨ ber ein exklusives Nutzungsrecht, wie bei privaten Netzwerken. Damit o¨ ffentliche Netze rentabel betrieben werden k¨onnen, m¨ussen sie f¨ur m¨oglichst viele Nutzer attraktiv sein. Sie sind deshalb in der Regel als Weitverkehrsnetze ausgelegt, um sehr vielen Teilnehmern an den unterschiedlichsten Orten zur Verf¨ugung zu stehen. Die Begriffe privat“ und o¨ ffentlich“ beziehen sich also nicht auf Besitzverh¨alt” ” nisse, sondern auf die Verf¨ugbarkeit des angebotenen Dienstes. Nat¨urlich kann die Kommunikation u¨ ber ein o¨ ffentliches Kommunikationsnetz privater Natur sein, da zwei u¨ ber ein o¨ ffentliches Netz miteinander verbundene Computer Daten verschl¨usselt austauschen k¨onnen, so dass sie kein anderer Netzteilnehmer zur Kenntnis bekommen kann. Obwohl einige o¨ ffentliche Netze die Kommunikation von ganzen Gruppen von Teilnehmern erm¨oglichen (Multicasting), ist es in der Regel nicht m¨oglich, alle Teilnehmer des o¨ ffentlichen Netzes zugleich anzusprechen (Broadcasting). In einem privaten Netz ist der jeweilige Netzeigent¨umer (oder Mieter) selbst f¨ur die Gew¨ahrleistung von Betrieb und Sicherheit zust¨andig. Er u¨ berwacht den Anschluss neuer Computer an das private Netz und legt Zugangs- und Kommunikationsrestriktionen fest, die die Einhaltung der eigenen Sicherheitsstandards gew¨ahrleisten. Dabei handelt es sich um eine anspruchsvolle Aufgabe, die von qualifizierten Spe-

3.2 Rechnernetze und Paketvermittlung

103

zialisten konzipiert und umgesetzt werden muss. Nicht nur die Gew¨ahrleistung von Sicherheit, auch der gesamte Betrieb eines privaten Netzwerks ist mit hohen Kosten verbunden, insbesondere wenn sich ein Unternehmen dabei stets am aktuellen Stand der Technik orientiert. Ersatz bzw. Updates bestehender Netzinfrastrukturen, die dazu oftmals notwendig werden, sind nicht nur mit immensen Kosten, sondern auch mit einem hohen Zeitaufwand f¨ur Planung, Umsetzung, Schulung und Betrieb verbunden. Die Nutzung o¨ ffentlicher Netze ist daher unter finanziellen Gesichtspunkten oftmals rentabler. Es bietet sich eine gr¨oßere Flexibilit¨at und der Aufwand, modernste Netzwerktechniken einsetzen und nutzen zu k¨onnen, ist mit weitaus geringeren Kosten verbunden als bei der Nutzung privater Netze, da der Betreiber diese auf eine Vielzahl von Kunden umlegen kann. Allerdings birgt die gemeinsame Nutzung o¨ ffentlicher Netze auch Gefahren und Sicherheitsrisiken, da die privaten, an ein o¨ ffentliches Netz angeschlossenen Rechner gegen¨uber unberechtigtem Zugriff der u¨ brigen Netzteilnehmer gesch¨utzt werden m¨ussen.

3.2 Rechnernetze und Paketvermittlung Eine konzeptionelle Grundlage von Internets ist das Prinzip der Paketvermittlung. Eine zu sendende Nachricht wird bereits beim Sender in einzelne Datenpakete fester, vorgegebener L¨ange zerlegt, die dann einzeln und unabh¨angig voneinander ihre Reise durch das Labyrinth des Internets antreten. Damit die Pakete auch ihren Weg zum Empf¨anger u¨ ber verschiedenartige Netzwerke hinweg finden, braucht es Vermittlungsstellen im Internet, die sogenannten Paketvermittler oder Router, die die einzelnen Pakete jeweils zum n¨achsten Zwischenstop einer benachbarten Folgevermittlungsstelle weiterleiten. Die Datenpakete gelangen so auf v¨ollig unterschiedlichen Pfaden zu ihrem Ziel. Damit sie dort tats¨achlich ankommen und wieder zu einer sinnvollen Nachricht zusammengesetzt werden k¨onnen, muss jedes einzelne Paket entsprechende Zusatzinformation mit auf den Weg bekommen. Mit Hilfe die¨ ser Zusatzinformation ist es auch m¨oglich, eventuell auftretende Ubertragungsfehler zu erkennen und diese sogar zu korrigieren. Ohne die Technik der Paketvermittlung w¨aren moderne Hochgeschwindigkeitskommunikationsnetze nicht denkbar, denn nur so kann ein Netz gleichzeitig von vielen Teilnehmern gemeinsam unter gerechter Verteilung der vorhandenen Kapazit¨at o¨ konomisch sinnvoll und effizient genutzt werden.

3.2.1 Klassische Punkt-zu-Punkt Verbindung Die ersten Rechnernetze basierten auf dem Prinzip der Punkt-zu-Punkt Verbindungen (Point-to-Point Connection), die beispielsweise u¨ ber Mietleitungen realisiert wurden. Zwei miteinander kommunizierende Endsysteme verf¨ugen dabei je-

104

3 Grundlagen der Kommunikation in Rechnernetzen

weils u¨ ber eine eigene, separate Verbindung (Kabel, Leitung, Funkstrecke). Die beiden Datenstationen sind so permanent miteinander verbunden und k¨onnen das Kommunikationsmedium exklusiv zum gegenseitigen Datenaustausch nutzen. Daraus ergibt sich der Vorteil, dass sich nur die beiden an der Kommunikation beteiligten Partner u¨ ber ein gemeinsames Kommunikationsprotokoll verst¨andigen m¨ussen. Dies vereinfacht die Implementierung der Kommunikationssoftware wesentlich, da keine R¨ucksicht genommen werden muss auf eventuell unterschiedliche Datenformate, Datengr¨oßen oder Fehlererkennungsmechanismen. Sollen allerdings mehr als zwei Rechner durch Punkt-zu-Punkt Verbindungen miteinander vernetzt werden, ist das theoretisch zwar einfach durch jeweils eigene Direktverbindungen f¨ur alle m¨oglichen Rechnerpaare zu realisieren, doch st¨oßt der dazu notwendige Verkabelungsaufwand in der Praxis schnell an Grenzen. Versucht man n¨amlich n Computer durch Punkt-zu-Punkt-Verbindung miteinander zu vernetzen, so ben¨otigt man dazu nahezu n · n = n2 Verbindungen (siehe Abb. 3.6). Punkt-zu-Punkt Verbindungen n=4

n=5

n=6

n=10

Anzahl der Anzahl der Rechner Verbindungen 4 5 6 7 10 100 1.000

6 10 15 21 45 4.950 499.500

Sollen n Rechner u ¨ber Punkt-zu-Punkt Verbindungen miteinander vernetzt werden, wird die folgende Anzahl an Verbindungen ben¨ otigt: n−1

∑i= i=1

n2 − n 2

Abb. 3.6 Punkt-zu-Punkt Verbindungen

Heute werden Punkt-zu-Punkt Verbindungen nur noch in Sonderf¨allen, wie z.B. f¨ur Fernnetze genutzt, die durch eine Richtfunkverbindung gekoppelt sind.

3.2 Rechnernetze und Paketvermittlung

105

3.2.2 Leitungsvermittelte Netzwerke Traditionell waren Daten- und Telekommunikationsnetze leitungsvermittelt. In leitungsvermittelten Netzwerken, auch Switching Networks genannt, wird den Kommunikationspartnern eine feste Verbindung zur Verf¨ugung gestellt, die u¨ ber eine Reihe von Vermittlungsstellen geschaltet wird. Der Aufbau einer festen Verbindungsstrecke, die f¨ur die gesamte Dauer der Kommunikation aufrecht erhalten werden muss, ist hier Voraussetzung f¨ur die Kommunikation (siehe Abb. 3.7). Beim Verbindungsaufbau entsteht zun¨achst eine Wartezeit, bevor die eigentliche Kommunikation aufgenommen werden kann. Sobald eine stehende Verbindung jedoch aufgebaut ist, kann diese nicht mehr durch andere Kommunikationsteilnehmer unterbrochen werden. Kommunikation mit mehreren Partnern erfordert den Aufbau jeweils separater Verbindungen, so dass allen Teilnehmern dann die gleiche Kapazit¨at zum Senden und Empfangen zur Verf¨ugung gestellt wird. Beim Verbindungsaufbau kann es allerdings vorkommen, dass alle Verbindungskan¨ale zum gew¨unschten Kommunikationspartner auf Grund der momentanen Auslastung oder mangelnder Schaltkapazit¨aten besetzt sind. Auch Ausf¨alle von Vermittlungsstellen k¨onnen den Aufbau von Verbindungen unm¨oglich machen und damit die Aufnahme der Kommunikation verhindern. Ein leitungsvermitteltes Netzwerk bietet den Kommunikationsteilnehmern jederzeit ¨ eine feste Daten¨ubertragungsrate. Die Verz¨ogerung auf dem Ubertragungsweg eines leitungsvermittelten Netzwerkes ist stets konstant und minimal. Sie entspricht im allgemeinen der Ausbreitungsgeschwindigkeit des elektromagnetischen Signals (ca. 5 ms pro 100 km). Allerdings ist der Aufbau dieser Verbindungen meist sehr zeitintensiv. Die Kosten der Verbindung sind stets proportional zur Verbindungsdauer. Sie fallen auch bei Kommunikationspausen an selbst wenn keine Daten u¨ bertragen werden. F¨allt eine der beteiligten Vermittlungsstellen aus, so bricht die Verbindung zusammen, die Kommunikation ist beendet. Im schlimmsten Fall k¨onnen nach Ausfall von nur einer Vermittlungsstelle ganze Teilnetze vom Gesamtnetz abgetrennt und unerreichbar werden. ¨ Die maximale Datenmenge, die pro Zeiteinheit u¨ ber ein bestimmtes Ubertragungsmedium u¨ bertragen werden kann, wird als Bandbreite bezeichnet. Die Bandbreite einer Verbindung wird immer durch die schw¨achste Teilstrecke der Route durch das Netzwerk beschr¨ankt. Ein wichtiges Beispiel f¨ur ein leitungsvermitteltes Netzwerk ist ein analoges Telefonnetzwerk: Durch das W¨ahlen einer Nummer wird u¨ ber die automatisierten Vermittlungsstellen des Telefonnetzwerks eine Verbindung zum gew¨unschten Teilnehmer aufgebaut. Nachdem dieser auf der Gegenseite den H¨orer abgehoben hat, bleibt diese Verbindung genau solange bestehen, bis der H¨orer wieder aufgelegt wird. In einem Telefonnetzwerk wird Sprache mit einer mehr oder weniger konstanten Bandbreite zwischen Sender und Empf¨anger u¨ bertragen.

106

3 Grundlagen der Kommunikation in Rechnernetzen

gemeinsam genutztes Kommunikationsnetzwerk

Ablauf:

Endsystem A

(1) Verbindungsaufbau (2) Datentransfer (3) Verbindungsabbau Endsystem B Relaisstationen

Abb. 3.7 Leitungsvermitteltes Netzwerks (Switching Network)

3.2.3 Von der Leitungsvermittlung zur Paketvermittlung Zu Beginn der 60er Jahre wuchs die Bedeutung des Einsatzes von Computern in Milit¨ar und Wirtschaft schlagartig. Erste Timesharing Systeme, also Rechner, die interaktives Arbeiten erlaubten, kamen auf den Markt. Die Idee, Computer weitr¨aumig miteinander zu vernetzen, so dass Anwender diese auch von unterschiedlichen geografischen Orten gemeinsam nutzen k¨onnen, lag f¨ormlich in der Luft. Der Datenverkehr, der durch solche vernetzt arbeitenden Computer erzeugt wird, ist im Gegensatz zum u¨ blichen Telefongespr¨ach jedoch nicht kontinuierlich, sondern tritt in sehr unterschiedlichen H¨aufungen, sogenannten Bursts auf. Bei Bursts handelt es sich um Intervalle maximaler Aktivit¨at, denen jeweils wieder Intervalle der Inaktivit¨at folgen, wie z.B. die Zeitdauer, die f¨ur lokale Berechnungen oder die Ausarbeitung einer Antwort n¨otig ist. Wie kann man nun einen f¨ur die Kommunikation von Computern geeigneten ausfallsicheren Datenfluss in einem Netzwerk gew¨ahrleisten, auch wenn die Vermittlungsstellen nicht mit absoluter Zuverl¨assigkeit arbeiten bzw. sogar komplett ausfallen k¨onnen? Wird der Ausfall einer Vermittlungsstelle erkannt, so kann zwar eine neue Route durch das Netzwerk festgelegt werden, aber es ist den beteiligten Kommunikationspartnern nicht klar, wieviel vom Kommunikationsinhalt inzwi¨ schen verloren gegangen ist, die Ubertragung muss also sicherheitshalber wiederholt werden. Ist außerdem ein Verbindungskanal belegt, dann m¨ussen die u¨ brigen Teilnehmer im Netzwerk solange warten, bis dieser Kanal wieder freigegeben wird. Von einer gerechten Zuteilung der Ressourcen kann nicht gesprochen werden. Die Frage nach dem Aufbau großer, ausfallsicherer und fair arbeitender Datennetze wurde Ende der 50er Jahre zum Gegenstand wissenschaftlicher Untersuchung. Leonard Kleinrock (*1934), damals Promotionsstudent am Massachussetts Institute of Technology (MIT), ver¨offentlichte 1962 seine Doktorarbeit Information Flow in ” Large Networks“ in dem er dieses Problem anging und als L¨osung das Prinzip der Paketvermittlung (Packet Switching) vorschlug [132]. Voneinander unabh¨angig arbeiteten auch Donald Davies (1924–2000) vom englischen National Physical Laboratory, der den Begriff Packet Switching“ pr¨agte, und Paul Baran (*1926), der ” bei der RAND Corporation, einem weiteren Vertragspartner der ARPA besch¨aftigt

3.2 Rechnernetze und Paketvermittlung

107

war, an diesem Problem. Baran griff die Idee der Paketvermittlung auf und entwickelte sie zum fundamentalen Prinzip f¨ur den Zusammenschluss großer, ausfallsicherer Datennetze [11, 12, 59]. Der Weg war nun - zumindest gedanklich - frei, per se unsichere Netze zur Grundlage f¨ur ausfallsichere Datenkommunikationsnetze zu machen. Tats¨achlich war es eine der Zielsetzungen der ARPA bei der Ausgestaltung und Entwicklung von Internets, Netzwerke zu schaffen, die eine hohe Ausfallsicherheit besitzen und im Ernstfall auch den Ausfall einer oder mehrerer Vermittlungsstellen unversehrt verkraften k¨onnen. Die Idee der Paketvermittlung wurde zur wohl wichtigsten Grundidee f¨ur die Entwicklung von Internets.

3.2.4 Das Prinzip der Paketvermittlung Das Prinzip der Paketvermittlung beruht darauf, die Nachrichten, die versendet werden sollen, in einzelne Datenpakete, kurz Pakete genannt, zu zerlegen (Fragmentierung) und diese dann einzeln und unabh¨angig voneinander u¨ ber das Kommunikationsnetzwerk zu transportieren. Die Route, die die einzelnen Pakete dabei einschlagen, wird nicht von vornherein festgelegt. Der Absender bestimmt nur den Weg zur n¨achsten Vermittlungsstelle, a¨ hnlich wie beim Paketdienst der Post. Auf der Seite des Empf¨angers werden die Datenpakete anschließend wieder zur Originalnachricht zusammengesetzt (Defragmentierung, siehe Abb. 3.8). Zum Auffinden eines optimalen Weges durch das Netzwerk dienen spezielle Routing-Algorithmen. Pakete k¨onnen auf ihrem Weg durch das Netzwerk auch an den Vermittlungsstellen auftretende Staus und St¨orungen umgehen und so, obwohl sie eine l¨angere Strecke zur¨ucklegen, ihr Ziel schneller erreichen, als Pakete, die auf einem k¨urzeren, aber blockierten Weg warten. Nebenbei wird dadurch auch eine bessere Auslastung des gesamten Netzwerks erreicht. Die Gr¨oße der versendeten Pakete muss aus verschiedenen Gr¨unden beschr¨ankt werden. Eine Verbindung wird so nie f¨ur lange Zeit belegt und alle potenziellen Sender haben im Ergebnis einen gleichberechtigten und fairen Zugang zum Netzwerk. Tats¨achlich erm¨oglicht das Prinzip der Paketvermittlung u¨ berhaupt erst wirklich interaktive Verbindungen, da die Leitungen zwischen den einzelnen Vermittlungsstellen so nur im Bereich von Millisekunden belegt sind, und kein Benutzer wie bei leitungsvermittelten Netzen eine Verbindung f¨ur l¨angere Zeit blockieren kann. Bei der Paketvermittlung ist es notwendig, dass die einzelnen Datenpakete bei ihrer Ankunft an den Vermittlungsstellen des Netzwerks solange zwischengespeichert werden, bis sie weiter zum n¨achsten Netzknoten u¨ bertragen werden k¨onnen. Jeder Paketvermittler verf¨ugt f¨ur jede ein- und ausgehende Datenleitung u¨ ber einen eigenen Zwischenspeicher (Eingangspuffer und Ausgangspuffer). Soll ein ankommendes Paket u¨ ber einen bestimmten Ausgang weitergeleitet werden, der gerade aber durch das Versenden eines anderen Pakets belegt ist, wird das Paket im Ausgangspuffer zwischengespeichert, bis der Ausgang wieder frei ist. Daher wird diese Art der Vermittlung auch als Speichervermittlung (Store and Forward) bezeichnet

108

3 Grundlagen der Kommunikation in Rechnernetzen

Sender

Empfänger

Nachricht

Nachricht

Datenpaket 1 Header

Pakete werden einzeln über das Kommunikationsnetzwerk versendet

Daten

Datenpaket 1 Header Daten

...

...

Datenpaket n

Datenpaket n

Header

Header

Daten

Daten

Fragmentierung

Datenübertragung

Defragmentierung

Abb. 3.8 Prinzip der Fragmentierung und Defragmentierung

(siehe Abb. 3.9). Die dabei auftretende Wartezeit ist ver¨anderlich und h¨angt von der Auslastung des Netzwerks ab. Kann ein Datenpaket nicht angenommen bzw. nicht weitergeleitet werden, da ein Eingangspuffer bzw. der Ausgabepuffer an einem Ausgang vollst¨andig belegt ist, kommt es zu einem Paketverlust, d.h. entweder das ankommende Paket oder ein Paket aus dem Ausgangspuffer wird verworfen. Die Reihenfolge, in der die Pakete aus dem Ausgangspuffer verschickt werden, entspricht der ihrer Ankunft. Da die Ankunft der Pakete aus unterschiedlichen Eing¨angen in beliebiger, d.h. zuf¨alliger Reihenfolge erfolgen kann, spricht man bei dieser B¨undelung verschiedener Eing¨ange auf eine Ausgangswarteschlange des Paketvermittlers auch von statistischem Multiplexing oder asynchronem Multiplexing, im Gegensatz zum regul¨aren Zeitmultiplexing (Time Division Multiplex, TDM), bei dem jeder Teilnehmer abwechselnd einen gleich großen Zeitslot erh¨alt. Eine spezielle Form der Speichervermittlung ist die Nachrichtenvermittlung (Message Switching), bei der die Nachricht nicht wie im Falle der Paketvermittlung in einzelne Pakete zerteilt wird, sondern als Ganzes, d.h. in einem einzigen Paket u¨ ber das Netzwerk versendet wird. Auch bei dieser Form der Nachrichten¨ubertragung wird keine explizite Verbindung geschaltet, wie bei der Leitungsvermittlung. Die gesamte Nachricht muss an den jeweiligen Vermittlungsstationen zwischengespeichert werden, die auch entscheiden, zu welcher n¨achsten Vermittlungsstelle die Nachricht weitergeleitet wird. In der Anfangszeit der Telegraphie wurden z.B. Telegramme auf diese Art weitervermittelt. Die Nachricht wurde im B¨uro des Senders

3.2 Rechnernetze und Paketvermittlung

109

10 Mbps

Host A Paketvermittler

statistisches Multiplexing

Paketvermittler

1,5 Mbps

10 Mbps

Host B Datenpakete warten im Pufferspeicher des Paketvermittlers

Abb. 3.9 Prinzip der Speichervermittlung (Store and Forward)

auf Lochstreifen gestanzt, dann gelesen und u¨ ber das Telegraphenkabel zur n¨achsten Telegraphenstation weitergeleitet, wo sie zur Zwischenspeicherung wiederum auf Lochstreifen festgehalten wurde. Im Gegensatz zur Paketvermittlung gibt es hier keine fest vorgeschriebene Blockgr¨oße f¨ur die versendeten Datenpakete. F¨ur heute u¨ bliche Datennetze ist Nachrichtenvermittlung daher vollkommen ungeeignet, da Vermittlungsstellen f¨ur lange Zeit blockiert w¨aren oder ihr Zwischenspeicher unter Umst¨anden noch nicht einmal zur Speicherung einer einzelnen Nachricht ausreichen w¨urde (vgl. Abb. 3.10).

3.2.5 Vorteile der Paketvermittlung Die Vorteile der Paketvermittlung gegen¨uber der Leitungsvermittlung liegen auf der Hand: • Hohe Netzauslastung Da die einzelnen Datenpakete bei der Paketvermittlung u¨ blicherweise sehr klein sind, wird ein hoher Grad der Netzauslastung erreicht. Die Wartezeiten bleiben f¨ur alle u¨ brigen Kommunikationsteilnehmer gering. • Faire Ressourcenzuteilung Das Kommunikationsnetz steht allen Teilnehmern zur gleichberechtigten Nutzung zur Verf¨ugung. Alle angeschlossenen Ger¨ate k¨onnen nach einem vorgegebenen Multiplexverfahren abwechselnd Datenpakete versenden.

110

3 Grundlagen der Kommunikation in Rechnernetzen

Paketvermittlung vs. Nachrichtenvermittlung Warum stellt die Paketvermittlung das effizientere der beiden Verfahren dar? Die einzelnen Paketvermittler im Netzwerk k¨ onnen ein Datenpaket erst dann weitersenden, wenn es vollst¨ andig angekommen ist. Kann dabei von einer kleinen Datenpaketgr¨ oße ausgegangen werden, dann sind auch die jeweiligen Latenzzeiten klein. In nachrichtenvermittelten Netzwerken ist die Wartezeit an jedem Vermittlungsrechner proportional zur L¨ ange der Nachricht, also theoretisch unbeschr¨ ankt lang. Dies l¨ asst sich an einem einfachen Beispiel demonstrieren:

Host A

Host B

Paketvermittler 1

10 Mbps

Paketvermittler 2 10 Mbps

10 Mbps

In unserem Beispielnetzwerk soll eine Nachricht der L¨ ange 80 MBit = 80.000 kBit von Host A zu Host B versendet werden. Das gesamte Netzwerk besitze eine Bandbreite von 10 Mbps (Megabit pro Sekunde). Um von A nach B zu gelangen, m¨ ussen 2 Paketvermittler passiert werden. Im Falle eines nachrichtenvermittelten Netzes muss an den jeweiligen Vermittlungsstellen solange gewartet werden, bis die gesamte Nachricht angekommen ist. Von Rechner A zum ersten Vermittlungsrechner dauert das 80 Mb/10 Mbps = 8 Sekunden. Bis die gesamte Nachricht am Zielrechner ankommt, vergehen also mindestens 3·8 = 24 Sekunden. Nehmen wir nun an, das dargestellte Netzwerk sei paketvermittelt mit einer festen Paketgr¨ oße von 2 kBit = 2.000 Bit. Die Nachricht wird dann in 80.000 kBit/2 kBit = 40.000 ¨ Pakete aufgeteilt. Die 40.000 Pakete ben¨ otigen jetzt folgende Ubertragungszeit: Bis das erste Paket am Paketvermittler 1 ankommt, vergehen 2 kBit / 10 Mbps = 0,2 ms. Demnach dauert es nur 40.000 · 0,2 m = 8.000 ms = 8 Sekunden bis das letzte Paket am ersten Paketvermittler angekommen ist. Da das letzte Paket dann noch u ¨ber einen weiteren Paketvermittler zum Endsystem Host B u ¨bertragen werden muss, vergehen insgesamt 8 + 2 · 0,0002 = 8,0004 Sekunden, bis die Nachricht vollst¨ andig ihr Ziel erreicht hat. In unserem Beispiel ist die Daten¨ ubertragung im paketvermittelten Netzwerk also dreimal schneller als im nachrichtenvermittelten Netz. Die Daten¨ ubertragung im paketvermittelten Netzwerk l¨ auft weitgehend parallel, ¨ ahnlich wie an einem Fließband ab, wohingegen der Datenverkehr in einem nachrichtenvermittelten Netz sequentiell erfolgt. W¨ ahrend ein Vermittlungsrechner im nachrichtenvermittelten Netz die gesendete Nachricht empf¨ angt, m¨ ussen die anderen warten. Im paketvermittelten Netzwerk u ¨bertragen alle Vermittlungsknoten gleichzeitig.

Abb. 3.10 Vergleich von Paketvermittlung und Nachrichtenvermittlung

3.2 Rechnernetze und Paketvermittlung

111

• Schnelle Fehlererkennung Wenn immer nur kleine Datenpakete versendet werden, k¨onnen Fehler in der ¨ Ubertragung schnell erkannt und gegebenenfalls sofort korrigiert werden. Es m¨ussen immer nur die jeweils fehlerhaften Pakete erneut u¨ bertragen werden und nicht die gesamte Nachricht. • Hohe Ausfallsicherheit F¨allt eine Vermittlungsstation aus, so geht nicht die Gesamtnachricht verloren, wie bei der Leitungsvermittlung. W¨ahrend bei der Leitungsvermittlung ein kompletter Teilbereich des Netzwerks eventuell nicht mehr erreichbar ist und die Kommunikation von Neuem mit dem Aufbau einer festen Verbindungsstrecke beginnen muss, bleibt bei der Paketvermittlung der gesamte Rest des Netzwerks unber¨uhrt und kann weiter f¨ur die Kommunikation genutzt werden. Datenpakete, die sich bereits auf dem Weg befinden, werden einfach entlang einer alternativen Route zum Ziel gef¨uhrt, die nicht u¨ ber die ausgefallene Vermittlungsstelle f¨uhrt. W¨ahrend leitungsvermittelte Netzwerke mit Vermittlungsstellen ohne eigenen Zwischenspeicher realisiert werden k¨onnen, ben¨otigen alle Formen der Paketvermittlung an jeder Vermittlungsstelle Zwischenspeicher, denn die Pakete m¨ussen solange zwischengespeichert werden, bis eine Weiterleitung erfolgen kann. Daher ist auch der Begriff Store and Forward f¨ur diese Form der Vermittlung gebr¨auchlich. Die Zwischenspeicherung bietet aber auch einen anderen, ganz entscheidenden Vorteil: ¨ Bei der Paketvermittlung tritt die Ubertragungsgeschwindigkeit der einzelnen Teilstrecken im Netz nicht mehr als Begrenzung f¨ur die Gesamt¨ubertragungskapazit¨at ¨ in Erscheinung, da Datenpakete beim Ubergang zu langsameren Teilstrecken gepuf¨ fert werden k¨onnen. Die Kosten der Ubertragung in einem paketvermittelten Netzwerk sind proportional zur Anzahl der u¨ bertragenen Pakete und spiegeln deshalb die tats¨achliche Nutzung des Netzwerks wieder.

3.2.6 Paketheader Damit die vollst¨andige Nachricht in einem paketvermittelten Netzwerk ihr Ziel erreichen und auf der Empf¨angerseite korrekt wieder zusammengesetzt werden kann, m¨ussen die Datenpakete mit einer Reihe von Zusatzinformationen ausgestattet werden. Diese Zusatzinformationen werden gew¨ohnlich in einem dem Paket vorangestellten Segment u¨ bertragen und als Paketheader bezeichnet. • Adressinformationen Paketheader enthalten Adressangaben u¨ ber Sender und Empf¨anger, damit die Paketvermittler entscheiden k¨onnen, auf welchem Weg sie die Pakete weiterleiten. • Paketnummer Die einzelnen Datenpakete m¨ussen fortlaufend nummeriert werden, damit sie beim Empf¨anger wieder in der richtigen Reihenfolge zur eigentlich kommunizierten Nachricht zusammengesetzt werden k¨onnen.

112

3 Grundlagen der Kommunikation in Rechnernetzen

¨ • Fulldaten Eventuell ist die zu versendende Datenmenge kleiner als die fest vorgegebene Paketgr¨oße. Dann muss das Datenpaket mit F¨ulldaten erg¨anzt werden, die auch als solche kenntlich zu machen sind. • Fehlererkennungsmechanismen ¨ Um Ubertragungsfehler erkennen zu k¨onnen, m¨ussen Zusatzdaten zur Fehlererkennung beigef¨ugt werden. Dazu gibt es eine Reihe sehr unterschiedlicher Verfahren, die neben der Fehlererkennung teilweise sogar eine Fehlerkorrektur erm¨oglichen (siehe Exkurs 3.2.10).

3.2.7 Nachteile der Paketvermittlung Genau in den Punkten, in denen sich die Paketvermittlung von der Leitungsvermittlung unterscheidet, liegen neben den bereits genannten Vorteilen auch ihre Nachteile: ¨ • Uberlast (Congestion) Da bei der Paketvermittlung keine dedizierten exklusiven Verbindungen festgelegt sind, kann es vorkommen, dass eine Vermittlungsstelle dem pl¨otzlichen Andrang der eingehenden Datenpakete nicht gewachsen ist, d.h. der vorhandene Zwischenspeicher l¨auft u¨ ber und in Folge gehen Datenpakete verloren. • Komplexes Kommunikationsprotokoll Die Daten¨ubertragung bei der Leitungsvermittlung l¨auft vollkommen transparent ab. Es spielt also absolut keine Rolle, auf welches Kommunikationsprotokoll sich Sender und Empf¨anger geeinigt haben. Dieser Transparenz der Kommunikation verdankt das Telefonsystem z.B. seine F¨ahigkeit, dass dort verschiedene Dienste wie Sprachkommunikation, Fax oder Datenkommunikation ohne großen Aufwand nebeneinander angeboten werden k¨onnen. Bei der Paketvermittlung dagegen m¨ussen sich alle Kommunikationsteilnehmer eines Netzes auf ein gemeinsames Netzwerkprotokoll festlegen, das z.B. die zu Grunde liegenden Datenpakete und Parameter wie Bitrate, Datenfragmentierung, etc. f¨ur den Kommunikationsvorgang festlegt. ¨ • Keine Dienstgutegarantie Ein weiterer Nachteil der Paketvermittlung besteht darin, dass ohne zus¨atzlichem ¨ Aufwand keine konstanten Bandbreiten f¨ur eine Ubertragung garantiert werden ¨ k¨onnen. Die Verz¨ogerung innerhalb einer Ubertragung kann in Abh¨angigkeit von der Auslastung der einzelnen Vermittlungsstellen schwanken und relativ groß werden. ¨ Neben der Verz¨ogerung durch die speichervermittelte Ubertragung kommen f¨ur die Pakete oft auch noch Wartezeiten in den Warteschlangen der Ausgabepuffer der Vermittlungsrechner hinzu, da sie dort abwarten m¨ussen, bis alle Pakete, die zuvor in die Warteschlange eingereiht wurden, versendet sind. Diese Verz¨ogerungszeiten sind ver¨anderlich und h¨angen von der jeweiligen Auslastung des Netzwerks ab.

3.2 Rechnernetze und Paketvermittlung

113

¨ Ubertragungszeit und Gesamtverz¨ ogerung ¨ Wieviel Zeit ben¨ otigt eine paketvermittelte Ubertragung von einem Host zum anderen? Nehmen wir an, ein Datenpaket der L¨ ange von l Bit soll versendet werden. Weiter sei angenommen, dass sich zwischen Absender A und Empf¨ anger B genau q Vermittlungsrechner befinden mit einer Bandbreite von r bps und dass keine stehende Verbindung aufgebaut wird. Desweiteren seien die Wartezeiten, die in der Warteschlange der einzelnen Vermittlungsrechner entstehen, vernachl¨ assigbar klein. Die Zeit, die dann ein Datenpaket vom Startrechner A zum ersten Vermittlungsrechner ben¨ otigt, betr¨ agt genau l/r Sekunden. Das Paket wird dann noch genau q − 1 mal weitergeleitet und zwischengespeichert, so dass die Gesamtverz¨ ogerung q · (l/r) betr¨ agt. In der Praxis sind jedoch die Verbindungsstrecken zwischen den einzelnen Rechnern von unterschiedlicher Bandbreite ri , 1 ≤ i ≤ q. Daher berechnet sich die Gesamtverz¨ ogerung td als q l td = ∑ . r i=1 i

¨ Abb. 3.11 Ubertragungszeit in paketvermittelten Netzwerken

3.2.8 Verbindungslose und verbindungsorientierte Netzwerkdienste Prinzipiell kann man innerhalb eines paketvermittelten Netzes verbindungslose und verbindungsorientierte Netzwerkdienste unterscheiden. Bei der bislang besprochenen Variante der paketvermittelten Netzwerke handelt es sich um einen verbindungslosen Netzwerkdienst, auch Datagramm-Netzwerk genannt, bei dem jedes Datenpaket mit Zusatzinformationen versehen auf einem eigenen Weg durch das Netzwerk vom Sender zum Empf¨anger transportiert wird. Ein Datenpaket, dass mit allen Informationen versehen ist, so dass es korrekt u¨ ber das Netzwerk zum Empf¨anger transportiert werden kann, wird auch als Datagramm bezeichnet. Im Gegensatz zum verbindungslosen Datagramm-Netzwerk werden in verbindungsorientierten Netzwerken Nachrichten zwar in einzelne Datenpakete zerlegt, bevor diese jedoch u¨ bertragen werden, wird eine sogenannte virtuelle Verbindung1 (Vir-

Tabelle 3.2 Vergleich Paketvermittlung und Leitungsvermittlung Eigenschaft

Leitungsvermittlung

Paketvermittlung

feste Verbindungsstrecke ja nein verf¨ ugbare Bandbreite konstant dynamisch variabel verschwendete Bandbreite ja nein ¨ store-and-forward Ubertragung nein ja jedes Paket folgt derselben Route nein ja vorheriger Verbindungsaufbau notwendig nicht n¨ otig Stau kann auftreten bei Verbindungsaufbau jederzeit Abrechnungsverfahren pro Zeiteinheit pro Paket 1 Man unterscheidet hier virtuelle Verbindungen auf der (hardware-n¨ aheren) Netzwerkschicht, wie z.B. bei ATM (Asynchronous Transfer Mode), Frame Relay oder X.25, die geschaltete Verbindungen (Switched Virtual Circuits) bzw. permanente Verbindungen (Permanent Virtual Circuits) zur

114

3 Grundlagen der Kommunikation in Rechnernetzen

tual Circuit, VC) aufgebaut und alle Pakete werden dann zwischen den beiden Kommunikationspartnern entlang dieser virtuellen Verbindung durch das Netzwerk transportiert. Eine Zuordnung der einzelnen virtuell geschalteten Verbindungen wird u¨ ber die Vermittlungsstellen im Netzwerk verwaltet, d.h. in der Phase des Verbindungsaufbaus, wird an jeder Vermittlungsstelle zwischen Sender und Empf¨anger ein Verbindungszustand“ festgelegt, der eine eindeutige Identifikation der Verbin” dung erlaubt. Eine eventuelle Vertauschung der Reihenfolge der einzelnen Pakete ist hier unm¨oglich. Sender und Empf¨anger tauschen auf dieser gegen¨uber dem Datagramm-Netzwerk abstrakteren Kommunikationsebene als Nachrichten sogenannte Bitstreams“ (auch Bytestreams) aus, d.h. die virtuelle Verbindung verbirgt ” die Unterteilung der ausgetauschten Datenstr¨ome in einzelne Datenpakete vor den Kommunikationspartnern. Die Zuordnung der vorhandenen Betriebsmittel ist hier ¨ starrer als bei den u¨ blichen Datagramm-Netzwerken und eine Reaktion auf Uberlast, Leitungs- oder Knotenausf¨allen kann dementsprechend nur weniger flexibel erfolgen. Verbindungsorientierte Datagramm-Netzwerke a¨ hneln leitungsvermittelten Netzwerken, da in beiden ein Verbindungsaufbau und -abbau außerhalb der eigentlichen Nutzdaten¨ubertragung stattfindet. Allerdings bieten leitungsvermittelte Netzwerke konstante Daten¨ubertragungsraten und Latenzzeiten, die bei verbindungsorientierten Datagramm-Netzwerken u¨ blicherweise variieren.

3.2.9 Dienstparadigmen von Rechnernetzen Die Organisation und Implementierung der Rechnerkommunikation in einem paketvermittelten Datennetz wird modular in einzelnen Schichten realisiert, die hierarchisch strukturiert von einem zunehmenden Grad an Abstraktion gekennzeichnet sind: Auf den unteren, Hardware-nahen Schichten werden die Datenpakete u¨ bertragen, die hierarchisch h¨oherstehenden, abstrakteren Schichten verf¨ugen u¨ ber Protokolle, die daf¨ur sorgen, dass die zu u¨ bertragende Nachricht in einzelne Datenpakete zerlegt und deren Versendung organisiert wird. Sie halten so Details der Daten¨ubertragung vom Nutzer fern und stellen ihm komfortablere und h¨oherwertige Dienste zur Verf¨ugung. Grunds¨atzlich wird bei diesen Diensten zwischen verbindungslosen (Connectionless Service) und verbindungsorientierten (Connection-Oriented Service) Diensten unterschieden.

3.2.9.1 Verbindungslose Dienste Diese Kategorie von Netzwerkdiensten ist am besten mit dem konventionellen Postnetz vergleichbar. Bevor ein Rechner eine Nachricht an einen anderen Rechner verVerf¨ugung stellen, und virtuelle Verbindungen auf der dar¨uberliegenden Transportschicht, wie z.B. beim Transmission Control Protocol (TCP), das auf einem Datagramm-Netzwerk aufbaut und die virtuelle Verbindung rein softwaretechnisch realisiert, auf die im Abschnitt 3.4.3 n¨aher eingegangen wird.

3.2 Rechnernetze und Paketvermittlung

115

senden kann, muss er diese in ein vorgegebenes Datenpaketformat u¨ berf¨uhren und mit einer Empf¨anger- und Absenderadresse versehen, vergleichbar einer geschriebenen Nachricht, die in einen Umschlag gesteckt wird, und auf dessen Außenseite die Empf¨angeradresse geschrieben wird. Ebenso, wie der Brief zur n¨achsten Annahmestelle der Post gebracht wird, u¨ bergibt der Rechner das fertige Datenpaket dann an das Netzwerk zur Zustellung, das es dann zum Empf¨anger bef¨ordert. Um den Verwaltungsaufwand so gering wie m¨oglich zu halten, u¨ bernimmt der verbindungslose Dienst keine Garantie, dass das Datenpaket tats¨achlich beim Empf¨anger ankommt bzw. unter welchen zeitlichen Rahmenbedingungen die Zustellung erfolgt. Im Gegensatz zum verbindungsorientierten Dienst wird keine Verbindung zwischen Sender und Empf¨anger geschaltet, die einzelnen Datenpakete werden verzugslos und unabh¨angig voneinander durch das Netzwerk transportiert. Ist also das Kommunikationsverhalten durch einen h¨aufigen Wechsel von Adressaten und kurze Nachrichtenl¨angen gekennzeichnet, bieten verbindungslose Dienste gegen¨uber verbindungsorientierten Diensten entscheidende Vorteile.

3.2.9.2 Verbindungsorientierte Dienste Der Betrieb eines verbindungsorientierten Dienstes kann mit dem Betrieb des herk¨ommlichen, analogen Telefonnetzes verglichen werden. Bevor der Nachrichtenaustausch zwischen zwei Rechnern beginnen kann, muss zuerst eine Verbindung zwischen diesen geschaltet werden, a¨ hnlich dem W¨ahlen einer Telefonnummer und dem dadurch ausgel¨osten Verbindungsaufbau zum angew¨ahlten Telefonteilnehmer. Sobald das Gegen¨uber den Kommunikationswunsch wahrgenommen und diesen akzeptiert hat, vergleichbar dem Abnehmen des Telefonh¨orers beim Klingeln des Telefons und der Meldung des angew¨ahlten Teilnehmers, besteht zwischen den beiden eine geschaltete Verbindung, die quasi exklusiv f¨ur die nun folgende Kommunikation – den Austausch von Datenpaketen – genutzt werden kann. Nach Beendigung der Kommunikation muss die geschaltete Verbindung wieder abgebaut werden. Ein verbindungsorientierter Dienst durchl¨auft also stets die drei Phasen: 1. Verbindungsaufbau, 2. Daten¨ubertragung und 3. Verbindungsabbau. Verbindungsorientierte Dienste u¨ ber paketvermittelte Netzwerke m¨ussen auf den dort verf¨ugbaren verbindungslosen Diensten aufsetzen, d.h. die Ressourcenzuteilung einer festen Verbindung ist tats¨achlich nur eine virtuelle und wird auf einer h¨oheren Schicht der modular organisierten Rechnerkommunikation dargestellt. Die verbindungsorientierten Dienste stellen dem Nutzer eine Schnittstelle bereit, die es ihm gestattet, diese virtuelle Verbindung exklusiv zu nutzen. Diese Schnittstelle schirmt den Nutzer von allen auf einer hierarchisch niedrigeren Schicht der Kommunikation ablaufenden Prozessen ab, wie z.B. Bildung, Adressierung und Transport von einzelnen Datenpaketen, und bietet ihm so einen sehr bequemen Kommunikationszugang.

116

3 Grundlagen der Kommunikation in Rechnernetzen

Die verbindungsorientierte Kommunikation u¨ ber eine so eingerichtete Datenverbindung muss nicht kontinuierlich fortlaufen, sondern kann vor¨ubergehend auch unterbrochen werden, bevor der Datenverkehr sp¨ater wieder aufgenommen wird. Die Verbindung bleibt f¨ur die gesamte Zeitdauer bestehen, bis zu dem Zeitpunkt, da einer der Kommunikationsteilnehmer explizit entscheidet, diese zu beenden (vergleichbar dem Auflegen des Telefonh¨orers). Bei einem verbindungsorientierten Dienst werden Netzwerkfehler unmittelbar bemerkt. F¨allt z.B. eine der Vermittlungsstellen entlang der geschalteten, virtuellen Verbindung aus, bricht die Verbindung zusammen und die Kommunikationsteilnehmer k¨onnen sofort reagieren. W¨ahrend bei verbindungslosen Diensten eine Abrechnung der in Anspruch genommenen Netzwerkleistung u¨ ber die Menge der versendeten Daten erfolgt, rechnen verbindungsorientierte Dienste in der Regel die Dauer der bestehenden Datenverbindung ab. Dieses Abrechnungsverfahren ist in der Praxis oft weniger aufw¨andig und einfacher zu realisieren. Andererseits ben¨otigt der Aufbau einer Verbindung bei der verbindungsorientierten Kommunikation relativ viel Zeit. Handelt es sich nur um eine kurze Nachricht, die ausgetauscht werden soll, kann der zeitliche Aufwand zum Aufbau der Verbindung die eigentliche Verbindungsdauer schnell u¨ bersteigen. Handelt es sich dagegen um eine l¨anger genutzte Verbindung, kommt der Vorteil zum Tragen, dass mit den Paketen weitaus weniger Verwaltungs- und Kontrollinformationen transportiert werden m¨ussen, als bei verbindungslosen Diensten. Ist bei einem verbindungsorientierten Dienst der Verbindungsaufbau erst einmal vorgenommen, wird den auszutauschenden Datenpaketen nur noch eine vom Netzwerk vergebene Verbindungsidentifikation (Connection Identifier) mitgegeben, die in der Regel viel k¨urzer ist als die Netzwerkadressinformation, die den Datenpaketen bei verbindungslosen Diensten mitgegeben werden muss. Die Nutzung verbindungsorientierter Dienste rentiert sich besonders, wenn Verbindungen zu einigen wenigen Kommunikationspartnern geschaltet werden, die jeweils u¨ ber eine l¨angere Zeitspanne hinweg genutzt werden. Man kann noch einen Schritt weitergehen und u¨ ber einen verbindungsorientierten Dienst auch eine dauerhafte Verbindung (persistente Verbindung) aufbauen. Wurden in den ersten Rechnernetzen noch Punkt-zu-Punkt-Verbindungen zur Herstellung einer dauerhaften Verbindung u¨ ber dedizierte physikalische Verbindungen (Kabel) geschaltet, kann dies heute durch die Einrichtung eines dedizierten virtuellen Informationskanals u¨ ber ein gemeinsam genutztes Netzwerk erfolgen. Die Konfiguration dieser Festverbindungen ist im nichtfl¨uchtigen Speicher der beteiligten Verbindungsrechner abgelegt und kann so auch nach einem Netzausfall sofort wieder aktiviert werden. Derartige dauerhafte Verbindungen k¨onnen u¨ ber Monate oder gar Jahre hinweg aufrecht erhalten bleiben. Aus Sicht der angeschlossenen Rechner erscheinen sie wie eine physikalische Punkt-zu-Punkt-Verbindung. Dauerhafte Verbindungen garantieren eine Verf¨ugbarkeit, die wahlfreie Verbindungen nicht bieten k¨onnen. Die Verbindung ist stets einsatzbereit und nutzbar, d.h. ein angeschlossener Rechner muss nicht erst warten, bis eine Verbindung zum Empf¨anger aufgebaut worden ist. Nat¨urlich ist diese Fixierung“ mit Einbußen an Flexibilit¨at verbunden. W¨ahlverbindungen wer”

3.2 Rechnernetze und Paketvermittlung

117

den nur dann geschaltet, wenn sie wirklich erforderlich sind. F¨ur die u¨ brige Zeit wird die W¨ahlverbindung abgebaut, so dass die zur Verf¨ugung stehende Bandbreite auch wieder von den anderen Netzteilnehmern genutzt werden kann.

3.2.10 Fehlererkennung und Fehlerkorrektur Um eine zuverl¨assige Daten¨ubertragung u¨ ber ein nicht immer fehlerfrei arbeitendes ¨ Ubertragungsmedium zu erm¨oglichen, m¨ussen Mechanismen zur automatischen Er¨ kennung und Korrektur von aufgetretenen Ubertragungsfehlern zum Einsatz kommen. Zur Fehlererkennung werden die einzelnen Datenpakete mit zus¨atzlichen In¨ formationen ausgestattet, die es erm¨oglichen, einen Ubertragungsfehler zu erkennen und aus denen sich im Fehlerfall zumindest bis zu einem gewissen Grad der korrekte Inhalt eines Datenpakets wieder rekonstruieren l¨asst. Diese Zusatzinformation, die nichts zum eigentlichen Inhalt der im Datenpaket u¨ bermittelten Information beitr¨agt, wird auch als Redundanz bezeichnet. Der Sender berechnet z.B. ¨ eine Prufsumme u¨ ber das zu versendende Datenpaket und h¨angt diese an das Paket an. Beim Empf¨anger angekommen, wendet dieser auf das empfangene Datenpaket (ohne angeh¨angte Pr¨ufsumme) dasselbe Verfahren zur Pr¨ufsummenbildung an und vergleicht den errechneten Wert mit dem vom Sender an das Datenpaket angef¨ugten Pr¨ufwert. Stimmen beide Werte u¨ berein, so ist das Paket mit hoher Wahrscheinlichkeit korrekt u¨ bertragen worden. Im Falle einer Nicht¨ubereinstimmung ist es bei ¨ der Ubertragung zu inhaltlichen Ver¨anderungen der u¨ bertragenen Daten gekommen. Der Empf¨anger kann das Datenpaket erneut vom Sender anfordern, wobei nicht die gesamte Nachricht, sondern lediglich das fehlerhafte Datenpaket erneut u¨ bertragen werden muss. Zwar werden Datenleitungen immer zuverl¨assiger, doch f¨uhren die sich verbreitenden drahtlosen Kommunikationstechnologien, wie z.B. Wireless LAN (WLAN) zu ¨ einer immensen Erh¨ohung der Ubertragungsfehler, die durch Rauschen oder andere St¨orungen verursacht werden. Der Empf¨anger ist dann oft nicht mehr in der Lage, aus den empfangenen Signalen das gesendete Datenpaket korrekt zu rekonstruieren. Gl¨ucklicherweise treten Fehler bei der drahtlosen Kommunikation, wenn sie auftreten, dann geh¨auft in sogenannten Bursts oder B¨undeln auf. W¨urden Fehler immer nur in isolierten Einzelbits auftreten, w¨are bei einer konstanten Fehlerrate von beispielsweise 0.01% pro Bit bei einer Paketgr¨oße von 10.000 Bits ann¨ahernd jedes einzelne Paket fehlerhaft und m¨usste erneut u¨ bertragen werden. Treten die Fehler dagegen in einem Burst von jeweils durchschnittlich 100 Fehlern auf, so sind lediglich ein oder zwei von 100 Paketen davon betroffen. ¨ Ein Maß f¨ur Ubertragungsfehler ist die sogenannte Bitfehlerrate, die sich berechnen l¨asst aus dem Verh¨altnis der fehlerhaft u¨ bertragenen Bits zur Gesamtanzahl der u¨ bertragenen Bits, gemessen u¨ ber einen l¨angeren Zeitraum. Tabelle 3.3 gibt einen ¨ ¨ Uberblick u¨ ber die Gr¨oßenordnung von Bitfehlerraten verschiedener Ubertragungsmedien. Methoden zur Fehlererkennung und -beseitigung k¨onnen oft nicht alle Feh-

118

3 Grundlagen der Kommunikation in Rechnernetzen

Tabelle 3.3 Bitfehlerwahrscheinlichkeiten ¨ Ubertragungsmedium Bitfehlerwahrscheinlichkeit (Gr¨ oßenordnung) Funk Fernsprechleitung Digitales Datennetz LAN (Koaxialkabel) Glasfaserkabel

10−1 bis 10−3 10−5 10−6 bis 10−7 10−9 10−12

ler korrekt erkennen. Fehlerkorrekturverfahren sollten deshalb so arbeiten, dass die verbleibende Restfehlerwahrscheinlichkeit m¨oglichst minimal ist. Um mit Fehlern effizient umgehen zu k¨onnen, wurden zwei grundlegende (redundanzvermehrende) Codierungsverfahren entwickelt: fehlererkennende Codes und ¨ eine damit verbundene Ubertragungswiederholung im Falle erkannter Fehler bzw. automatische Fehlerkorrektur durch fehlerkorrigierende Codes (zu Grundbegriffen der Codierung, siehe auch Kap. 4.2.1). Dazu wird die Originalnachricht mit einem zus¨atzlichen Fehlercode versehen, der keinen eigenen Nachrichtenwert besitzt, sondern nur der Fehlererkennung und Fehlerbehebung dient. Durch diese hinzugef¨ugte Redundanz k¨onnen ung¨ultige Nachrichten – in diesem Zusammenhang auch als Codeworte“ bezeichnet – erkannt ” werden, die keiner erlaubten Nachricht (Original-Codewort) entsprechen und des¨ halb auf einen Fehler in der Ubertragung hinweisen. Mit Hilfe fehlerkorrigierender Codes kann man, zumindest wenn nicht zu viele Fehler gleichzeitig auftreten, auf die tats¨achliche Ausgangsnachricht (OriginalCodewort) zur¨uckschließen. Im Vergleich zur Fehlererkennung erfordert die Fehlerkorrektur einen wesentlich h¨oheren Aufwand. Sie ist stets dann von N¨oten, wenn es im Fehlerfall sehr aufw¨andig ist, eine Neu¨ubertragung der u¨ bertragenen Nachricht anzufragen. Ist eine effiziente R¨uckfrage m¨oglich, dann ist der Einsatz eines fehlererkennenden Code ausreichend; als fehlerhaft erkannte Datenpakete k¨onnen erneut u¨ bermittelt werden. Welches Verfahren jeweils zum Einsatz kommt, ist abh¨angig von der Bitfehlerrate ¨ des Ubertragungsmediums. Ist diese sehr hoch, wie z.B. bei Mobilfunk-Daten¨ubertragungen, dann kommen aufw¨andigere, fehlerkorrigierende Verfahren zum Einsatz, da nach einer Fehlererkennung die Neu¨ubertragung ebenfalls wieder fehlerhaft sein kann und enge Zeitrestriktionen ein wiederholtes Senden verbieten. Ein weiterer ¨ Faktor ist die Daten¨ubertragungsrate des verwendeten Ubertragungsmediums. Ist diese groß genug, wie z.B. in einem schnellen Glasfasernetzwerk, dann f¨allt das wiederholte Senden eines fehlerhaft u¨ bertragenen Datenpakets nicht weiter ins Gewicht, und eine einfachere, fehlererkennende Kodierung kann verwendet werden. Exkurs 2 f¨uhrt ein in die theoretischen Grundlagen fehlererkennender und fehlerkorrigierender Codes und stellt exemplarisch Hamming-Kodierung und Pr¨ufsummenverfahren vor.

3.2 Rechnernetze und Paketvermittlung

119

Exkurs 2: Fehlererkennende und fehlerkorrigierende Codes Nachricht und Redundanz Wir betrachten den Aufbau eines beliebiges Datenpakets, in diesem Zusammenhang auch als Codewort bezeichnet. Das Codewort (Nachricht) hat also eine L¨ ange von n=m+r Bits und besteht aus den zu u atzlichen Bits, ¨bertragenden Nutzdaten (der Mitteilung) und zus¨ ¨ die die Erkennung eines Ubertragungsfehlers erm¨ oglichen (die Redundanz). Codewort: r+m

r

1

m

r

Mitteilung

Redundanz

Hamming-Abstand Betrachten wir zwei beliebige bin¨ are Codeworte gleicher L¨ ange, so l¨ aßt sich die Anzahl der Positionen, in denen die Bits nicht u ¨bereinstimmen, leicht ermitteln. Sei z.B. Codewort C1 1000100010001000 Codewort C2 1000000011000000 Die beiden Codeworte differieren in genau drei Positionen. Die Anzahl der Positionen, in denen sich zwei Codeworte a und b unterscheiden, bezeichnet man als Hamming-Abstand H(a,b) (nach Richard W. Hamming, 1915–1998) der beiden Codeworte. Die Bedeutung des Hamming-Abstands wird schnell klar: Wenn zwei Codeworte um n Bits differieren, k¨ onnen genau n Einzelbitfehler das eine Codewort in das andere verwandeln. Um den HammingAbstand von zwei gegebenen Codeworten zu ermitteln, verkn¨ upft man diese bitweise mit dem logischen XOR-Operator (⊕-Operator, 0 ⊕ 0 = 0, 1 ⊕ 1 = 0, 0 ⊕ 1 = 1 ⊕ 0 = 1) und summiert die Anzahl der Einsen im Ergebnis dieser Operation: n−1

H(a, b) =

∑ ai ⊕ bi

i=0

F¨ ur unser Beispiel ergibt sich eine Hamming-Abstand von H(a,b)=3: a 1000100010001000 b 1000000011000000 a

⊕ b 0000100001001000

Insgesamt kann es 2m verschiedene Mitteilungen der L¨ ange m geben. Unabh¨ angig davon, welches Verfahren zur Berechnung der Redundanz verwendet wird, kann nicht jedes der 2r+m theoretisch m¨ oglichen Codeworte auftreten. Mit Hilfe des Algorithmus, der die Redundanz errechnet, kann die Liste aller g¨ ultigen“ oder zul¨ assigen“ Codeworte erstellt werden. ” ” Das Codewort-Paar aus der Liste der zul¨ assigen Codeworte, das den kleinsten HammingAbstand besitzt, definiert den Hamming-Abstand des Codes. Dieser Hamming-Abstand des Codes gilt als Maßzahl f¨ ur dessen St¨ orsicherheit. Um in einem Codewort n-1 Fehler erkennen zu k¨ onnen, muss der verwendete Code mindestens eine Hamming-Abstand von n besitzen. In einem solchen Code ist es nicht m¨ oglich, dass n-1 Einzelbitfehler dazu f¨ uhren, dass das fehlerhafte Codewort mit einem anderen zul¨ assigen Codewort u onnen in einem Code mit Hamming-Abstand n ¨bereinstimmt. Auch k¨

120

3 Grundlagen der Kommunikation in Rechnernetzen

Einzelbitfehler, die weniger als (n-1)/2 Bits betreffen, automatisch korrigiert werden, indem man einfach zum empfangenen Codewort das n¨ achstliegende zul¨ assige Codewort sucht. Parit¨ atsbit Das einfachste Beispiel f¨ ur einen fehlererkennenden Code ist das Anh¨ angen eines Parit¨ atsbits. Das Parit¨ atsbit entspricht der Parit¨ at der 1-Bits im Codewort. Ist deren Anzahl gerade, dann ist das Parit¨ atsbit gleich 0, anderenfalls gleich 1.

Parit¨at(a) =

n−1 M

ai

i=0

F¨ ur a=1000100010001000 z.B. ist die Anzahl der 1-Bits gleich 4, a ist also also von gerader Parit¨ at. a wird um das Parit¨ atsbit p=0 erweitert, das tats¨ achlich zu u ¨bertragende Codewort ist a’=0100010001000100|0. Ein Code mit einem einzelnen Parit¨ atsbit hat den Hamming-Abstand 2 und kann dazu benutzt werden, einzeln auftretende Bitfehler, sogenannte Einzelbitfehler, zu erkennen. Codes, bei denen die Mitteilung unver¨ andert als Block bestehen bleibt und die Pr¨ ufbits einfach angeh¨ angt werden, heißen systematische Blockcodes. Fasst man die Bits mehrerer Codeworte in einer Matrix zusammen, kann man zus¨ atzlich zum horizontal ermittelten Parit¨ atsbit (Longitudinal Redundancy Check, LRC) auch spaltenweise die Parit¨ at bestimmen (Vertical Redundancy Check, VRC).

LRC 1 1 1 0 0 1 0 0 0 0 0 0 1 1 0 1 1 0 0 1 1 0 0 1 0 0 1 1 0 1 1 0 1 0 1 1

VRC 0 0 1 0 1 1 1 0 Bei gleichzeitigem Einsatz von LRC und VRC kann eine Fehlerkorrektur durchgef¨ uhrt werden, so lange pro Zeile und Spalte der Matrix h¨ ochstens ein Bit verf¨ alscht wurde. Wie groß muss die Redundanz r gew¨ ahlt werden, um sicherzustellen, dass jeder Einzelbitfehler bei einer Mitteilung der L¨ ange m erkannt werden kann? Betrachtet man ai , eine einzelne der 2m m¨ oglichen Mitteilungen, so gibt es nach Erg¨ anzung ai Ri mit der Redundanz Ri der L¨ ange r insgesamt n=m+r M¨ oglichkeiten, zu ai Ri unzul¨ assige Codeworte mit dem Hamming-Abstand 1 zu bilden. Man kann diese unzul¨ assigen Codeworte erzeugen, indem man einfach ein Bit nach dem anderen im Codewort ai Ri invertiert. Somit besitzt jede der 2m Mitteilungen n+1 verschiedene Bitmuster, die durch eventuelle Einzelbitfehler aus ihr entstehen k¨ onnen und nur ihr alleine zuzuordnen sind. Die Gesamtzahl der m¨ oglichen Bitmuster in unserem Code betr¨ agt 2n , es muss daher gelten

(n + 1)2m ≤ 2n . F¨ ur die Codel¨ ange n=r+m ergibt sich damit

(m + r + 1) ≤ 2r als eine Untergrenze f¨ ur die Anzahl r der ben¨ otigten Bits zur Entdeckung aller m¨ oglichen Einzelbitfehler.

3.2 Rechnernetze und Paketvermittlung

121

Hamming-Code Ein Code, der diesem Schema folgt und alle Einzelbitfehler erkennt, stammt von Richard Hamming selbst und ist nach ihm als Hamming-Code benannt. Alle Bits des Codeworts werden von 1 beginnend durchnummeriert. Dabei werden alle Bits, die mit einer Zweierpotenz nummeriert sind (1,2,4,8,16, etc.) als Pr¨ ufbits verwendet, w¨ ahrend die restlichen Bits (3,5,6,7,9,10, etc.) mit den m Bits der Mitteilung gef¨ ullt werden. Jedes Pr¨ ufbit steht jetzt f¨ ur die Parit¨ at einer ganzen Reihe von Einzelbits. Ein Bit kann somit in verschiedene Parit¨ atbits eingehen. Das Datenbit an der Stelle k, 1≤k≤n, wird den Pr¨ ufbits zugeteilt, die in der bin¨ aren Kodierung von k enthalten sind. Ist z.B. k=11, dann ist k=1+2+8=20 +21 +23 und das k-te Bit geht in die Parit¨ atsberechnung der Pr¨ ufbits 20 , 21 , und 23 ein.

Codewort n n-1

9

...

8

7

6

5

4

3

2

1

... 2k

23

22

21 20

Prüfbits ¨ Betrachten wir z.B. einen Hamming-Code zur Ubertragung von Codeworten, die jeweils aus m=11 Datenbits und r=4 Pr¨ ufbits zusammengesetzt sind. Dieser aus n=15 Bit langen Codew¨ ortern bestehende Code wird auch als 15/11-Code bezeichnet.

15

14

13

12

11

10

9

8

7

p3

6

5

4

p2

3

2

1

p1 p0

Die Pr¨ ufbits seien mit p0 - p3 bezeichnet, Bits mit c1 - c15 durchnumeriert. Entsprechend der angegebenen Regel zur Erzeugung der Pr¨ ufbits, werden diese folgendermaßen gebildet:

p0 p1 p2 p3

= c3 ⊕ c5 ⊕ c7 ⊕ c9 ⊕ c11 ⊕ c13 ⊕ c15 = c3 ⊕ c6 ⊕ c7 ⊕ c1o ⊕ c11 ⊕ c14 ⊕ c15 = c5 ⊕ c6 ⊕ c7 ⊕ c12 ⊕ c13 ⊕ c14 ⊕ c15 = c9 ⊕ c10 ⊕ c11 ⊕ c12 ⊕ c13 ⊕ c14 ⊕ c15

Zur Verdeutlichung der Interaktion der einzelnen Pr¨ ufbits (Position 1, 2, 4 und 8) werden diese in Tabellenform dargestellt. Pos 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 Parit¨ at p0 p1 p2 p3

x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x x

0 0 0 0

Alle Pr¨ ufbits ergeben sich aus jeweils 7 Koeffizienten. Berechnet man die Parit¨ at u ¨ber ein Pr¨ ufbit pi zusammen mit seinen zugeh¨ origen Koeffizienten, muss diese stets gerade sein, also pi ⊕ ci1 ⊕ . . . ⊕ ci1 =0 (siehe letzte Spalte der Tabelle). Angenommen, es soll die folgende Bitfolge u ¨bertragen werden: 00010111001. Zusammen mit den berechneten Pr¨ ufbits p0 - p3 ergibt sich das Codewort 000101111000111. Sei weiter

122

3 Grundlagen der Kommunikation in Rechnernetzen

angenommen, dass bei der Daten¨ ubertragung ein Fehler an Position 7 auftritt, also c7 invertiert wird, dann erreicht den Empf¨ anger das fehlerhafte Codewort 000101110000111. ¨ Zur Uberpr¨ ufund und Korrektur des empfangenen Codewortes kann dieses wieder in der angegebenen Tabellenform betrachtet werden: Pos 15 14 13 12 11 10 9 8 7 6 5 4 3 2 1 Parit¨ at C

0 0 0 1 0 1110000111

p0 p1 p2 p3

0 0 0 1 0 0 1 1 1–F 0 0 0 1 00 11 1–F 0 0 0 1 0000 1–F 0 0 0 1 0 111 0–ok

¨ Die Uberpr¨ ufung der Parit¨ at f¨ ur p0 - p2 ergibt jeweils den fehlerhaften Wert 1, lediglich p4 ist korrekt berechnet worden. Die geschickte Wahl der Zusammenstellung der Pr¨ ufbits macht jetzt eine exakte Lokalisierung des aufgetretenen Einzelbitfehlers m¨ oglich. Lediglich die Stelle c7 vermag als Einzelbitfehler die Berechnung der Pr¨ ufbits p0 - p2 zu verf¨ alschen. Addiert man die Zweierpotenzen der Pr¨ ufbitindizes (22 +21 +20 = 4+2+1 = 7) erh¨ alt man die fehlerhafte Stelle. Auf diese Weise kann jeder Einzelbitfehler des Codes erkannt und behoben werden. ¨ Ein Algorithmus zur Uberpr¨ ufung des korrekten Empfangs und evtl. Korrektur eines Hamming-Codes k¨ onnte folgendermaßen ablaufen: F¨ ur das empfangene Codewort wird ein Z¨ ahler z mit dem Wert 0 initialisiert, z=0. Daraufhin wird die Berechnung f¨ ur jedes Pr¨ ufbit pi wiederholt, um zu u ufen, ob dieses die korrekte Parit¨ at enth¨ alt. Stimmt die Be¨berpr¨ ahler hinzuaddiert, z := rechnung nicht mit dem gesetzten Pr¨ ufbit pi u ¨berein, wird i zum Z¨ z+i. Sind alle Pr¨ ufbits derart nachgepr¨ uft und enth¨ alt der Z¨ ahler den Wert 0 (z=0), dann ¨ war die Ubertragung korrekt und das n¨ achste Datenpaket kann u uft werden. Ist der ¨berpr¨ Z¨ ahler jedoch ungleich 0 (z=k, k6=0), dann enth¨ alt er genau die Position des fehlerhaften, invertierten Bits ck . ¨ Uber das Kodierungsschema des Hamming-Codes ergibt sich ein Hamming-Abstand von δmin =3 als minimale Distanz zwischen zwei beliebigen zul¨assigen Codeworten. Daher ist es mit dem Hamming-Code m¨ oglich, einzeln auftretende Einzelbitfehler zu korrigieren und doppelt auftretende Einzelbitfehler zu erkennen. Der Hamming-Code kam lange Zeit in den Routinen zum Hauptspeicherzugriff in Computern zum Einsatz. Allerdings ist dieses Verfahren nur f¨ ur kurze Codew¨ orter rentabel, so dass heute andere Verfahren, wie z.B. Matrix-Pr¨ ufsummenverfahren zum Einsatz kommen Pr¨ ufsummenverfahren Eine weitere Idee zur Fehlererkennung, die in der Praxis h¨ aufig angewandt wird, ist die Ermittlung von Pr¨ ufsummen. Dabei werden die durch die u ¨bertragenen Bitfolgen dargestellten Zeichen als numerische Werte interpretiert, zu einzelnen Bl¨ ocken zusammengefasst und deren Summe berechnet. Als Bin¨ arzahl kodiert wird diese Pr¨ ufsumme einfach mit an die zu u angt. Pr¨ ufsummenverfahren werden z.B. im Internet-Protokoll ¨bertragenden Daten angeh¨ IP verwendet. Das bekannteste Verfahren ist die sogenannte zyklische Redundanz¨ uberpr¨ ufung (Cyclic Redundancy Check, CRC, auch als Polynomialcode bezeichnet). Die Grundidee im CRC-Verfahren ist es, die zu u ¨bertragenden Bits der Mitteilung als Koeffizienten ui , 0≤i≤m-1, eines Polynoms aufzufassen, die entweder 0 oder 1 sein k¨ onnen. Die m Nutzbits der Mitteilung werden also wie folgt interpretiert:

M(x) = um−1 xm−1 + um−2 xm−2 + . . . + u1 x + u0 . Das Polynom M(x) ist vom Grad m-1. Die Mitteilung 11000101 hat z.B. genau 8 Bit und erzeugt das Polynom M(x)=x7 +x6 +x2 +1. Die Rechenregeln f¨ ur diese Polynome entsprechen den u orper mit der Charakteristik 2 (IF2 ), Addition und ¨blichen Rechenregeln in einem K¨

3.2 Rechnernetze und Paketvermittlung

123

Subtraktion entsprechen der XOR-Operation. Die Division entspricht exakt dem Verfahren f¨ ur Bin¨ arzahlen, nur dass die Subtraktion hier wieder als XOR berechnet wird. Das Polynom M(x) wird nun durch ein gemeinsam von Sender und Empf¨ anger verwendetes Generatorpolynom G(x) dividiert, und der Divisionsrest bildet die anzuh¨ angende Blockpr¨ ufsumme. Das Generatorpolynom ist vom Grad r, das erste und das letzte Bit m¨ ussen ungleich Null sein, gr ,g0 6=0:

G(x) = gr xr + gr−1 xr−1 + . . . + r1 x + r0 . An die Mitteilung werden jetzt r Nullbits angeh¨ angt, was dem Polynom xr M(x) entspricht. xr M(x) wird unter Verwendung der Rechenregeln f¨ ur endliche K¨ orper durch G(x) dividiert. Dabei entsteht ein Restpolynom R(x), das h¨ ochstens vom Grad r-1 ist. Die Koeffizienten von R(x), rr−1 , . . . ,r0 , werden an die Mitteilung angeh¨ angt. Somit entspricht der zu u ¨bertragenden Nachricht das Polynom N(x)=xr M(x)-R(x). Dieses Polynom ist jetzt durch G(x) teilbar. Wird N(x) fehlerfrei u ¨bertragen, so berechnet der Empf¨ anger N(x)/G(x) und erh¨ alt den Rest 0. Es ist klar, dass N(x) auf alle F¨ alle

Nachricht: Generator: Multipliziere Nachricht mit x4 : Ermittlung des Divisionsrests:

Zu übermittelndes Codewort:

1101011011 k= 4, G(x) = x4 + x1+ 1 , (d.h. 10011) 11010110110000

11010110110000 : 10011 10011 10011 10011 0000010110 10011 0010100 10011 001110 Divisionsrest 11010110111110

Abb. 3.12 CRC-Pr¨ufsummenverfahren durch G(x) teilbar ist, denn f¨ ur jedes Divisionsproblem gilt: Wenn man vom Dividenden den Divisionsrest abzieht, so ist das Ergebnis der Subtraktion immer durch den Divisor teilbar. ¨ Um jetzt den Nutzen der Methode zu analysieren, nehmen wir an, dass in der Ubertragung ¨ von N(x) tats¨ achlich ein Ubertragungsfehler auftritt. Anstelle des Bitstrings N(x) erh¨ alt der Empf¨ anger die fehlerhafte Nachricht N(x)+E(x). Jedes 1-Bit in E(x) korrespondiert zu ¨ einem Einzelbitfehler, also einer Stelle in N(x), die durch den Ubertragungsfehler invertiert wurde. Enth¨ alt E(x) k 1-Bits, so sind k Einzelbitfehler aufgetreten. Der Empf¨ anger dividiert nun die empfangene und um die Pr¨ ufsumme erweiterte Nachricht durch G(x), d.h. (N(x)+E(x))/G(x). Da N(x)/G(x)=0, ist das Ergebnis gleich E(x)/G(x). Fehler, die an exakt den Stellen auftreten, an denen das Generatorpolynom G(x) ebenfalls 1-Bits enth¨ alt, werden u ¨bersehen. Alle anderen aber werden erkannt.

124

3 Grundlagen der Kommunikation in Rechnernetzen

Tritt ein Einzelbitfehler auf, ist also E(x)=xi , wobei i angibt, welches Bit der Nachricht fehlerhaft ist, so kann das erkannt werden, wenn das Generatorpolynom so gestaltet ist, dass es mindestens 2 Terme enth¨ alt, damit E(x) niemals durch G(x) teilbar ist. Alle Einzelbitfehler k¨ onnen also erkannt werden, wenn das Generatorpolynom mindestens zwei Terme enth¨ alt. Treten zwei isolierte Einzelbitfehler auf, so dass E(x)=xi +xj , i>j, dann ist E(x)=xj (xi−j +1). Wenn G(x) nicht durch x teilbar ist, dann k¨ onnen alle derartigen Doppelfehler erkannt werden, falls G(x) so gew¨ ahlt wird, dass xk +1 nicht durch G(x) teilbar ist, f¨ ur k≤i-j (wobei i-j durch die Paketgr¨ oße beschr¨ ankt ist). In [232] werden einfache Beispielpolynome angegeben, wie z.B. x15 +x14 +1, die von keinem Polynom der Form xk +1 geteilt werden f¨ ur k1, dann ist die r ¨ durchschnittliche Datenankunftsrate h¨ oher als die Ubertragungsrate der angeschlossenen Leitung, d.h. die Warteschlange w¨ achst bis ins Unendliche an. Man muss also stets darauf achten, dass I ≤ 1 gilt. Betrachten wir nun den Fall I ≤ 1 genauer: Die Wartezeit wird hier dadurch bestimmt, wie die Datenpakete in der Warteschlange ankommen. Erreichen die Datenpakete die Warteschlange in periodischem Abstand, d.h. kommt alle l/r Sekunden ein Paket an, f¨ allt keine Warteschlangenverz¨ ogerung an. Wenn die Datenpakete aber wie in der Praxis geh¨ auft in Bursts eintreffen, dann kann eine signifikante Warteschlangenverz¨ ogerung entstehen: Angenommen, n Pakete treffen gleichzeitig in einem konstanten Intervall von (l/r)·n Sekunden ein. Das erste Paket kann sofort versendet werden, f¨ ur seine Wartezeit gilt dqueue1 = 0. Das zweite Paket muss bereits dqueue2 = l/r Sekunden warten, w¨ ahrend das letzte Paket mit dqueuen = (n-1)·(l/r) Sekunden die l¨angste Wartezeit in Kauf nehmen muss. In der Realit¨ at stellt die Ankunft des Datenpaketes einen Zufallsprozess dar. Der Abstand zwischen den einzelnen Paketen ist nicht konstant, sondern umfasst eine zuf¨ allig lange Zeitspanne. Die Datenintensit¨ at I allein reicht hier f¨ ur eine vollst¨ andige und wirklichkeitsnahe Beschreibung der statistischen Verteilung der Wartezeiten nicht mehr aus. Ausgefeiltere mathematische Methoden sind zu ihrer Beschreibung erforderlich. Die Datenintensit¨ at kann aber zumindest beitragen, ein intuitives Verst¨ andnis f¨ ur die Warteschlangenverz¨ ogerung zu entwickeln. Ist die Intensit¨ at nahe Null, dann ist die Wartezeit vernachl¨ assigbar. Ist die Intensit¨ at na¨ he Eins, dann treten Zeitintervalle auf, in denen die Ankunftsrate die Ubertragungsrate u ussen in der Warteschlange verweilen. N¨ ahert sich die In¨bersteigt, und Datenpakete m¨ tensit¨ at weiter der Eins, so w¨ achst die Warteschlangenverz¨ ogerung rapide an. Eine nur kleine prozentuale Erh¨ ohung der Intensit¨ at kann dann zu einem immensen Wachstum der Warteschlangenverz¨ ogerung f¨ uhren. Paketverlust Bislang sind wir in unseren Betrachtungen von der vereinfachenden Annahme ausgegangen, dass unbegrenzt lange Warteschlangen verf¨ ugbar sind. Das ist in der Praxis nat¨ urlich anders, die Warteschlangenkapazit¨ at ist stets beschr¨ ankt. Die Warteschlange kann also auch nicht bis ins Unendliche wachsen, wenn sich die Datenintensit¨ at der Eins n¨ ahert. Findet ein ankommendes Paket die Warteschlange gef¨ ullt vor und steht kein weiterer Speicherplatz

134

3 Grundlagen der Kommunikation in Rechnernetzen

mehr zur Verf¨ ugung, dann kann der Vermittlungsrechner das Datenpaket nicht annehmen, d.h. das Paket wird ignoriert und geht infolgedessen verloren. F¨ ur die Endsysteme stellt sich das als Paketverlust dar, denn das Paket wurde versendet, kam aber nie an seinem Bestimmungsort an. Der Anteil an verlorenen Paketen steigt, sobald die Datenintensit¨ at w¨ achst. Deshalb wird die Leistungsf¨ ahigkeit eines Netzrechners neben der Angabe der durchschnittlichen Verz¨ ogerungszeit auch durch die Wahrscheinlichkeit, mit der ein Paketverlust auftritt, quantifiziert. Weiterf¨ uhrende Literatur: D. Bertsekas, R. Gallagher: Data Networks, 2nd Ed., Prentice Hall, Englewood Cliffs, NJ, USA (1991) J. N. Daigle: Queueing Theory for Telecommunications, Addison-Wesley, Reading MA, USA (1991) L. Kleinrock: Queueing Systems, Vol1, John Wiley, New York, NY, USA (1975) U. Black: Emerging Communications Technologies, 2nd Ed., Prentice Hall, Upper Saddle River, MA, USA (1997)

Tabelle 3.5 Erforderliche Mindestdatenraten f¨ur verschiedene Anwendungen Anwendung

erforderliche Datenrate

¨ E-Mail-Ubertragung 0,3 bis 9,6 kbps Mobiltelefonie (GSM) 9,6 kbps Digitale Sprach¨ ubertragung 64 kbps Audiosignale (komprimiert) 64 bis 256 kbps Audiosignale (unkomprimiert) 1,4 Mbps Videosignale (komprimiert) 0,768 bis 1,4 Mbps Videosignale (unkomprimiert) 2 bis 10 Mbps Videosignale (hohe Qualit¨ at, z.B. Telemedizin) bis 50 Mbps Videosignale (HDTV unkomprimiert) bis 2 Gbps

3.4 Kommunikationsprotokolle Die Hardware eines Netzwerkes setzt sich aus Komponenten zusammen, deren Aufgabe darin besteht, Bits von einem Rechner zu einem anderen zu u¨ bertragen. W¨urde man die Rechnerkommunikation ausschließlich auf dieser Ebene organisieren wollen, w¨are das vergleichbar mit der Programmierung von Rechnern in einer rudiment¨aren Maschinensprache, d.h. unter ausschließlicher Verwendung von Nullen und Einsen, was den Aufwand und die Komplexit¨at der zu bew¨altigenden Aufgaben ¨ unbeherrschbar machen w¨urde. Ahnlich wie in der Programmierung von Rechnern wurden deshalb zur Steuerung und Nutzung von Rechnernetzen komplexe Softwaresysteme geschaffen, mit deren Hilfe Rechnernetze auf bequeme Art und Weise von einer h¨oheren Abstraktionsebene aus gesteuert und genutzt werden k¨onnen.

3.4 Kommunikationsprotokolle

135

Leistungskenngr¨ oßen von Kommunikationsnetzwerken

• Bandbreite (Bandwidth) ¨ Abh¨ angig von den physikalischen Eigenschaften eines Ubertragungsmediums gibt die Bandbreite in der Telekommunikations- und Nachrichtentechnik einen bestimmten Frequenzbereich an, zwischen dem u ubertragung ¨berhaupt eine Signal- bzw. Daten¨ m¨ oglich ist. Die Bandbreite wird bestimmt durch eine Maximalfrequenz, angegeben in Hertz (Hz), mit der eine rekonstruierbare Daten¨ ubertragung stattfinden kann. Im t¨ aglichen Sprachgebrauch wird die Bandbreite h¨ aufig verwechselt mit der Datenmen¨ ge, die u pro Sekunde gesendet werden kann. ¨ber ein Ubertragungsmedium • Datenrate (Data Rate) In Abh¨ angigkeit von der zur Daten¨ ubertragung verwendeten Signalkodierung ist die ¨ zur Verf¨ ugung stehende Bandbreite eines Ubertragungsmediums beschr¨ ankt und es kann lediglich eine bestimmte Daten¨ ubertragungsleistung (Datenrate) erreicht werden. Die Datenrate wird in Bits pro Sekunde (bps) gemessen. • Durchsatz (Throughput) Bezeichnet die tats¨ achliche Anzahl der pro Zeiteinheit auf einer Teilstrecke des Netzwerks u ucksichtigt auftretende Verz¨ ogerun¨bertragenen Daten. Der Durchsatz ber¨ gen, wie z.B. die Signallaufzeit eines Signals auf einer physikalischen Leitung. • Laufzeit (Delay) ¨ Die Laufzeit beschreibt das Zeitintervall, das ein Signal ben¨ otigt, um eine Ubertragungsstrecke zur¨ uckzulegen. Die Laufzeit h¨ angt von der Signalausbreitungsge¨ schwindigkeit des jeweiligen Ubertragungsmediums ab. Liegen zwischen Sender und Empf¨ anger Zwischensysteme, f¨ uhrt dies zu weiteren Laufzeitverz¨ ogerungen. In den Zwischensystemen wird diese Laufzeitverz¨ ogerung durch die Verarbeitungsleistung des Zwischensystems und die Wartezeit in den Ausgangspuffern bestimmt. • Antwortzeit (Response Time) Bei bidirektionalen Datenverbindungen initiiert das Aussenden einer Nachricht in der Regel unmittelbar eine Antwort des Empf¨ angers. Die Antwortzeit berechnet sich aus der Zeitspanne, die vom Absenden des ersten Bits der Nachricht bis zum Empfang des letzten Bits der Antwort, vergeht. Die minimale garantierte Antwortzeit eines Netzwerks entspricht der sogenannten Netzumlaufzeit (Round Trip Time) und wird durch die maximal zu u uckende Distanz (bzw. langsamste Verbindung) be¨berbr¨ stimmt. • Verz¨ ogerung-Durchsatz-Produkt (Delay-Throughput Product) Bezieht sich diese Angabe ausschließlich auf die verwendete Hardware, wird sie oft als Verz¨ ogerung-Bandbreite-Produkt angegeben. Dieses Produkt misst das Datenvolumen, das sich zu einem gegebenen Zeitpunkt im Netzwerk befinden kann. In einem Netz mit Durchsatz T und Verz¨ ogerung D befinden sich zu einem gegebenen Zeitpunkt maximal T×D Bits im Transit. Abb. 3.14 Leitungskenngr¨oßen von Kommunikationsnetzwerken

So kommt der Nutzer, wie auch die meisten Anwendungsprogramme, die u¨ ber das Netzwerk kommunizieren, um Daten auszutauschen und Dienste anzubieten, lediglich mit dieser Netzwerk-Software in Kontakt und nur a¨ ußerst selten direkt mit der darunter verborgenen Netzwerk-Hardware.

136

3 Grundlagen der Kommunikation in Rechnernetzen

3.4.1 Protokollfamilien Zur Kommunikation m¨ussen sich – nicht nur im Falle der digitalen Kommunikation – alle kommunizierenden Parteien auf festgelegte Regeln zum Austausch von Nachrichten einigen. Dies betrifft sowohl die verwendete Sprache, als auch alle Verhaltensregeln, die eine effiziente Kommunikation erst erm¨oglichen. Diese Verhaltensregeln werden in der Fachsprache unter dem Begriff Kommunikationsprotokoll oder Protokoll zusammengefasst. Ein Kommuniktionsprotokoll legt sowohl das Format der durch die Kommunikationspartner auszutauschenden Nachrichten fest und spe¨ zifiziert s¨amtliche Aktionen, die zur Ubermittlung dieser Nachrichten notwendig sind. Im Falle der Kommunikation in Rechnernetzen heißt die Software, mit der das Netzwerkprotokoll auf einem Rechner implementiert wird, Protokoll-Software. Anstelle riesige, hoch komplexe und universelle Netzwerkprotokolle bereitzustellen, die s¨amtliche anfallenden Aufgaben der Netzwerk-Kommunikaton regeln, wurde das Problem der Netzwerk-Kommunikation nach dem Prinzip Teile-und-Herr” sche“ (divide et impera, divide and conquer) in eine Vielzahl einzeln handhabbarer Teilprobleme zerlegt, zu deren L¨osung jeweils problemspezifische (Teil-)Protokolle bereitgestellt werden. Diese Zerlegung in einzelne Teilprobleme ist sinnvoll, wenn man sich vor Augen f¨uhrt, wieviele verschiedenartige Komplikationen bei der Rechnerkommunikation auftreten k¨onnen und gel¨ost werden m¨ussen (siehe Abb. 3.15). Die verschiedenen Teilprobleme werden von speziellen Protokollen abgehandelt, die aber – und dies ist das zweite zu l¨osende, in seiner Komplexit¨at nicht zu untersch¨atzende Problem – alle reibungslos ineinandergreifen und zusammenarbeiten m¨ussen. Um dieses Zusammenspiel zu gew¨ahrleisten, wird die Entwicklung der Netzwerkprotokoll-Software als eine umfassend zu l¨osende Gesamtaufgabe angesehen, die in Form der Bereitstellung einer zusammengeh¨origen Familie von Protokollen (Protocol Suites) gel¨ost wird, in der alle Einzelprotokolle effizient miteinander interagieren und im Zusammenspiel das Gesamtproblem der NetzwerkKommunikation l¨osen. Einige der popul¨arsten, zum Teil bereits historischen Protokollfamilien sind in Tabelle 3.6 zusammengestellt. Zwar beinhalten die unterschiedlichen Protokollfamilien viele gemeinsame Konzepte, doch wurden sie in der Regel unabh¨angig voneinander entwickelt und sind daher nicht kompatibel. Dennoch ist es m¨oglich, verschiedene Protokollfamilien gleichzeitig auf den Rechnern im Netzwerk einzusetzen, und diese alle dieselbe physikalische Netzschnittstelle nutzen zu lassen, ohne dass es dabei zu St¨orungen kommt.

3.4.2 Schichtenmodell Um die Protokoll-Designer in ihrer Arbeit zu unterst¨utzen, wurden Werkzeuge und Modelle entwickelt, die den Gesamtprozess der Netzwerk-Kommunikation feingliedrig aufschl¨usseln und hierarchisch aufeinander aufbauend anordnen. So werden klare Schnittstellen zwischen den einzelnen Hierarchiestufen festgelegt, die die weitgehend unabh¨angige Entwicklung und Verbesserung der auf diesen Stufen je-

3.4 Kommunikationsprotokolle

137

Fehlerquellen in Kommunikationsnetzwerken Kommunizieren viele Rechner in einem gemeinsam genutzten Kommunikationsnetzwerk miteinander, k¨ onnen zahlreiche Probleme auftreten, die alle durch die Netzwerkprotokoll-Software bew¨ altigt werden m¨ ussen. Wir z¨ ahlen hier nur einige wenige auf:

• Hardware-Fehler Ein Host-Rechner oder ein Zwischensystem, wie z.B. ein Router, k¨ onnen ausfallen, weil ein Defekt in der Hardware aufgetreten oder das Betriebssystem abgest¨ urzt ist. Auch eine Netzwerkverbindung kann versehentlich getrennt worden sein. Die Protokoll-Software muss in der Lage sein, diese Fehler zu erkennen und nach einem Neustart der fehlerhaften Systeme wieder f¨ ur das reibungslose Funktionieren der Kommunikation zu sorgen. ¨ • Netzwerk-Uberlastung (Netzwerkstau, Network Congestion) Auch f¨ ur den Fall, dass die Netzwerk-Hardware fehlerfrei funktioniert, ist die Kapazit¨ at eines Netzwerks noch immer beschr¨ ankt durch die Leistungsf¨ ahigkeit der ¨ verwendeten Systemkomponenten. Wird das Datenaufkommen zu groß, treten Uberlastsituationen (Congestions) auf, und im Extremfall kann der gesamte Verkehr im Netzwerk zum Erliegen kommen. Die Protokoll-Software muss deshalb in der Lage sein, derartige Stausituationen zu erkennen und die betroffenen Bereiche des Netz¨ werks zu umgehen, damit sich die Uberlast wieder aufl¨ osen kann. • Verz¨ ogerungen und Paketverlust (Packet Delay and Packet Loss) Es kann vorkommen, dass einzelne Datenpakete extreme Verz¨ ogerungen durch Wartezeiten an den Vermittlungssystemen erfahren oder sogar verloren gehen. Die Protokoll-Software muss in der Lage sein, mit derartigen Verz¨ ogerungen und Datenverlusten umzugehen. • Verf¨ alschung der Daten (Data Corruption) ¨ Entlang der Ubertragungsstrecke sind u ¨ber Netzwerke gesendete Daten physikalischen St¨ orquellen wie Interferenzen oder elektromagnetischer Strahlung ausgesetzt, die ebenso wie das Fehlverhalten der beteiligten Hardware dazu f¨ uhren k¨ onnen, dass Daten beim Transport ver¨ andert und dadurch unbrauchbar werden. ProtokollSoftware muss in der Lage sein, auch solche Fehler zu erkennen und entsprechende Korrekturmaßnahmen einzuleiten. • Duplizierte Datenpakete und vertauschte Reihenfolge In einem paketvermittelten Netzwerk werden die Datenpakete unabh¨ angig voneinander u oglicherweise verschiedene Routen geleitet. Dabei k¨ onnen die Datenpakete ¨ber m¨ leicht aus der urspr¨ unglichen Reihenfolge gebracht, oder es k¨ onnen einzelne Datenpakete u ¨ber die Vermittlungssysteme repliziert werden. Die Protokoll-Software muss u ugen, die duplizierten Datenpakete zu erkennen und auszu¨ber Mechanismen verf¨ filtern, sowie die urspr¨ ungliche Reihenfolge der Datenpakete wieder herzustellen. Abb. 3.15 Einige Komplikationen, die bei der Kommunikation im Netzwerk anfallen k¨onnen

weils angesiedelten Netzwerkprotokolle erm¨oglichen und so weit wie m¨oglich vereinfachen. Das bekannteste dieser Modelle ist das Schichtenmodell (Layering Model, Protocol Stack) (siehe Abb. 3.17). Der gesamte Netzwerk-Kommunikationsprozess wird dabei in einzelne u¨ bereinander angeordnete Schichten (Layers) aufgeteilt, wobei jede Schicht ein bestimmtes Teilproblem der Netzwerkkommunikation adressiert und mit jeder Schicht eine neue Abstraktionsebene der Kommunikation hinzugef¨ugt wird. Im Idealfall konstruiert der Protokoll-Designer daraus eine Proto-

138

3 Grundlagen der Kommunikation in Rechnernetzen

Tabelle 3.6 Beispiele f¨ur Protokollfamilien Hersteller

Protokollfamilie

Novell Corporation Banyan Systems Corporation Apple Computer Corporation Digital Equipment Corporation IBM viele

Netware VINES AppleTalk DECNET SNA TCP/IP

kollfamilie, den sogenannte Protokollstapel, bei dem sich die einzelnen Protokolle genau der auf einer Schicht zu l¨osenden Aufgaben annehmen. ¨ Prinzipiell ist in einem solchen Schichtenmodell die Ubertragung einer Nachricht von einem Anwendungsprogramm auf einem Rechner zu einem Anwendungsprogramm auf einem anderen Rechner so organisiert, dass die Nachricht u¨ ber die verschiedenen Protokollschichten auf dem Ursprungsrechner von oben nach unten ¨ durchgereicht und teilverarbeitet wird, dann physikalisch u¨ ber das Ubertragungsmedium u¨ bertragen und am Bestimmungsrechner dieselben Protokollschichten in umgekehrter Reihenfolge durchlaufend schließlich an die Anwendung u¨ bergeben wird (siehe Abb. 3.16).

Schicht n

Sender

Empfänger

Schicht n





Schicht 2

Schicht 2

Schicht 1

Schicht 1

Netzwerk

Abb. 3.16 Daten¨ubertragung u¨ ber einen Protokollstapel

Im Schichtenmodell ist jede Schicht f¨ur die L¨osung eine bestimmten Teils der Aufgaben verantwortlich, die im Rahmen der Netzwerk-Kommunikation anfallen. Zu diesem Zweck werden beim sendenden Rechner auf jeder einzelnen Schicht des Protokollstapels die zur L¨osung dieser Aufgabe notwendigen Kontroll- und Steuerinformationen zu den zu u¨ bertragenden Daten hinzugef¨ugt (siehe Abb. 3.18). Beim empfangenden Rechner werden diese Zusatzinformationen von der zur jeweiligen Schicht korrespondierenden Protokoll-Software ausgelesen und weiterverarbeitet, so dass die zu u¨ bertragenden Daten am Ende korrekt abgeliefert werden k¨onnen.

3.4 Kommunikationsprotokolle

139

Allgemeines zu Schichtenmodellen Schichtenmodelle spielen in der Kommunikationstechnik, aber auch in anderen Gebieten der Informatik eine bedeutende Rolle. In abgewandelter Darstellung entsprechen diese auch dem Schalenmodell, das anstelle aus hierarchisch aufeinander gelagerten? Schichten aus einzelnen Schalen besteht.

Schichtenmodell

Schalenmodell

Folgende Gr¨ unde rechtfertigen den Einsatz eines solchen Modells:

• Teile und Herrsche (Divide et Impera / Divide and Conquer) Nach dieser Strategie wird ein komplexes Problem in einzelne Teilprobleme zerlegt, die jedes f¨ ur sich betrachtet, einfacher handhabbar und l¨ osbar sind. Oft ist es dadurch u oglich, das Gesamtproblem zu l¨ osen. ¨berhaupt erst m¨ • Unabh¨ angigkeit Die einzelnen Schichten kooperieren, indem jede Schicht stets nur die Schnittstellenspezifikation ihres direkten Vorg¨ angers nutzt. Bei fest vorgegebener Schnittstellenspezifikation spielt der innere Aufbau einer Schicht f¨ ur die anderen Schichten keine Rolle, so dass die Implementationen auf einer Schicht ohne weiteren Aufwand direkt gegen verbesserte Implementationen ausgetauscht werden k¨ onnen, die sich lediglich an denselben Schnittstellenspezifikationen orientieren m¨ ussen. Die Implementationen der einzelnen Schichten werden damit unabh¨ angig vom Gesamtsystem und ein modularer (baukastenartiger) Aufbau wird erm¨ oglicht. • Abschirmung Jede einzelne Schicht kommuniziert jeweils nur mit der direkt unter ihr liegenden Schicht und gibt die Ausgabe ihrer Verarbeitung nur an die direkt dar¨ uberliegende Schicht weiter. Damit wird eine Kapselung der einzelnen Schichten erreicht und die zu bew¨ altigende Komplexit¨ at sinkt drastisch. • Standardisierung Die Aufgliederung des Gesamtproblems in einzelne Schichten erleichtert auch die Entwicklung von Standards. Eine einzelne Schicht l¨ asst sich jeweils schneller und leichter standardisieren, als das komplexe Gesamtsystem.

Schnittstelle zu Schicht k+1

Schicht k Schnittstelle zu Schicht k-1

Abb. 3.17 Allgemeines zum Schichtenmodell

140

3 Grundlagen der Kommunikation in Rechnernetzen

Gem¨aß dem Schichtenmodell der Netzwerkkommunikation muss die ProtokollSoftware einer bestimmten Schicht k auf dem Rechner des Empf¨angers genau die Nachricht empfangen, die von der Protokoll-Software der Schicht k des sendenden Rechners u¨ bertragen wurde. Dies bedeutet, dass jede Ver¨anderung oder Anpassung, die die Protokolle einer bestimmten Schicht auf die zu u¨ bertragenden Daten anwenden, beim Empf¨anger wieder vollst¨andig r¨uckg¨angig gemacht werden muss. F¨ugt Schicht k den zu u¨ bertragenden Daten einen zus¨atzlichen Steuer- und Kontrollheader an, muss Schicht k auf dem Empf¨angerrechner diese wieder entfernen. Findet in Schicht k eine Verschl¨usselung der Daten statt, m¨ussen auf Empf¨angerseite in der Schicht k die verschl¨usselten Daten wieder entschl¨usselt werden (siehe Abb. 3.18 und Abb. 3.19).

Datenköpfe der Schichten k-1,...,1 mit Steuer- und Kontrollinformationen k-1 ...

2

1

Nutzdaten

Schnittstelle zu Schicht k+1

Schicht k

Datenkopf k wird von Schicht k erzeugt mit den Steuer- und Kontrollinformationen der Schicht k

Schnittstelle zu Schicht k-1 k

k-1 ...

2

1

Nutzdaten

Weiterleitung an Schicht k-1

Abb. 3.18 Senden: Jede Schicht des Protokollstapels f¨ugt den weiterzuleitenden Daten einen eigenen Datenkopf (Header) mit Steuer und Kontrollinformationen hinzu

Die eigentliche Kommunikation erfolgt in den Protokollstapeln also immer in vertikaler Richtung. Beim Versenden von Daten f¨ugt jede Protokollschicht ihre Steuerund Kontrollinformationen zu diesen Daten hinzu. Meist werden diese Informatio¨ nen dann dem von der dar¨uberliegenden Schicht zur Ubertragung u¨ bergebenen Datenpaket als Header vorangestellt, man sagt, das Datenpaket wird gekapselt“. Aus ” diesen Zusatzdaten erh¨alt die Protokollsoftware auf der Empf¨angerseite bzw. in einem Zwischensystem in der korrespondierenden Protokollschicht die notwendigen Steuer- und Kontrollinformationen, die eine korrekte und zuverl¨assige Weiterleitung der u¨ bertragenen Daten gew¨ahrleisten. Auf den einzelnen Protokollschichten erscheint das so, als w¨urde die Protokollsoftware auf beiden Seiten, bei Sender und

3.4 Kommunikationsprotokolle

141

Empf¨anger, direkt miteinander kommunizieren, w¨ahrend die Daten aber tats¨achlich vertikal durch den Protokollstapel weitergeleitet werden. Diese scheinbar direkte Kommunikation auf den einzelnen Schichten wird auch als virtuelle Kommunikation bezeichnet.

Weiterleitung an Schicht k+1 k-1 ...

2

1

Nutzdaten

Schnittstelle zu Schicht k+1 Datenkopf k wird von Schicht k gelesen und verarbeitet, Restdaten werden entsprechend der Information in Datenkopf k weitergeleitet

Schicht k Schnittstelle zu Schicht k-1 k

k-1 ...

2

1

Nutzdaten

Datenköpfe der Schichten k,...,1 mit Steuer- und Kontrollinformationen

Abb. 3.19 Empfangen: Jede Schicht des Protokollstapels liest aus den empfangenen Daten den zur Schicht zugeh¨origen Datenkopf (Header) mit den f¨ur die Verarbeitung auf dieser Schicht notwendigen Steuer und Kontrollinformationen

F¨ur die Entwicklung von Netzwerkprotokoll-Familien wurde ab 1977 von der International Standards Organisation (ISO) das ISO/OSI Referenzmodell f¨ur die Kommunikation in offenen Netzwerken (Open Systems Interconnection) bereitgestellt, das den Gesamtprozess der Netzwerkkommunikation in sieben einzelne Schichten untergliedert und als gedankliches Werkzeug zur Entwicklung von Protokollfamilien dient. Seit der Entwicklung des ISO/OSI-Referenzmodells haben sich die Konzepte f¨ur Protokollfamilien an verschiedenen Stellen zwar ge¨andert und viele der neu entwickelten Protokolle passen gar nicht mehr genau in dieses Schema, ein Großteil der Terminologie, insbesondere Bezeichnung und Nummerierung der einzelnen Schichten, hat sich aber bis heute erhalten. Der Abschluss der Standardisierung des ISO/OSI Referenzmodells erfolgte u¨ brigens erst 1983. In der Praxis hatte sich zu diesem Zeitpunkt aber bereits mit der Entwicklung des Internets das den Internetprotokollen zugrunde liegende TCP/IP Referenzmodell etabliert und auf breiter Basis durchsetzt, bevor u¨ berhaupt Implementierungen des ISO/OSIStandards vorlagen.

142

3 Grundlagen der Kommunikation in Rechnernetzen

Exkurs 4: Das ISO/OSI-Schichtenmodell Das ISO/OSI-Schichtenmodell Das ab 1977 von der International Standards Organisation (ISO) entwickelte ISO/OSIReferenzmodell unterteilt die grundlegenden Aufgaben der Netzwerkkommunikation in sieben hierarchisch aufeinander aufbauende Schichten (siehe Abb. 3.20). Obwohl in der Praxis heute nicht mehr von Bedeutung, wird es gerne in Lehrb¨ uchern herangezogen, um die einzelnen Aufgaben und Teilprobleme der Netzwerkkommunikation aufzuzeigen und ihre Interaktion zu demonstrieren. Als Open Systems Interconnect (OSI) wurde die 1982 begonnene Standardisierungsinitiative der ISO bezeichnet, die einen einheitlichen Netzwerk-Protokollstandard schaffen sollte. Die vor der ISO/OSI-Initiative existierenden Netzwerkprotokolle waren u ¨berwiegend propriet¨ arer Natur und von den einzelnen Netzwerk-Ger¨ ateherstellern selbst entwickelt. Zu diesen Pr¨ a-ISO/OSI-Netzwerk-Protokollstandards z¨ ahlen z.B. IBM SNA, AppleTalk, Novell Netware und DECnet, die zueinander nicht kompatibel sind. W¨ ahrend die Standardisierungsbem¨ uhungen um ISO/OSI noch liefen, gewann die dem Internet zugrunde liegende Protokollfamilie TCP/IP in heterogenen Netzwerken, die sich aus Komponenten unterschiedlicher Hersteller zusammensetzten, rasant an Bedeutung und konnte sich auf breiter Basis durchsetzen, noch bevor eine abschließende Standardisierung von ISO/OSI gelang. Im ISO/OSI-Modell entspricht die unterste Schicht der eigentlichen Netzwerk-Hardware (physikalische Ebene). Die darauf aufbauenden Schichten umfassen jeweils Firmware und Software, die auf dieser Netzwerk-Hardware eingesetzt werden. Die oberste Schicht sieben ist schließlich die Anwendungsschicht, die eine Schnittstelle bereitstellt zwischen dem Kommunikationssystem und den verschiedenen Anwendungen, die das Kommunikationssystem f¨ ur ihre Zwecke nutzen wollen. Die Schichten (1-4) werden allgemein als Transportsystem, die Schichten (5-7) als Anwendungssystem bezeichnet, die zunehmend allgemeinere Funktionalit¨ aten des Kommunikationsprozesses bereitstellen. Obwohl sie denselben Namen tragen, d¨ urfen sie nicht mit den eigentlichen Anwendungsprogrammen verwechselt werden, die selbst außerhalb des Schichtenmodells stehen.

7

Anwendungsschicht (Application Layer)

6

Darstellungsschicht (Presentation Layer)

5

Sitzungsschicht (Session Layer)

4

Transportschicht (Transport Layer)

3

Vermitlungsschicht (Network Layer)

2

Sicherungsschicht (Data Link Layer)

1

Bitübertragungsschicht (Physical Layer)

Anwendungssystem

Transportsystem

Abb. 3.20 Die einzelnen Schichten des ISO/OSI-Referenzmodells

Die einzelnen Schichten des ISO/OSI-Referenzmodells befassen sich mit den folgenden Aufgaben:

3.4 Kommunikationsprotokolle

143

• Schicht 1: Bit¨ubertragungsschicht (Physical Layer)

Die Bit¨ ubertragungsschicht definiert physikalische und technische Eigenschaften des ¨ ¨ Ubertragungsmediums (Ubertragungskanals). Speziell werden darin die Beziehungen ¨ zwischen der Netzwerk-Hardware und dem physikalischen Ubertragungsmedium geregelt, wie z.B. das Layout und Belegung von Steckverbindungen mit ihren optisch/elektrischen Parametern, Kabelspezifikationen, Verst¨ arkerelemente, Netzwerkadapter, ver¨ wendete Ubertragungsverfahren usw. Zu den wichtigsten Aufgaben der Bit¨ ubertragungsschicht z¨ ahlen: ¨ – Aufbau und Beendigung einer Verbindung zu einem Ubertragungsmedium und – Modulation, d.h. Konvertierung bin¨ arer Daten (Bitstrom) in (elektrische, optische oder Funk-) Signale, die u onnen. ¨ber einen Kommunikationskanal u ¨bertragen werden k¨ Wichtige Protokollstandards dieser Schicht sind z.B. – – – – – –

ITU-T V.24, V.34, V.35 ITU-T X.21 und X.21bis T1, E1 SONET, SDH (Synchronous Data Hierarchy), DSL (Digital Subscriber Line) EIA/TIA RS-232-C IEEE 802.11 PHY

• Schicht 2: Sicherungsschicht (Data Link Layer)

Im Gegensatz zur Bit¨ ubertragungsschicht, deren Hauptanliegen in der Regelung der ¨ Kommunikation zwischen einer einzelnen Netzwerkkomponente und dem Ubertragungsmedium besteht, befasst sich die Sicherungsschicht stets mit der Interaktion mehrerer (d.h. mindestens zwei) Netzwerkkomponenten. Die Sicherungsschicht gew¨ ahrleistet, dass entlang einer Punkt-zu-Punkt Verbindung trotz gelegentlicher Fehler, die in der Bit¨ uber¨ tragungsschicht auftreten k¨ onnen, eine zuverl¨ assige Ubertragung stattfinden kann. Diese Punkt-zu-Punkt Verbindung kann dabei entweder als direkte Verbindung ausgef¨ uhrt sein oder auch u ¨ber ein im Broadcastverfahren arbeitendes Diffussionsnetzwerk realisiert werden, wie z.B. bei Ethernet oder WLAN. In einem Diffusionsnetzwerk k¨ onnen alle angeschlossenen Rechner die u ¨bertragenen Daten aller anderen angeschlossenen Rechner empfangen, ohne dass dazu irgendwelche Zwischensysteme n¨ otig w¨ aren. Zu den auf der Sicherungsschicht zu bew¨ altigenden Aufgaben z¨ ahlen – die Organisation von Daten in logische Einheiten, die auf der Sicherungsschicht als Rahmen (Frames) bezeichnet werden, ¨ – die Ubertragung von Rahmen zwischen Netzwerkkomponenten, – das Bitstopfen, d.h. das Erg¨ anzen nicht vollst¨ andig gef¨ ullter Rahmen mit speziellen F¨ ulldaten, und ¨ – die zuverl¨ assige Ubertragung von Rahmen durch einfache Fehlererkennungsverfahren, wie z.B. die Pr¨ ufsummenberechnung. Zu den bekannten Protokollstandards dieser Schicht z¨ ahlen: – BSC (Bit Synchronous Communication) und DDCMP (Digital Data Communications Message Protocol), PPP (Point-to-Point Protocol) – IEEE 802.3 (Ethernet) – HDLC (High Level Data Link Protocol) – X.25 LAPB (Link Access Procedure for Balanced Mode) und LAPD (Link Access Procedure for D-Channels) – IEEE 802.11 MAC (Medium Access Control)/LLC (Logical Link Control) – ATM (Asynchronous Transfer Mode), FDDI (Fiber Distributed Data Interface), Frame Relay

144

3 Grundlagen der Kommunikation in Rechnernetzen

• Schicht 3: Vermittlungsschicht (Network Layer)

Die Vermittlungsschicht stellt funktionale und prozedurale Mittel zur Verf¨ ugung, die den Transfer von Datensequenzen variabler L¨ ange (Datenpakete) von einem Sender zu einem Empf¨ anger u oglichen. ¨ber ein oder mehrere Netzwerke hinweg erm¨ Zu den Aufgaben der Vermittlungsschicht z¨ ahlen: – die Zuweisung von Adressen zu End- und Zwischensystemen, – die zielgerichtete Weiterleitung von Datenpaketen von einem Ende des Netzwerks zum anderen (Routing) und damit – die Verkn¨ upfung einzelner Netzwerke (Internetworking), – die Fragmentierung und Reassemblierung von Datenpaketen, da unterschiedliche Netzwerke von unterschiedlichen Transportparameter bestimmt werden, und – die Weiterleitung von Fehler- und Statusmeldungen bzgl. erfolgter Zustellung von Datenpaketen. Zu den wichtigsten Protokollstandards, die auf dieser Schicht angesiedelt sind, z¨ ahlen: – – – –

ITU-T X.25 PLP (Packet Layer Protocol) ISO/IEC 8208, ISO/IEC 8878 Novell IPX (Internetwork Packet Exchange) IP (Internet Protocol)

• Schicht 4: Transportschicht (Transport Layer)

Die Transportschicht erm¨ oglicht einen transparenten Datentransfer zwischen Endanwendern und stellt den dar¨ uberliegenden Schichten einen zuverl¨ assigen Transportdienst zur Verf¨ ugung. Die Transportschicht definiert dabei die Einzelheiten, die f¨ ur eine zuverl¨ assige und sichere Daten¨ ubertragung notwendig sind. Hier wird sichergestellt, dass eine Folge von Datenpaketen fehlerfrei, vollst¨ andig und in der richtigen Reihenfolge vom Sender zum Empf¨ anger gelangt. Auf der Transportschicht erfolgt ebenfalls die Abbildung von Netzwerkadressen auf logische Namen. Damit stellt die Transportschicht den beteiligten Endsystemen eine Ende-zu-Ende Verbindung zur Verf¨ ugung, die die Einzelheiten der dazwischenliegenden Netzwerkinfrastruktur verbirgt und daher als transparent bezeichnet wird. Die Protokolle auf dieser Schichte z¨ ahlen zu den komplexesten Protokollen in der Netzwerk-Kommunikation. Zu den bedeutendsten Protokollstandards, die auf Schicht 4 arbeiten, geh¨ oren: – – – –

ISO/IEC 8072 (Transport Service Definition) ISO/IEC 8073 (Connection Oriented Transport Protocol) ITU-T T.80 (Network-Independent Basic Transport Service for Telematic Services) TCP (Transmission Control Protocol), UDP (User Datagram Protocol), RTP (Realtime Transport Protocol)

• Schicht 5: Sitzungsschicht (Session Layer)

Die Sitzungsschicht wird auch als Kommunikationssteuerungsschicht bezeichnet und steuert den Dialog zwischen zwei u ¨ber das Netzwerk verbundenen Rechnern.

Zu den Hauptaufgaben der Sitzungsschicht z¨ ahlen: – Einrichtung, Management und Beendigung von Verbindungen zwischen lokalen und entfernten Anwendungen, – Steuerung von Voll-Duplex-, Halb-Duplex- oder Simplex-Datentransport, und – Einrichtung von Sicherheitsmechanismen, wie z.B. Authentifikation u ¨ber PasswortVerfahren. Wichtige Protokollstandards dieser Schicht sind: – SAP (Session Anouncement Protocol), SIP (Session Initiation Protocol)

3.4 Kommunikationsprotokolle – – – –

145

NetBIOS (Network Basic Input/Output System) ISO 8326 (Basic Connection Oriented Session Service Definition) ISO 8327 (Basic Connection Oriented Session Protocol Definition) ITU-T T.62 (Control Procedures for Teletex and Group 4 Facsimile Services)

• Schicht 6: Darstellungsschicht (Presentation Layer)

Die Darstellungsschicht stellt einen Kontext zwischen zwei Entit¨ aten (Anwendungen) der dar¨ uberliegenden Anwendungsschicht her, so dass die beiden Anwendungen unterschiedliche Syntax (z.B. Datenformate und Kodierungen) und Semantik verwenden k¨ onnen. Die Darstellungsschicht sorgt also f¨ ur eine korrekte Interpretation der u ¨bertragenen Daten. Dazu wird die jeweils lokale Kodierung der Daten in eine spezielle, einheitliche Transferkodierung f¨ ur die Darstellungsschicht umgesetzt und beim Empf¨ anger in die dort lokal g¨ ultige Kodierung zur¨ uckverwandelt. Zus¨ atzlich z¨ ahlen Datenkomprimierung und Verschl¨ usselung zu den Aufgaben dieser Schicht. Zu den wichtigsten Protokollstandards der Darstellungsschicht z¨ ahlen: – ISO 8322 (Connection Oriented Session Service Definition) – ISO 8323 (Connection Oriented Session Protocol Definition) – ITU-T T.73 (Document Interchange Protocol for Telematic Services), ITU-T X.409 (Presentation Syntax and Notation) – MIME (Multipurpose Internet Mail Extension), XDR (External Data Representation) – SSL (Secure Socket Layer), TLS (Transport Layer Security)

• Schicht 7: Anwendungsschicht (Application Layer)

Die Anwendungsschicht bietet eine Schnittstelle f¨ ur Anwendungsprogramme, die das Netzwerk f¨ ur ihre Zwecke nutzen wollen. Anwendungsprogramme selbst geh¨ oren nicht in diese Schicht, sondern nutzen lediglich deren Dienste. Die Anwendungsschicht stellt einfach handhabbare Dienstprimitive zur Verf¨ ugung, die s¨ amtliche netzwerkinternen Details vor dem Anwender oder dem Programmierer des Anwendungsprogrammes verbergen und so eine einfache Nutzung des Kommunikationssystems erm¨ oglichen. Zu den wichtigsten Funktionen der Anwendungsschicht z¨ ahlen unter anderem: – Identifikation der Kommunikationspartner, – Feststellung der Verf¨ ugbarkeit von Ressourcen, und – Synchronisation der Kommunikation. Zu den wichtigen Protokollstandards, die auf dieser Schicht angesiedelt sind, geh¨ oren: – – – – –

ISO 8571 (FTAM, File Transfer, Access and Management) ISO 8831 (JTM, Job Transfern and Manipulation) ISO 9040 und 9041 (VT, Virtual Terminal Protocol) ISO 10021 (MOTIS, Message Oriented Text Interchange System) FTP (File Transfer Protocol), SMTP (Simple Mail Transfer Protocol), HTTP (Hypertext Transfer Protocol), etc. – ITU-T X.400 (Data Communication for Message Handling Systems). ITU-T X.500 (Electronic Directory Services) Weiterf¨ uhrende Literatur: U. Black: OSI – A Model for Computer Communications Standards, Upper Saddle River, NJ, USA (1991) H. Zimmermann: OSI Reference Model – The ISO Model of Architecture for Open Systems Interconnection, in IEEE Transactions on Communications, vol. 28, no. 4, pp. 425–432 (1980)

146

3 Grundlagen der Kommunikation in Rechnernetzen

3.4.3 Das Internet und das TCP/IP-Schichtenmodell Das weltumspannende und allgegenw¨artige Internet verbindet heute Rechner, Telefone, Unterhaltungselektronik und bald schon Haushaltsger¨ate und Waren unseres t¨aglichen Bedarfs. Es dringt mehr und mehr in alle Bereiche unseres Lebens vor. Damit alle diese unterschiedlichen Ger¨ate ungest¨ort und effizient miteinander kommunizieren k¨onnen, m¨ussen die dabei eingesetzten Kommunikationsprotokolle einem gemeinsamen Grundschema folgen. Dieses Fundament bildet heute das TCP/IP-Referenzmodell, das die einzelnen Schichten der Internet-Kommunikation entsprechend ihren Aufgaben, ihres Abstraktionsgrades und Ihrer Komplexit¨at festlegt und den jeweiligen Funktionsumfang bestimmt. Mit welchen Mitteln und auf welche Weise diese Spezifikationen umgesetzt werden, legt das Modell nicht fest. Auf diese Art und Weise konnte das TCP/IP Referenzmodell aus der Praxis heraus Gestalt annehmen und bildet heute und in n¨achster Zukunft eine solide Basis f¨ur alle Aufgaben der digitalen Kommunikation. Das TCP/IP-Referenzmodell steht im deutlichen Gegensatz zum ISO/OSI-Referenzmodell (siehe Exkurs 4). Faktisch existiert es eigentlich gar nicht, sondern leitet sich aus den in der Praxis des Internet eingesetzten Protokollen her. Dagegen wurde das ISO/OSI-Protokoll theoretisch geplant und verabschiedet, bevor Protokolle entworfen wurden, die die einzelnen Funktionen der Schichten des ISO/OSIReferenzmodells implementieren. Allerdings werden die meisten dieser ISO/OSIkonformen Protokollimplementationen heute praktisch nicht mehr verwendet, die aus der Praxis erwachsenen Protokolle des TCP/IP-Referenzmodells dominieren heute das Internet. Die heute bedeutendste Protokollfamilie, die TCP/IP-Protokollsuite, basiert also nicht auf den Spezifikationen eines Standardisierungskomitees, sondern erwuchs bereits sehr fr¨uh aus den Anforderungen und Erfahrungen der Entwicklung des Internets. Zwar l¨asst sich das ISO/OSI-Referenzmodell soweit anpassen, dass es auch zur Beschreibung des TCP/IP Protokollstapels herangezogen werden kann, aber beide gehen von g¨anzlich verschiedenen Grundlagen aus. Allein schon aufgrund der Bedeutung, die das Internet und damit die TCP/IP-Protokollsuite erlangt hat, ist es deshalb sinnvoll, speziell auf den TCP/IP-Protokollstapel, der auch als TCP/IPReferenzmodell bezeichnet wird, n¨aher einzugehen. Die erste Beschreibung des TCP/IP-Referenzmodells (RFC 1122) stammt bereits aus dem Jahr 1974, also noch bevor die erste Spezifikation des ISO/OSI-Modells erfolgte. Prinzipiell l¨asst sich die TCP/IP-Protokollfamilie in vier einzelne Schichten unterteilen, die um die Kernprotokolle TCP und IP herum organisiert sind (siehe Abb. 3.21). Tats¨achlich finden sich in der Literatur auch Beschreibungen des TCP/IP-Referenzmodells, die f¨unf einzelne Schichten umfassen. Dabei wurde eine die Kommunikationshardware beschreibende Schicht (Hardware, Physical Layer) mit in das urspr¨unglich vier Schichten umfassende TCP/IP-Referenzmodel aufgenommen. Dieses f¨unfschichtige Modell wird oft auch als hybrides TCP/IP-Refe˙renzmodell bezeichnet. Die in Abb. 3.21 angegebenen Benennungen der einzel-

3.4 Kommunikationsprotokolle

Abb. 3.21 Das TCP/IPReferenzmodell umfasst vier Schichten (2-5), zusammen mit der Netzhardwareschicht (1) wird das Modell auch als hybrides TCP/IPReferenzmodell bezeichnet

147

5

Anwendungsschicht (Application Layer)

4

Transportschicht (Transport Layer)

3

Internetschicht (Internet Layer)

2

Netzzugangsschicht (Link Layer)

1

Hardware (Physical Layer)

nen Schichten entsprechen denen des zugrunde liegenden RFC 1122 und werden im vorliegenden Buch durchg¨angig verwendet. Die Schicht 2 des TCP/IP-Referenzmodells (Netzzugangsschicht, Link Layer) wird in der Literatur auch oft als Data Link Layer, Network Access Layer oder Host-toNetwork Layer bezeichnet und entspricht den ersten beiden Schichten des ISO/OSIReferenzmodells (Bit¨ubertragungsschicht und Sicherungsschicht). Schicht 3 des TCP/IP-Referenzmodells (Internetschicht, Internet Layer) wird auch als Netzwerkschicht, Network Layer oder Internetwork Layer bezeichnet und entspricht der Schicht 3 des ISO/OSI-Referenzmodells (Vermittlungsschicht). Schicht 4 des TCP/IP-Referenzmodells (Transportschicht, Transport Layer) wird auch als Host-toHost Layer bezeichnet und entspricht der Schicht 4 des ISO/OSI-Referenzmodells (Transportschicht). Schicht 5 des TCP/IP-Referenzmodells (Anwendungsschicht, Application Layer) entspricht den Schichten 5 – 7 des ISO/OSI-Referenzmodells (Sitzungsschicht, Pr¨asentationsschicht, Anwendungsschicht, siehe Abb. 3.22). In den folgenden Abschnitten werden kurz die Aufgaben und Protokolle der einzelnen Schichten skizziert. Einer detaillierte Darstellung der Schichten des TCP/IPReferenzmodells und ihrer Protokolle widmet sich Band 2 Internetworking“ dieser ” Trilogie.

Netzzugangsschicht In der Netzzugangsschicht des TCP/IP-Referenzmodells werden die ersten beiden Schichten des ISO/ISO-Referenzmodells, die Bit¨ubertragungsschicht und die Sicherungsschicht zusammengefasst, wobei die Netzzugangsschicht nicht die Aspekte der physikalischen Schicht beinhaltet, die Teil des ISO/OSI-Referenzmodells sind. ¨ Die Hauptaufgabe der Netzzugangsschicht besteht in der sicheren Ubertragung von einzelnen Datenpaketen zwischen zwei benachbarten Endsystemen. Zu u¨ bertragende Bitfolgen werden zu festen Einheiten (Datenpaketen) zusammengefasst und mit ¨ zur Ubertragung notwendiger Zusatzinformation versehen, wie z.B. Pr¨ufsummen zur einfachen Fehlererkennung. Die benachbarten Endsysteme k¨onnen entweder di-

148

3 Grundlagen der Kommunikation in Rechnernetzen

Anwendungsschicht (Application)

7

Darstellungsschicht (Presentation)

6

5

Anwendungsschicht (Application Layer)

Sitzungsschicht (Session)

5

4

Transportschicht (Transport Layer)

Transportschicht (Transport)

4

3

Internetschicht (Internet Layer)

Vermittlungsschicht (Network)

3

2

Netzzugangsschicht (Link Layer)

Netzzugangsschicht (Data Link)

2

1

Hardware (Physical Layer)

Bitübertragungsschicht (Physical)

1

TCP/IP-Referenzmodell

ISO/OSI-Referenzmodell

Abb. 3.22 Gegen¨uberstellung des TCP/IP-Referenzmodells und des ISO/OSI-Referenzmodells

¨ rekt durch ein Ubertragungsmedium miteinander verbunden sein oder an einen sogenannten Bus (Diffusionsnetzwerk) angeschlossen sein, der mehrere Endsysteme direkt, also ohne Zwischensysteme miteinander verbindet. Man unterscheidet in dieser Schicht zwischen gesicherten und ungesicherten Diensten. In ungesicherten Diensten werden als fehlerhaft erkannte Datenpakete ¨ eliminiert. Die Anforderung einer daraufhin notwendigen Ubertragungswiederholung erfolgt aber erst auf einer h¨oheren Schicht des Protokollstapels. Ein gesicher¨ ter Dienst hingegen u¨ bernimmt die Anforderung einer Ubertragungswiederholung selbst. In lokalen Netzen (LANs) wird die Schicht 2 des TCP/IP-Referenzmodells f¨ur gew¨ohnlich in zwei weitere Teilschichten aufgeteilt: • Media Access Control (MAC) Diese Teilschicht regelt den Zugriff auf das gemeinsam mit (vielen) anderen ¨ Rechensystemen genutzte Ubertragungsmedium. Da diese beim Zugriff auf das Kommunikationsmedium in Konkurrenz stehen, m¨ussen Protokollmechanismen bereitgestellt werden, die einen f¨ur alle Teilnehmer gerechten und effizienten Zugriff erlauben. • Logical Link Control (LLC) Diese Teilschicht regelt die sogenannte Sicherungsschicht des LANs. Hier werden Aufgaben gel¨ost, wie z.B.: – – –

¨ Flusssteuerung (Vermeidung von Uberlast beim Empf¨anger), Fehlerbehandlung (Fehlererkennung und Fehlerkorrektur), ¨ ¨ Ubertragungssteuerung (Link Management, geordnete und fehlerfreie Ubertragung) und

3.4 Kommunikationsprotokolle

149

– Datenpaketsynchronisation (Anfang und Ende eines Datenpakets m¨ussen erkannt werden). Daneben gew¨ahrleistet die LLC-Teilschicht die sogenannte Multiprotokollf¨ahigkeit, also die F¨ahigkeit zur gleichzeitigen Nutzung verschiedener Kommunikationsprotokolle. Zu den praktisch bedeutsamen Protokollen der Schicht 2 des TCP/IP-Referenzmodells z¨ahlen die von der IEEE gem¨aß dem IEEE 802 LAN-Standard standardisierten LAN-Protokolle, zu denen Technologien geh¨oren, wie z.B. Ethernet, Token Ring oder FDDI. Weitere Protokolle der Schicht 2 der TCP/IP-Protokollfamilie sind: • ARP und RARP (Address Resolution Protocol und Reverse Address Resolution Protocol), • SLIP (Serial Line Interface Protocol) und • PPP (Point to Point Protocol). Internetschicht Ebenso wie die Vermittlungsschicht des ISO/OSI-Referenzmodells besteht die Hauptaufgabe der Internetschicht des TCP/IP-Referenzmodells darin, Datenkommunikation zwischen zwei Endsystemen an verschiedenen Enden des Kommunikationsnetzwerks zu erm¨oglichen. Zu diesem Zweck muss ein u¨ ber die Grenzen einzelner physikalischer Netzwerke hinweg g¨ultiges und eindeutiges Adressierungsschema verwendet werden. Die zu versendenden Datenpakete m¨ussen jeweils mit den Adressen von Sender und Empf¨anger versehen werden, damit sie korrekt zugestellt werden k¨onnen. Da die Kommunikation u¨ ber ein oder mehrere eigenst¨andig operierende Netzwerke hinweg erfolgt, m¨ussen weiterhin die Rechner an den Verbindungs- und Vermittlungsstellen (Zwischensysteme) in der Lage sein, zur korrekten Weiterleitung der Datenpakete den jeweils einzuschlagenden Verbindungsweg auszuw¨ahlen (Routing). Das zentrale Protokoll der Schicht 3 ist das Internet Protocol (IP). IP bietet eine ¨ unzuverl¨assige und datenpaketorientierte Ende-zu-Ende Ubertragung von Nachrichten. Es ist verantwortlich f¨ur Fragmentierung und Defragmentierung in sogenannte IP-Datagramme und verf¨ugt u¨ ber Protokollmechanismen zur Weitervermittlung u¨ ber Zwischensysteme hinweg zum designierten Empf¨anger der Nachricht. IP ist ein unzuverl¨assiges Protokoll, da es nicht u¨ ber Mechanismen zum Umgang mit Datenverlusten verf¨ugt. Eine detaillierte Behandlung von IP wird im 2. Band Internet” working“ unserer Trilogie behandelt. Daneben kommt auf Schicht 3 das ICMP-Protokoll (Internet Control Message Protocol) zum Einsatz, in dessen Zust¨andigkeit die Meldung von Fehlern liegt, die ¨ w¨ahrend einer IP-Ubertragung auftreten k¨onnen. ICMP ist ein Protokoll, das direkt auf IP aufsetzt. Es kann außerdem dazu verwendet werden, Systeminformationen u¨ ber andere Endsysteme anzufordern. Daneben geh¨oren weitere Protokolle zur Schicht 3 des TCP/IP-Protokollstapels, wie z.B.:

150

3 Grundlagen der Kommunikation in Rechnernetzen

• IGMP (Internet Group Management Protocol), dient zur Verwaltung von (Multicast)-Gruppen von Endsystemen in einem TCP/IP-Netzwerk, • RSVP (Resource Reservation Protocol), dient zur Anforderung und Reservierung von Ressourcen f¨ur mittels IP zu u¨ bertragende Datenstr¨ome, • ST 2+ (Internet Stream Protocol, Version 2), verbindungsorientiertes Protokoll zum Transport von Echtzeitdaten u¨ ber IP, die eine garantierte Dienstg¨ute ben¨otigen, • OSPF (Open Shortest Path First), ein vor allem bei Internet-Routern eingesetztes Routingprotokoll, • BGP (Border Gateway Protocol), ein Routingprotokoll f¨ur sogenannte autonome Systeme.

Transportschicht Die prim¨are Aufgabe der Transportschicht, die in etwa der gleichnamigen Schicht des ISO/OSI-Referenzmodells entspricht, besteht in der Einrichtung einer Kommunikationsverbindung zwischen zwei Anwendungsprogrammen, die sich auf unterschiedlichen Rechnern im Netzwerk befinden. Auf der Transportschicht erfolgt dazu ¨ eine Flusssteuerung, die daf¨ur sorgt, dass Uberlastsituationen nach M¨oglichkeit vermieden werden. Es wird auch sichergestellt, dass die u¨ bertragenen Daten fehlerfrei und in der richtigen Reihenfolge (Sequenznummern) beim Empf¨anger ankommen. Dazu existiert ein Quittungsmechanismus, u¨ ber den der Empf¨anger korrekt u¨ bertragene Datenpakete best¨atigt bzw. fehlerhafte Datenpakete neu anfordern kann. Anders als die Internetschicht, steht die Transportschicht nicht unter der Kontrolle des Netzbetreibers, sondern bietet dem Anwender bzw. dem Anwendungsprogramm des betreffenden Endsystems die M¨oglichkeit, Einfluss auf Probleme in der Daten¨ubertragung zu nehmen, die nicht von der Internetschicht behandelt werden. ¨ Dazu z¨ahlt die Uberbr¨ uckung von Ausf¨allen auf der Internetschicht und die Nachlieferung von Datenpaketen, die in der Internetschicht verloren gegangen sind. Die Transportschicht ist in der Lage, beliebig lange Pakete (Streams) zu u¨ bertragen. Eine lange Nachricht wird dazu in Segmente unterteilt, die einzeln u¨ bertragen und beim Empf¨anger wieder zusammengesetzt werden. Das TCP-Protocol (Transport Control Protocol) als ein weiteres Kernst¨uck der Internet-Protokoll-Architektur ist das popul¨arste Protokoll der Schicht 4 des TCP/IPProtokollstapels. Es realisiert einen zuverl¨assigen, bidirektionalen Datenaustausch zwischen zwei Endsystemen. Das TCP-Protokoll wird detailliert im 2. Band Inter” networking“ unserer Trilogie beschrieben. Neben TCP ist das UDP-Protokoll (Universal Datagram Protocol) das zweite prominente Protokoll der Transportschicht. Es u¨ bertr¨agt eigenst¨andige Dateneinheiten, sogenannte Datagramme, zwischen Anwendungsprogrammen, die auf un¨ terschiedlichen Rechnern im Netzwerks ablaufen. Allerdings ist die Ubertragung unzuverl¨assig, d.h. es bietet keine Mechanismen zur Erkennung bzw. Korrektur von Fehlern, wie z.B. Datenverluste, Vervielfachung von Datagrammen oder Reihenfolgever¨anderungen, mit denen stets gerechnet werden muss. Die als falsch erkannten

3.4 Kommunikationsprotokolle

151

Datagramme werden von UDP verworfen und erreichen den Empf¨anger erst gar nicht. UDP zeichnet sich gegen¨uber TCP durch eine geringere Komplexit¨at aus, was sich in einem erh¨ohten Datendurchsatz niederschl¨agt. Allerdings muss dies mit einem drastischen Verlust an Zuverl¨assigkeit und Sicherheit bezahlt werden. Weitere bekannte Protokolle der Transportschicht sind: • VMTP (Versatile Message Transaction Protocol), ein transaktionsorientiertes Kommunikationsprotokoll, • NETBLT (Network Block Transfer Protocol), ein unidirektionaler, verbindungsorientierter, zuverl¨assiger Transportdienst, der auf einen hohen Durchsatz bei großen Datenmengen hin optimiert wurde, • MTP (Multicast Transport Protocol), ein zuverl¨assiger Transportdienst f¨ur Multicast-Gruppen, • RDP (Reliable Data Protocol), ein bidirektionaler, verbindungsorientierter Punktzu-Punkt Transportdienst, der speziell f¨ur Anwendungen vorgesehen ist, die in der Lage sind, mit Reihenfolge¨anderungen bei den u¨ bertragenen Datenpaketen selbst¨andig umzugehen bzw. diese tolerieren, • RIP (Routing Information Protocol), internes Routingprotokoll in kleineren Netzwerken, ¨ • SSL (Secure Socket Layer), Protokollmechanismus f¨ur die sichere Ubertragung im WWW, • TLS (Transport Layer Security), Nachfolger des Secure Socket Layer (SSL) Protokolls f¨ur die sichere Daten¨ubertragung im WWW.

Anwendungsschicht Die Funktionalit¨at der Anwendungsschicht des TCP/IP-Protokollstapels fasst im Prinzip die obersten drei Schichten des ISO/OSI-Referenzmodells zusammen. Grunds¨atzlich dient diese Schicht als Schnittstelle zu den eigentlichen Anwendungsprogrammen, die u¨ ber das Netzwerk kommunizieren wollen. Die Anwendungen selbst sind außerhalb dieser Schicht und des TCP/IP-Referenzmodells angesiedelt. Die angebotenen Dienste der Anwendungsschicht verf¨ugen u¨ ber ein hohes Abstraktionsniveau, das den Anwender bzw. die kommunizierenden Anwendungen von den Details der Kommunikation, die auf den niedrigeren Protokollschichten geregelt werden, weitgehend abschirmen. Zur Anwendungsschicht der TCP/IP-Protokollfamilie z¨ahlen z.B. die folgenden Protokolle: • TELNET, erm¨oglicht die Einrichtung einer interaktiven Sitzung auf einem entfernten Rechner, ¨ • FTP (File Transfer Protocol), dient der Ubertragung von Dateien zwischen zwei u¨ ber ein TCP/IP-Netzwerk verbundenen Rechnern, • SMTP (Simple Mail Transfer Protocol), ein einfach strukturiertes Protokoll ¨ zur Ubertragung von elektronischer Post im Internet. Heute wird in der Regel

152

• • • • • •

3 Grundlagen der Kommunikation in Rechnernetzen

¨ ESMPT (Extended SMTP) eingesetzt, das eine transparente Ubertragung von Nachrichten unterschiedlicher Formate gestattet, HTTP (Hypertext Transport Protocol), Protokoll zur Daten¨ubertragung im World Wide Web, RPC (Remote Procedure Call), dient dem Operationsaufruf von Anwendungsprogrammen, die sich auf einem entfernten Rechner befinden, DNS (Domain Name Service), Verzeichnisdienst, der die Zuordnung zwischen Endsystemnamen (Zeichenketten) zu IP-Adressen liefert, PGP (Pretty Good Privacy), Verschl¨usselungsmechanismus f¨ur elektronische Post und deren Authentifikation, ¨ SNMP (Simple Network Management Protocol), Protokoll zur Uberwachung, Verwaltung und Kontrolle von Netzwerken, ¨ RTP (Realtime Transport Protocol), Protokoll zur Echtzeit-Ubertragung (Streaming) von Multimedia-Datenstr¨omen.

Auf die Protokolle der Anwendungsschicht des TCP/IP-Referenzmodells wird in Band 2 Internetworking“ unserer Trilogie detailliert eingegangen. ”

3.4.4 Protokollfunktionen Beim Blick auf die einzelnen Protokolle, die den jeweiligen Protokollschichten zugeordnet sind, stellt man fest, dass oftmals Protokolle verschiedener Schichten die gleiche Funktionalit¨at bieten. Diese gemeinsamen Funktionalit¨aten werden als Protokollfunktionen oder Protokollmechanismen bezeichnet. Dabei erfolgt die Ausgestaltung der einzelnen Protokollfunktionen auf jeder Protokollschicht mit Hilfe konkreter Protokollimplementationen, die dem Bezugsrahmen und Abstraktionsgrad der jeweiligen Schicht entsprechen. Grunds¨atzlich lassen sich die Protokollfunktionen in folgende Kategorien unterteilen: • Basis-Protokollfunktionen Hierzu geh¨oren alle Funktionen, die den Datenverkehr als Grundaufgabe der Netzwerkkommunikation regeln: – Datentransfer: Basisaufgabe aller Netzwerkkommunikation ist der Datentransfer. Zus¨atzlich kann ein Vorrangdatentransfer definiert werden, der bestimmte wichtige“ ” Daten gegen¨uber regul¨aren“ Daten auszeichnet, damit diesen ein Vorrang in ” der Daten¨ubertragung einger¨aumt werden kann. Dabei k¨onnen Vorrangdaten zuvor versendete gew¨ohnliche Daten sogar u¨ berholen. Wird ein Datenpaket korrekt empfangen, kann zur Signalisierung eines gelungenen Datentransfers ein spezielles Quittierungsverfahren (Acknowledgement) etabliert werden. Quittungen k¨onnen sich auf einzelne Datenpakete oder aber auch auf mehrere Datenpakete (Piggy Pack Acknowledgement) beziehen.

3.4 Kommunikationsprotokolle

153

– Verbindungsverwaltung: Neben dem eigentlichen Datentransfer ist der Auf- und Abbau einer Datenverbindung eine Grundaufgabe der Netzwerkkommunikation. Der verwendete Protokollmechanismus muss in der Lage sein, auf erfolgreiche bzw. erfolglose Verbindungsanfragen entsprechend zu reagieren. Daten, die u¨ ber eine geschaltete Verbindung u¨ bertragen werden, m¨ussen in der richtigen Reihenfolge ausgeliefert werden. Dazu muss der Protokollmechanismus mit versp¨ateten, verlorengegangenen oder auch duplizierten Datenpaketen zurecht kommen. Um dies zu gew¨ahrleisten, werden die Datenpakete mit fortlaufenden Sequenznummern versehen. Außerdem m¨ussen Fallback- und RecoveryMechanismen vorgesehen werden, die nach einem unbeabsichtigten Abbruch der Verbindung (Disconnect) die Kommunikation wieder in einen konsistenten Zustand u¨ berf¨uhren. • Fehlerbehandlung Unter die Kategorie Fehlerbehandlung fallen alle Mechanismen, die zur Erken¨ nung und Behebung von eventuell auftretenden Ubertragungsfehlern dienen: – Fehlererkennung: Zur Fehlererkennung k¨onnen verschiedene Pr¨ufsummenverfahren oder Parit¨atsbits zum Einsatz kommen. Dabei werden die Nutzdaten durch redundante Information erg¨anzt, die sich vollst¨andig aus den u¨ bertragenen Nachrichten rekonstruieren l¨asst und so durch Vergleich die M¨oglichkeit schafft, aufgetretene Fehler zu erkennen. ¨ – Ubertragungswiederholung: Wurde ein u¨ bertragenes Datenpaket als fehlerhaft identifiziert, kann es erneut vom Sender angefordert werden. Dies kann unter Verwendung eines speziellen Quittierungsverfahrens erfolgen. ¨ – Zeituberwachung: ¨ Uberschreitet ein Datenpaket auf seinem Weg durch das Netzwerk eine vorgegebene maximale Zeitspanne, gilt es als verloren“ und wird erneut u¨ bertra” gen (Timeout). Die Festlegung dieser Zeitspanne ist von enormer Bedeutung f¨ur die Effizienz und Leistungsf¨ahigkeit des Netzwerks. – Fehlerkorrektur: Bei Anreicherung der zu u¨ bertragenen Information mit ausreichender Re¨ dundanz kann eine automatische Korrektur von Ubertragungsfehlern beim Empf¨anger gew¨ahrleistet werden, ohne dass ein fehlerhaft u¨ bertragenes Datenpaket erneut vom Sender angefordert werden muss. • L¨angenanpassung Auf Grund technischer und organisatorischer Restriktionen ist die L¨ange von Datenpaketen stets beschr¨ankt. Oftmals ist die zu u¨ bertragende Nachricht aber l¨anger, als das vorgegebene Datenformat dies zul¨asst. Dann muss die Nachricht

154

3 Grundlagen der Kommunikation in Rechnernetzen

vor dem Transfer zun¨achst in passgerechte Einzelteile zerlegt werden (Fragmentierung). Beim Empf¨anger angekommen, m¨ussen die fragmentierten Datenpakete anschließend wieder zur urspr¨unglichen Nachricht zusammengesetzt, die Zerlegung also r¨uckg¨angig gemacht werden (Defragmentierung). Andererseits k¨onnen Nachrichten auch k¨urzer sein als die jeweils vorgeschriebene Datenpaketl¨ange. Dann m¨ussen die Datenpakete mit sogenannten F¨ullbits erg¨anzt werden (Bitstopfen). • Systemleistungsanpassung Die an der Daten¨ubertragung beteiligten Rechensysteme m¨ussen sich an die aktuelle Netzlast anpassen k¨onnen. Dazu dienen Protokollmechanismen, die Einfluss nehmen auf die interne Verarbeitung in den Zwischensystemen und so eine Re¨ gelung des Datenflusses vornehmen und im Falle einer Uberlast wirksam werden k¨onnen. – Flusssteuerung (Flow Control): Eine Steuerung des Datenflusses erfolgt oftmals u¨ ber einen Fenstermechanismus. Dieser soll den Empf¨anger der Daten vor einer eventuell auftretenden ¨ Uberlast sch¨utzen. Daher gibt der Empf¨anger dem Sender eine Maximalzahl an Datenpaketen vor, die dieser h¨ochstens aussenden darf, ohne eine Quittung zu erhalten. ¨ – Uberlaststeuerung (Congestion Control): Die hierzu vorgesehenen Protokollmechanismen bedienen sich ebenfalls eines Fenstermechanismusses, der zum Schutz des jeweiligen Empf¨angers dient, damit dieser nicht durch die Zahl der an ihn gesendeten Datenpakete u¨ berlastet wird. Der Empf¨anger gibt in Abh¨angigkeit von der aktuellen Netzlast vor, wieviele noch unbest¨atigte Datenpakete gesendet werden d¨urfen. ¨ – Steuerung der Datenubertragungsrate (Rate Control): Vor Beginn der eigentlichen Daten¨ubertragung, also z.B beim Verbindungsaufbau, k¨onnen sich Sender und Empf¨anger u¨ ber eine maximal zul¨assige Daten¨ubertragungsrate (entspricht der Menge der gesendeten Daten pro Zeiteinheit) einigen. ¨ • Ubertragungsleistungsanpassung Die an einem Netzwerk angeschlossenen End- und Zwischensysteme k¨onnen unterschiedliche Leistungskapazit¨aten aufweisen, die sich in unterschiedlichen ¨ Ubertragungsleistungen niederschlagen. Um diese Unterschiede auszugleichen, m¨ussen spezielle Protokollmechanismen vorgesehen werden. – Multiplexing: ¨ Verf¨ugt eine Verbindungsleitung u¨ ber eine erheblich h¨ohere Ubertragungskapazit¨at als einzelne daran angeschlossene Rechensysteme, dann k¨onnen Verbindungen zu mehreren Rechensystemen auf eine Verbindung mit hoher ¨ Ubertragungskapazit¨ at abgebildet werden, indem die daran angeschlossenen Systeme diese abwechselnd bedienen.

3.5 Glossar

155

– Inverses Multiplexing: Im umgekehrten Fall des Multiplexing verf¨ugt z.B. ein an das Netzwerk ange¨ schlossenes Rechensystem u¨ ber eine erheblich h¨ohere Ubertragungsleistung ¨ als die zur Verf¨ugung stehende Datenverbindung. Uber den Mechanismus des inversen Multiplexing kann die Verbindung zum Rechensystem auf mehrere Datenverbindungen gleichzeitig abgebildet werden. • Nutzerbezogene Protokollmechanismen Zus¨atzlich sind Protokollmechanismen wichtig, u¨ ber die der Nutzer Eigenschaften der Daten¨ubertragung im Netzwerk selbst mitbestimmen kann. Dazu z¨ahlen z.B. die Festlegung von Dienstg¨uteparametern oder die Vergabe von Rechten. – Verbindungsklassen: Netzwerkdienste k¨onnen ihre Leistung in unterschiedlichen Qualit¨atsstufen, sogenannten Dienstklassen erbringen. Dazu m¨ussen Protokollmechanismen bereitgestellt werden, mit denen der Nutzer beim Verbindungsaufbau die jeweils gew¨unschte Dienstklasse festlegen kann. – Rechteverwaltung: Die Nutzung bestimmter Systemdienste oder spezieller Datenverbindungen kann nutzerbezogen oder zeitabh¨angig eingeschr¨ankt werden. Um bestimmte Nutzer zur Nutzung der beschr¨ankt verf¨ugbaren Netzwerkressourcen zu berechtigen, werden entsprechende Protokollmechanismen ben¨otigt. ¨ – Dienstguteverwaltung: Beim Verbindungsaufbau kann der Initiator der beabsichtigten Kommunikation den Wunsch nach bestimmten Dienstg¨uteparametern, wie z.B. einen bestimmten Mindestdurchsatz a¨ ußern. Dieser Wunsch muss dem beabsichtigten Kommunikationspartner mitgeteilt werden, der diesen vollst¨andig oder auch nur teilweise akzeptieren kann.

3.5 Glossar Bandbreite: Die Bandbreite (Bandwidth) einer Verbindungsstrecke in einem Netzwerk ist eine physikalische Gr¨ oße, die in Hertz (1 Hz=1/s) angegeben wird. Im analogen Bereich bezeichnet die Bandbreite den Frequenzbereich, in dem elektrische Signale mit einem Amplitudenabfall von bis zu 3 dB u oßer die Bandbreite, ¨bertragen werden. Je gr¨ desto mehr Informationen k¨ onnen theoretisch in einer Zeiteinheit u ¨bertragen werden. ¨ Auch bei der Ubertragung digitaler Signale wird oft synonym der Begriff Bandbreite ¨ verwendet, obwohl die Ubertragungsrate gemeint ist. Es gibt allerdings einen unmittel¨ baren Zusammenhang zwischen der Bandbreite und der Ubertragungsrate, da bei der ¨ Daten¨ ubertragung die erreichbare Ubertragungsgeschwindigkeit direkt von der Bandbreite des Netzwerkes abh¨ angt. Die maximale Bandbreiten-Ausnutzung betr¨ agt f¨ ur bin¨ are Signale 2 Bit pro Hertz Bandbreite. ¨ Broadcast: Eine Broadcast-Ubertragung entspricht einem Rundruf, also einer gleichzei¨ tigen Ubertragung von einem Punkt aus zu allen Teilnehmern. Klassische BroadcastAnwendungen sind Rundfunk und Fernsehen.

156

3 Grundlagen der Kommunikation in Rechnernetzen

Code: Ein Code ist eine mathematische Relation, die jedem Zeichen eines Zeichenvorrats (Urbildmenge) ein Zeichen oder eine Zeichenfolge eines anderen Zeichenvorrats (Bildmenge) zuordnet. In technischen Systemen dienen Codes der Darstellung und Verschl¨ usselung von Nachrichten bzw. der Fehlererkennung und -korrektur. Datenfern¨ ubertragung: Sind die Rechensysteme, zwischen denen eine Daten¨ ubertragung stattfindet, mehr als einen Kilometer weit voneinander entfernt, so spricht man von Datenfern¨ ubertragung. Diese Begrenzung ist allerdings nicht starr. Die eingesetzten Verfahren zur Datenfern¨ ubertragung unterscheiden sich wesentlich von denen, die bei Daten¨ ubertragungssystemen eingesetzt werden, die weniger weit voneinander entfernt sind. ¨ Datenrate: Die Datenrate (Transmission Speed, Ubertragungsgeschwindigkeit) ist das Maß f¨ ur die Geschwindigkeit, in der Daten in Form von Bits pro Zeiteinheit u ¨ber ein ¨ Ubertragungsmedium versendet werden k¨ onnen. Diese Geschwindigkeit wird in bit/s angegeben bzw. mit den Pr¨ afixen k (kilo=103 ), M (Mega=106 ), G (Giga=109 ) oder T ¨ (Tera=1012 ) versehen. Bei bitserieller bin¨ arer Ubertragung ist sie gleich der Schritt¨ ¨ geschwindigkeit. Bei zeichenserieller bitparalleler Ubertragung dagegen ist die Ubertragungsgeschwindigkeit gr¨ oßer als die Schrittgeschwindigkeit, da mit jedem Schritt mehrere Bits gleichzeitig u onnen. In der englischen Literatur wird ¨bertragen werden k¨ ¨ die Ubertragungsgeschwindigkeit in bps (bits per second) angegeben. Nach DIN 44302 ¨ handelt es sich bei der Ubertragungsgeschwindigkeit um das Produkt aus Schrittgeschwindigkeit und Anzahl der Bits, die je Schritt u ¨bertragen werden. Diffusionsnetzwerk: In einem Diffusionsnetzwerk wird das Signal eines Senders unmittelbar von allen mit dem Netz verbundenen Rechnern unter Ber¨ ucksichtigung der jeweiligen Laufzeitverz¨ ogerung empfangen. Jeder Empf¨ anger muss dabei selbst feststellen, ob die Nachricht f¨ ur ihn bestimmt ist und er sie aufnimmt und verarbeitet oder nicht. Durchsatz (Datendurchsatz, Throughput): Ist ein Maß f¨ ur die Leistungsf¨ ahigkeit eines Kommunikationssystems. Gemessen werden die innerhalb einer bestimmten Zeitspanne insgesamt verarbeiteten oder u ¨bertragenen Nachrichten/Daten. Der Durchsatz errechnet sich aus dem Quotienten der fehlerfrei u ¨bertragenen Datenbits und der Summe aller u uckt wird er z.B. in ¨bertragenen Bits, bezogen auf eine festgelegte Zeitdauer. Ausgedr¨ bit/s oder Datenpakete/s. fehlererkennender Code: Ein Code, der mit Redundanz ausgestattet ist und Fehler er¨ kennt, die bei einer Ubertragung entstanden sind. Einfache Beispiele f¨ ur fehlererkennende Codes sind z.B. das Anh¨ angen von Parit¨ atbits oder Pr¨ ufsummenverfahren. ¨ fehlerkorrigierender Code: Ist ein Code, der in der Lage ist, Ubertragungsfehler nicht nur zu erkennen, sondern diese auch bis zu einem gewissen Grad zu korrigieren. Fehlerate: Als Fehlerrate bezeichnet man das Verh¨ altnis fehlerhaft u ¨bertragener Informationen zur insgesamt u ¨bertragenen Information. Speziell ist die Bitfehlerrate ein Maß f¨ ur die Fehlerrate in einem Datennetz. Sie errechnet sich aus dem Verh¨ altnis der fehlerhaft u ¨bertragenen Bits zur Gesamtanzahl der u ¨bertragenen Bits, gemessen u ¨ber einen l¨ angeren Zeitraum. Flusssteuerung: In einem Kommunikationsnetzwerk wird durch die Flusssteuerung verhindert, dass ein schneller Sender einen langsamen Empf¨ anger mit gesendeten Daten ¨ u (Congestion) verursacht. Der Empf¨ anger verf¨ ugt ¨berschwemmt und so eine Uberlastung zwar in der Regel u ¨ber einen Pufferspeicher, in dem die ankommenden Datenpakete bis zur anschließenden Weiterverarbeitung zwischengespeichert werden k¨ onnen, um ¨ aber einen Uberlauf dieses Zwischenspeichers zu vermeiden, m¨ ussen Protokollmechanismen vorgesehen werden, mit denen der Empf¨ anger den Sender veranlassen kann, mit der Aussendung von Folge-Datenpaketen solange zu warten, bis der Pufferspeicher des Empf¨ angerrechners wieder abgearbeitet ist. Fragmentierung/Defragmentierung: Aufgrund technischer Restriktionen ist die L¨ ange der Datenpakete, die ein Kommunikationsprotokoll in einem paketvermittelten Netzwerk versendet, unterhalb der Anwendungsschicht stets beschr¨ ankt. Ist die L¨ ange der zu

3.5 Glossar

157

versendenden Nachricht gr¨ oßer als die vorgeschriebene Datenpaketl¨ ange, wird die Nachricht in einzelne Teilnachrichten (Fragmente) zerlegt, die den vorgegebenen L¨ angen¨ restriktionen entsprechen. Damit die einzelnen Fragmente nach der Ubertragung beim Empf¨ anger wieder korrekt zur Ursprungsnachricht zusammengesetzt (defragmentiert) ¨ werden k¨ onnen, m¨ ussen sie mit Sequenznummern versehen werden, da die Ubertragungsreihenfolge in Netzwerken nicht immer garantiert werden kann. Hamming-Abstand: Vergleicht man zwei verschiedene, gleichlange Codew¨ orter eines Codes, so wird die Anzahl der unterschiedlichen Stellen dieser Codew¨ orter als HammingAbstand der beiden Codew¨ orter bezeichnet. Jitter: Bezeichnung f¨ ur die Schwankung der Verz¨ ogerungszeit bei der Daten¨ ubertragung in Kommunikationsnetzwerken. Dieser Effekt ist in paketvermittelten Netzwerken unvermeidlich, da die Wege der einzelnen Datenpakete durch das Netzwerk unabh¨ angig voneinander festgelegt werden und so die dabei eingesetzten Zwischensysteme unterschiedlich stark ausgelastet sind. Kommunikationsmedium: Physikalischer Tr¨ ager, der zum Transport von Nachrichtensignalen zwischen Sender und Empf¨ anger verwendet wird. In der direkten sprachlichen Kommunikation ist z.B. die Luft als Tr¨ agermedium des Schalls das Kommunikationsmedium. Kommunikationsprotokoll: Ein Kommunikationsprotokoll (auch einfach Protokoll) ist eine Sammlung von Regeln und Vorschriften, die das Datenformat von zu u ¨bermittelnden ¨ Nachrichten sowie s¨ amtliche Mechanismen und Abl¨ aufe zu ihrer Ubertragung festlegen. Sie enthalten Vereinbarungen u ¨ber den Auf- und Abbbau einer Verbindung zwischen den Kommunikationspartnern, sowie u ubertragung. ¨ber die Art und Weise der Daten¨ Leitungsvermittlung: Methode des Nachrichtenaustauschs u ¨ber ein Netzwerk, bei der zu Beginn des Nachrichtenaustauschs eine exklusive, feste Verbindung zwischen den kommunizierenden Endger¨ aten aufgebaut wird, die f¨ ur die gesamte Dauer der Kommunikation bestehen bleibt. Z.B. funktionieren analoge Telefonnetze nach diesem Prinzip. ¨ Multicast: Eine Multicast-Ubertragung entspricht einem Rundruf an einen beschr¨ ankten ¨ Teilnehmerkreis. Es handelt sich also um eine gleichzeitige Ubertragung von einem Punkt aus zu einer dezidierten Teilmenge aller Netzteilnehmer. Nachrichten¨ ubertragung (Data Transmission): Der Transport von Daten von einem Rechensystem zum anderen heißt Nachrichten¨ ubertragung. Nachrichtenvermittlung: Eine Methode der Netzwerkkommunikation, bei der die einzelnen Vermittlungsstellen einen kompletten Nachrichteninhalt zwischenspeichern, bevor dieser weitergegeben wird. Der Sender muss jeweils nur den Pfad zur n¨ achsten Vermittlungsstelle kennen, die dann ihrerseits die Nachricht nach Erhalt auf dieselbe Weise zur n¨ achsten Vermittlungsstelle weiterschickt. Netzwerk: Bezeichnung f¨ ur den Verbund mehrerer Kommunikationsendger¨ ate, den zu¨ geh¨ origen, verbindenden Ubertragungsmedien und der zum Betrieb des Netzwerks notwendigen Zwischensysteme. Handelt es sich bei den Kommunikationsendger¨ aten um Computer, so spricht man von einem Computernetzwerk. Prinzipiell lassen sich Netzwerke einteilen in private Netzwerke, die sich in privater Hand befinden, und ¨ offentliche Netzwerke, die von einem Tr¨ ager betrieben und zur ¨ offentlichen Nutzung angeboten werden. Paketheader: In einem paketvermittelten Netzwerk fordern die verwendeten Kommunikationsprotokolle die Fragmentierung der zu u ¨bertragenden Informationen in einzelne Datenpakete. Um sicherzustellen, dass die Datenpakete korrekt u ¨bertragen werden, den designierten Empf¨ anger erreichen und dort wieder zur Originalinformation zusammengesetzt werden k¨ onnen, werden den Datenpaketen Steuer- und Kontrollinformationen in einem sogenannten Datenpaketheader vorangestellt.

158

3 Grundlagen der Kommunikation in Rechnernetzen

Paketvermittlung: Die vorherrschende Kommunikationsmethode in digitalen Netzen. Die Nachricht wird dabei in einzelne Datenpakete fester Gr¨ oße zerlegt, und die Pakete werden einzeln und unabh¨ angig voneinander vom Sender u ¨ber zwischengeschaltete Vermittlungsstellen zum Empf¨ anger gesendet. Man unterscheidet verbindungsorientierte und verbindungslose Paketvermittlungsnetze (Datagrammnetz). In verbindungsorientierten Paketvermittlungsnetzen wird vor dem Start der eigentlichen Daten¨ ubertragung eine virtuelle Verbindung im Netz aufgebaut. In verbindungslosen Paketvermittlungsnetzen wird kein fester Verbindungsweg vorgew¨ ahlt, die Datenpakete werden jeweils unabh¨ angig voneinander auf m¨ oglicherweise verschiedenen Wegen u ¨bertragen. Protokollstapel: Die verschiedenen Teilprobleme der Netzwerkkommunikation werden jeweils von speziell ausgerichteten Protokollen abgehandelt, die alle reibungslos miteinander zusammenarbeiten, um das Gesamtproblem der Netzwerkkommunikation zu l¨ osen. Um dieses Zusammenspiel zu gew¨ ahrleisten muss die Entwicklung der NetzwerkprotokollSoftware als eine umfassend zu l¨ osende Gesamtaufgabe betrachtet und zu ihrer L¨ osung jeweils eine zusammengeh¨ orige Familie von Protokollen (Protocol Suites) entwickelt werden, die die anfallenden Teilaufgaben l¨ osen und effizient miteinander interagieren. Das Gesamtproblem der Netzwerkkommunikation l¨ asst sich gut mit Hilfe eines Schichtenmodells repr¨ asentieren, wobei die einzelnen Protokolle der Protokollfamilie jeweils einer bestimmten Schicht zugeordnet sind. Man spricht daher von einem Protokollstapel. Die bekanntesten Protokollstapel sind die TCP/IP-Protokollsuite des Internets und das oft als Lehrbeispiel dienende ISO/OSI-Schichtenmodell. Pr¨ ufsummenverfahren: Zur Fehlererkennung kommen in Kommunikationsprotokollen oft Pr¨ ufsummen zum Einsatz. Der Sender einer Nachricht berechnet eine Pr¨ ufsumme u ¨ber die zu versendenden Nachricht und h¨ angt diese an die Nachricht an. Beim Empf¨ anger angekommen, wendet dieser auf die empfangene Nachricht (ohne angeh¨ angte Pr¨ ufsumme) dasselbe Verfahren zur Pr¨ ufsummenbildung an und vergleicht den errechneten Wert mit dem vom Sender angef¨ ugten Pr¨ ufwert. Stimmen beide Werte u ¨berein, so ist die Nachricht mit hoher Wahrscheinlichkeit korrekt u ¨bertragen worden. Allgemein werden bei einem Pr¨ ufsummenverfahren die u ¨bertragenen Bitfolgen als numerische Werte interpretiert, zu einzelnen Bl¨ ocken zusammengefasst und deren Summe berechnet. Als Bin¨ arzahl kodiert wird diese Pr¨ ufsumme einfach mit an die zu u ¨bertragenden Daten angeh¨ angt. Pr¨ ufsummenverfahren werden z.B. im IP-Protokoll verwendet. Das bekannteste Verfahren ist die sogenannte zyklische Redundanz¨ uberpr¨ ufung (Cyclic Redundancy Check, CRC, auch als Polynomialcode bezeichnet). Quality of Service (QoS, Dienstg¨ ute): Quantifiziert die Leistungen eines Dienstes, die von einem Kommunikationssystem angeboten werden. QoS werden u ute¨ber die Dienstg¨ attribute Leistung, Leistungsschwankung, Zuverl¨ assigkeit und Sicherheit beschrieben, die jeweils u uteparameter spezifiziert werden. ¨ber eigene, quantifizierbare Dienstg¨ Punkt-zu-Punkt Verbindung: Einfachste Architekturform eines Rechnernetzes. Jeder Rechner des Punkt-zu-Punkt Netzwerks wird dabei mit jedem anderen Rechner des Netzwerks direkt verbunden. Die einzelnen Verbindungen k¨ onnen exklusiv durch die jeweils beteiligten Kommunikationspartner genutzt werden und gestatten so einen hohen Grad an Kommunikationseffizienz. Allerdings ben¨ otigt die Punkt-zu-Punkt Vernetzung einen erheblichen Verbindungsaufwand (quadratisch zur Anzahl der beteiligten Rechner), so dass sie in der Praxis lediglich in sehr kleinen Netzen oder f¨ ur einzelne, dedizierte Weitverkehrsverbindungen zur Anwendung kommt. Rechnernetz: Ein Rechnernetz (Netzwerk, Computer Network) ist ein Kommunikationsverbund zwischen den an ein Daten¨ ubertragungsnetz angeschlossenen, autonomen Rechnersystemen, die jeweils u ¨ber eigenen Speicher, eigene Peripherie und eigene Rechenf¨ ahigkeit verf¨ ugen. Da alle Teilnehmer miteinander vernetzt sind, bietet das Rechnernetz jedem Teilnehmer die M¨ oglichkeit, mit jedem anderen der Netzteilnehmer in Verbindung zu treten.

3.5 Glossar

159

Redundanz: Als Redundanz wird der Teil einer Nachricht bezeichnet, der nicht zur eigentlichen Nachricht geh¨ ort. Der redundante Teil der Nachricht kann daf¨ ur genutzt werden, dass die Nachricht auch dann noch zu verstehen ist, wenn sie fehlerhaft u ¨bermittelt wurde. Routing: In einem WAN liegen entlang des Weges zwischen Sender und Empf¨ anger oft mehrere Zwischensysteme, die f¨ ur die Weitervermittlung der versendeten Daten an den jeweiligen Empf¨ anger zust¨ andig sind. Die Ermittlung des korrekten Weges vom Sender zum Empf¨ anger wird dabei als Routing bezeichnet. Die dedizierten Vermittlungsstellen (Router) empfangen dabei ein versendetes Datenpaket, werten dessen Adressinformation aus und leiten es an das auf dem Weg zum Empf¨ anger n¨ achste Zwischensystem weiter bzw. liefern es an den Empf¨ anger aus. Schichtenmodell: Komplexe Probleme lassen sich modellieren und l¨ osen, wenn es gelingt, sie in hierarchisch geschichtete Teilprobleme zu zerlegen, so dass das Abstraktionsniveau von Schicht zu Schicht zunimmt, d.h. eine h¨ oher im Schichtenmodell liegende Schicht ist abgeschirmt vor den Detailproblemen, die auf einer niedrigeren Schicht abgehandelt werden. Schichtenmodelle spielen in der Kommunikationstechnik, aber auch in anderen Gebieten der Informatik eine bedeutende Rolle. In abgewandelter Darstellung entsprechen diese auch dem Schalenmodell, das anstelle aus hierarchisch aufeinander aufbauenden Schichten aus einzelnen Schalen besteht. ¨ Schnittstelle: Gedachter oder tats¨ achlicher, technisch detailliert fixierter Ubergang an der Grenze zwischen zwei gleichartigen Einheiten (Hardware oder Software) bzw. zwischen einem System und seiner Umgebung (externe Schnittstelle) mit einem Satz exakt festgelegter Regeln und Verfahren. In Kommunikationssystemen sind Schnittstellen f¨ ur ¨ die Ubergabe von Daten oder Signalen (z.B. beschrieben in DIN 44300) zust¨ andig. Sicherheit: In der Netzwerktechnik werden unter dem Begriff Sicherheit verschiedene Sicherheitsziele (Dienstg¨ uteparameter) zusammengefasst, die den Grad der Unversehrtheit und Authentizit¨ at der u ¨bertragenen Daten beschreiben. Zu den wichtigsten Sicherheitszielen z¨ ahlen Vertraulichkeit (kein unberechtigter Dritter ist in der Lage, die Datenkommunikation zwischen Sender und Empf¨ anger zu verstehen), Integrit¨ at (Unversehrtheit der empfangenen Daten), Authentizit¨ at (Garantie der Identit¨ at der Kommunikationspartner), Verbindlichkeit (rechtsverbindlicher Nachweis einer erfolgten Kommunikation) und Verf¨ ugbarkeit (Garantie, dass ein Dienstangebot tats¨ achlich verf¨ ugbar ist). Topologie: Unter der Topologie eines Rechnernetzes versteht man die geometrische Anordnung der einzelnen Rechnerknoten innerhalb des Netzwerks. Verbreitete Topologien f¨ ur Rechnernetzwerke sind Bustopologie, Ringtopologie und Sterntopologie. ¨ ¨ Uberlast (Congestion): Ein Netzwerk kann mit seinen Betriebsmitteln (Ubertragungsmedien, Router und andere Zwischensysteme) eine bestimmte Last (Kommunikation, Daten¨ ubertragung) bew¨ altigen. N¨ ahert sich die im Netzwerk erzeugte Last zu 100% der ¨ vorhandenen Kapazit¨ at an, tritt eine Uberlast (Congestion) auf, auf die das Netzwerk in geeigneter Weise reagieren muss, um Datenverluste und den Zusammenbruch der Kommunikation zu vermeiden. Verz¨ ogerung (Delay): Messgr¨ oße, die die maximal zugesicherte Zeitdauer angibt, die zwischen dem Start einer Daten¨ ubertragung und deren Abschluss liegt. Die Verz¨ ogerung wird in Sekunden oder Sekundenbruchteilen gemessen und kann je nach Standort der miteinander kommunizierenden Rechner stark schwanken. Obwohl den Nutzer am Ende nur die Gesamtverz¨ ogerung interessiert, treten an unterschiedlichen Stellen des Kommunikationsprozesses verschiedenartige Verz¨ ogerungsursachen auf, wie z.B. Verarbeitungsverz¨ ogerung (Processing Delay), Warteschlangenverz¨ ogerung (Queueing Delay), ¨ Versendeverz¨ ogerung (Transmission Delay) und Ubertragungsverz¨ ogerung (Propagation Delay). Virtual Private Network (VPN): Softwaretechnisch realisierte Verkn¨ upfung von Rechnern in einem ¨ offentlichen Netzwerk zu einem virtuellem Netzwerk, das die Eigenschaften

160

3 Grundlagen der Kommunikation in Rechnernetzen

eines abgesicherten, privaten Netzwerks aufweist. Netzwerkverwaltung und Netzwerksicherheit liegen dabei ausschließlich in der Verantwortung des privaten“ Betreibers. ” Externe, nicht autorisierte Rechner verf¨ ugen u oglichkeit auf das VPN. ¨ber keine Zugriffsm¨ virtuelle Verbindung: Paketvermittelte Netzwerke k¨ onnen verbindungslose und verbindungsorientierte Dienste realisieren. Um einen verbindungsorientierten Dienst zu implementieren, wird eine virtuelle Verbindung zwischen den beiden Kommunikationspartnern aufgebaut, d.h. alle zu u ¨bertragenden Daten werden dann entlang dieser virtuellen Verbindung durch das Netzwerk transportiert. Der Nachrichtenaustausch zwischen Sender und Empf¨ anger wird u ¨ber sogenannte Bitstreams“ (auch Bytestreams) abgehandelt. ” Vor den Kommunikationspartnern wird so die Zerlegung der ausgetauschten Datenstr¨ ome in Datenpakete verborgen.

Kapitel 4

Multimediale Daten und ihre Kodierung

Die neue Welt“ ” – aus dem Wappenspruch von Christoph Kolumbus (1646–1506)

Die rasante Entwicklung der digitalen Kommunikationstechniken, sowohl in ihrer Vielfalt, als auch in ihrer Leistungsf¨ ahigkeit nimmt kein Ende. Dabei h¨ alt der Trend an, dass die klassischen Medien immer mehr zusammenwachsen: Sprachkommunikation und Daten¨ ubertragung sind bereits in modernen Mobilfunknetzen untrennbar miteinander verbunden. Mit dem Einzug der Digitaltechnik ist eine Unterscheidung der einzelnen Medien wie Text, Grafik, Audio oder Video auch nicht mehr notwendig. Kodiert und in digitaler Form haben sie alle die gleiche Gestalt riesenlanger Folgen von Nullen und Einsen und k¨ onnen unterschiedslos ¨ uber dasselbe Medium ¨ ubertragen werden. Um diesen Strom von 0en und 1en wieder in seine urspr¨ ungliche Medienauspr¨ agung zu ¨ uberf¨ uhren, sind Methoden und Verfahren notwendig zur Kodierung und Dekodierung. Diese Aufgabe wird von leistungsf¨ ahigen Computern ¨ ubernommen, die uns allerdings in Zukunft immer seltener in herk¨ ommlicher Gestalt mit Bildschirm und Tastatur entgegentreten werden, sondern als integrierter Systembestandteil in so ziemlich allen Ger¨ aten des t¨ aglichen Gebrauchs. Heute ist der Computer das Fenster in die digitale Welt und fungiert als integratives Kommunikationsmedium, das eine multimediale Datenkommunikation ¨ uber eine einheitliche Schnittstelle erm¨ oglicht, n¨ amlich das World Wide Web (WWW) mit seiner einfach und intuitiv zu bedienenden Benutzerschnittstelle, dem Browser. Im nachfolgenden Kapitel soll n¨ aher auf die die Kodierung multimedialer Daten und ¨ den zu ihrer Ubertragung in digitalen Netzen und im WWW entwickelten Datenformaten eingegangen werden, wobei im Detail auf die wichtigsten Medienformate f¨ ur Audio-, Bild- und Video-Daten eingegangen wird.

4.1 Medienvielfalt und Multimedia - eine Formatfrage Origin¨ar war der Computer nicht als Kommunikationsmedium konzipiert. Dazu w¨are auch die anf¨anglich auf Lochkarten angewiesene Eingabe und Ausgabe viel zu C. Meinel, H. Sack, Digitale Kommunikation, X.media.press, c Springer-Verlag Berlin Heidelberg 2009 DOI 10.1007/978-3-540-92923-9 4,

161

162

4 Multimediale Daten und ihre Kodierung

schwerf¨allig. Bevor der Computer soweit entwickelt wurde, dass herk¨ommliche Informationstr¨ager, wie Schrift oder Bilder als Ausgabe gedruckt oder auf einem Bildschirm angezeigt werden konnten, verging eine geraume Zeit. Schon sehr fr¨uh in der Entwicklungsgeschichte des Computers kamen Fernschreiber bzw. der Textdrucker als Ausgabemedien zum Einsatz, bevor sp¨ater Plotter oder grafikf¨ahige Bildschirme eingef¨uhrt wurden, die in der Lage waren, digital berechnete Bilder auszugeben. Die F¨ahigkeiten zur Darstellung von hochaufgel¨osten Grafiken in Echtfarben, von Bewegtbildern und Animationen mit Echtzeitvideoausgabe, sowie die Wiedergabe und Erzeugung von T¨onen bis hin zur k¨unstlichen Sprachsynthese kamen aber erst in den vergangenen 20 Jahren hinzu und machten den Computer, in Verbindung mit der Entwicklung der Rechnernetzwerke und des Internets zu dem universellen Kommunikationsmedium wie wir es heute kennen. Die stetig anwachsenden F¨ahigkeiten der Computer, verbunden mit einer andauernden Senkung der Herstellungskosten ließen aus dem Computer ein Konsumprodukt f¨ur den Massenmarkt werden, das es in fast jeden Haushalt geschafft hat und ohne das unser heutiges Leben einfach nicht mehr funktioniert. Bereits 1945 nahm Vannevar Bush, der damalige Direktor des Office of Scientific Research and Development in der US-Regierung, das im Zweiten Weltkrieg alle milit¨arischen Forschungsprogramme, darunter auch das Manhattan Projekt zur Entwicklung der Atombombe koordinierte, die Vorstellung des Computers als universellem Kommunikationsmedium vorweg in seiner Vision des an fr¨uherer Stelle bereits beschriebenen Memex-Systems [34]. Dieses Memex (Memory Extender) sollte nach der Vorstellung von Bush eine elektromechanische Vorrichtung zur Speicherung aller B¨ucher, pers¨onlicher Aufzeichnungen und Kommunikationsvorg¨ange bieten und einen schnellen, flexiblen und zielgerichteten Zugriff auf alle Daten und ihre Verkn¨upfungen miteinander erlauben. Dabei griff er auch das Problem der MenschComputer Interaktion auf und schlug eine f¨ur die damalige Zeit unerh¨ort innovative Benutzerschnittstelle vor, die bereits entfernt an moderne, digitale Desktop-Systeme erinnert. Heutige Hypermedia-Systeme greifen diese Vorstellung auf und erlauben den Zugriff auf eine Vielzahl von Medientypen und -formaten, wie etwa Text, Bild-, Audio- oder Videoinformation. Zusammengefasst werden all diese Medienformate unter dem Begriff Multimedia. Nat¨urlich m¨ussen alle Medientypen, sofern sie von einem Computer verarbeitet werden sollen, digital (bin¨ar) kodiert werden. Man unterscheidet die folgenden traditionellen Auspr¨agungen der mittels Computer darstellbaren Medientypen: • Text Zur Kodierung alphanumerischer Nachrichten, also mittels Ziffern und Buchstaben verschiedener Alphabete dargestellter Informationen existieren viele unterschiedliche Verfahren, angefangen von ASCII, dem 7-Bit Standard, der noch aus den Zeiten des Fernschreibers stammt, bis hin zum 32-Bit Unicode, mit dem es m¨oglich ist, ann¨ahernd alle Alphabete der Erde zu kodieren. Eng verbunden mit der Art des Codes ist der ben¨otigte Speicherplatzbedarf. So werden viele Codes ¨ redundant ausgelegt, um eine gewisse Sicherheit gegen¨uber Ubertragungsfehlern zu gew¨ahrleisten.

4.1 Medienvielfalt und Multimedia - eine Formatfrage

163

• Grafik Entsprechend der Komplexit¨at der darzustellenden bildlichen Information kommen verschiedene Verfahren zur Kodierung von Bildinformation zum Einsatz. Dabei reicht die Palette von Verfahren f¨ur einfache monochrome Bilder bis hin zu Darstellungen in sogenannten Echtfarben. – monochrom: Hier kommt nur eine Farbe zum Einsatz. Das darzustellende Bild gestaltet sich durch F¨arben bzw. Nichtf¨arben der einzelnen Bildpunkte mit dieser Farbe. Die verwendeten Kodierungsverfahren sind sehr einfach gehalten und fußen auf den Kodierverfahren f¨ur allgemeine Bin¨ardaten. – beschr¨ankte Farbpalette: Informationsgrafiken, Symbole und Piktogramme beinhalten oft nur einige wenige Farben. Um eine m¨oglichst speicherplatzeffiziente Darstellung dieser Information zu erm¨oglichen, wird die Kodierung mit einer vorgegebenen Farbpalette bzw. einer vorgegebenen Farbtiefe durchgef¨uhrt. Allerdings sind diese Verfahren nur bedingt zur Kodierung von Fotografien mit ihrer nahezu unbeschr¨ankten Anzahl an Farben geeignet. – Echtfarben: Fotografien, die die Realit¨at abbilden, weisen oft Millionen unterschiedlicher Farbwerte auf. Allerdings liegen diese Farbwerte meist nicht in willk¨urlicher, d.h. zuf¨alliger Anordnung vor, sondern treten in Form von sogenannten Farbverl¨aufen auf, die sich ebenfalls durch spezielle Verfahren speicherplatzeffizient kodieren lassen. Man unterscheidet hier zwischen verlustbehafteter und verlustfreier Kodierung. • Audio Bei der Wiedergabe von akustischer Information wie Sprache oder Musik spielt die zeitliche Dimension eine zentrale Rolle. Die kodierten Daten m¨ussen in Echtzeit wiedergegeben werden, da sonst der Nutzwert der Information, wie z.B. die Verst¨andlichkeit der Sprache verloren geht. Neben aufw¨andigen verlustfreien Kodierungen existieren verschiedene verlustbehaftete Verfahren, die auf sogenannten psychoakustischen Modellen basieren, die Frequenzen und Tonsignale, die vom menschlichen Geh¨or nicht wahrgenommen werden k¨onnen, ausfiltern und nicht mitspeichern. • Video und Animation Ebenso wie bei der Wiedergabe von akustischer Information spielt auch bei der Kodierung von Video- und Animationssequenzen die Eignung zur Wiedergabe in Echtzeit eine wichtige Rolle. Um eine Bildfolge speicherplatzeffizient zu kodieren, werden oft nur differentielle Bildfolgen abgespeichert, d.h. es werden nur die in aufeinanderfolgenden Bildern auftretenden Ver¨anderungen gespeichert, oder es werden Vorhersagen u¨ ber Folgebilder getroffen und lediglich die Differenz zwischen Vorhersagebild und tats¨achlichem Bild kodiert. Je besser die Vorhersage, desto geringer die Differenz und desto kleiner der ben¨otigte Speicherplatz. Alle diese unterschiedlichen Medien besitzen spezifische Eigenschaften, auf die in den Datenformaten, die zu ihrer Kodierung verwendet werden, besondere R¨ucksicht genommen werden muss. Prinzipiell sind zwei Varianten von multimedialen Daten zu unterscheiden [221]:

164

4 Multimediale Daten und ihre Kodierung

• zeitunabh¨angige Medien Text und Grafik sind Vertreter dieser Gruppe von Medien, die aus einer Folge einzelner Elemente bestehen, ohne dass dabei eine Zeitkomponente von Bedeutung w¨are. Sie werden oft auch als diskrete Medien bezeichnet. Ihre Darstellung und Verarbeitung sollte zwar so schnell wie m¨oglich geschehen, jedoch unterliegen sie keinen inhaltlichen Zeitconstraints. • zeitabh¨angige Medien Akustische Informationen oder Videobilder sind wesentlich gekennzeichnet durch ihre Ver¨anderung u¨ ber die Zeit hinweg. Die darzustellende Information ergibt sich nicht alleine durch den Gehalt der Einzelinformation, sondern erschließt sich vollst¨andig erst aus ihrem fristgerechten zeitlichen Ablauf. In diese Gruppe von Medien fallen auch taktile und sensorische Informationen, auf die hier nicht n¨aher eingegangen werden soll. Die Darstellung solcher Medien ist demzufolge zeitkritisch, ihre korrekte Wiedergabe h¨angt von Zeitbedingungen ab. Die Kodierung der unterschiedlichen Medien erfordert den Einsatz von spezifischen, auf das jeweilige Medium speziell zugeschnittenen Verfahren. Speicherplatzeffizienz und einfache Manipulierbarkeit sind dabei die Grundanforderungen an eine Kodierung. Entsprechend den unterschiedlichen Anforderungen und der jeweils gew¨unschten Qualit¨at der Ausgabe wurden f¨ur jedes Medium verschiedene Datenformate entwickelt. Sie sind jeweils unterschiedlich gut zur Darstellung und Manipulation des Medieninhalts geeignet. Bei ihrer Entwicklung stehen oft Speicherplatzeffizienz und einfache Handhabbarkeit der Manipulationsalgorithmen in Kon¨ kurrenz. Ubrigens gestaltet sich die Weiterverarbeitung der Information meist um so schwieriger, je kompakter ein Datenformat ist. Sollen Daten zudem auch noch zwischen Kommunikationssystemen u¨ bertragen ¨ werden, spielt die Ubertragungssicherheit in Zusammenhang mit der Fehlererkennung der u¨ bertragenen Daten eine weitere, wichtige Rolle. Der Datenaustausch zwischen Kommunikationssystemen erfolgt u¨ ber einen Kommunikationskanal, der u¨ blicherweise in verschiedenem Maße St¨orungen unterliegt, die ihrerseits Fehler in den u¨ bertragenen Daten verursachen k¨onnen (siehe auch Abb. 1.4). Diese Fehler k¨onnen durch geschickte Ausnutzung der Redundanz einer Kodierung erkannt und gegebenenfalls sogar korrigiert werden.

4.2 Information und Kodierung 4.2.1 Information und Entropie Bevor wir n¨aher auf die Kodierung und Komprimierung von Daten eingehen, m¨ussen wir uns kurz mit dem Begriff der Information auseinandersetzen. Was ist eigentlich Information? Umgangssprachlich versteht man unter dem Begriff Infor” mation“ soviel wie ein bestimmtes Wissen, dem in der jeweiligen aktuellen Situation Bedeutung und Geltung zukommt. Botschaften und Nachrichten in jeder m¨ogli-

4.2 Information und Kodierung

165

chen Auspr¨agung enthalten Information. Information wird in Form einer Nachricht kommuniziert. Wird sie vom Empf¨anger verstanden, wird sie zum Ausgangspunkt von Ver¨anderungen im empfangenden System. Schwieriger wird es, wenn man den Informationsbegriff wissenschaftlich fassen m¨ochte. Hier stellen sich Fragen, die mit der eben getroffenen umgangssprachlichen Definition nicht mehr befriedigend beantwortet werden k¨onnen. Wie kann Information quantifiziert, d.h. gemessen werden? Wieviel Information steckt in einer Nachricht? Enth¨alt eine Nachricht viel oder wenig Information? Kann die Nachricht verk¨urzt werden, ohne dass dabei Information verloren geht? Mit Fragen dieser Art besch¨aftigte sich der Informationstheoretiker Claude E. Shannon (1916–2001) im Rahmen der von ihm begr¨undeten mathematischen Informationstheorie (siehe auch Kap. 1.2. In der mathematischen Informationstheorie wird der Begriff der Information bezogen auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (Nachrichtenelemente, Ereignisse) aus einer zuvor festgelegten Menge von Elementen. Mit diesem Zugang gelang es Shannon, Information als berechenbares Maß f¨ur die Wahrscheinlichkeit des Eintretens zuk¨unftiger Ereignisse in einem technischen System zu definieren. In diesem Sinne bezeichnet bei Shannon Information die Menge an beseitigter Unsicherheit, die z.B. durch Auskunft, Aufkl¨arung oder Benachrichtigung erlangt wurde. Als Elemente oder Ereignisse werden die Zeichen betrachtet, die in Folge eines Auswahlvorgangs aus dem zuvor festgelegten Zeichenvorrat (Alphabet) erzeugt werden. Der Informationsgehalt eines Elements ist um so gr¨oßer, je gr¨oßer die Unsicherheit seines Eintretens ist, d.h. je seltener es eintritt [212, 214]. Pr¨aziser, eine Folge von Elementen eines Alphabets wird als Zeichenkette bezeichnet. Werden Zeichenketten im Zuge eines Kommunikationsvorganges von einem Sender zu einem Empf¨anger u¨ bermittelt, spricht man von einer u¨ bermittelten Nachricht. Kommunikation dient dem Austausch von Information. Information wird in Form von Zeichenketten als Nachricht kodiert. Die Zeichenketten einer Nachricht werden meist nach bestimmten, vorgegebenen Regeln (Syntax) aufgebaut. Durch die Verarbeitung der Nachricht beim Empf¨anger erh¨alt die Nachricht in Abh¨angigkeit von der aktuellen Situation (Kontext) eine bestimmte Bedeutung (Semantik) und bewirkt beim Empf¨anger eine Zustands¨anderung. Die wichtigsten Grundbegriffe aus der Informations- und Kodierungstheorie werden in Abb. 4.1 zusammengefasst. Die L¨ange der Nachricht, mit der Information kodiert und u¨ bertragen wird, h¨angt von der jeweils verwendeten Kodierungsvorschrift, d.h. vom gew¨ahlten Code ab. Je effizienter der Code, desto k¨urzer die Nachricht. Der Informationsgehalt einer Nachricht kann jetzt als die L¨ange einer k¨urzest m¨oglichen Kodierung gemessen werden (siehe Abb. 4.2).

166

4 Multimediale Daten und ihre Kodierung

Einige Grundbegriffe aus der Informations- und Kodierungstheorie Eine Nachricht kann als eine Folge von Zeichen aus einem Alphabet aufgefasst werden, die von einem Sender (Quelle) zu einem Empf¨ anger (Senke) u ¨bermittelt wird. Die Zeichenfolge einer Nachricht muss nicht endlich sein, aber abz¨ ahlbar, so dass die einzelnen Zeichen der Nachricht mit Hilfe einer Abbildungsvorschrift auf die nat¨ urlichen Zahlen durchnummeriert und eindeutig identifizieret werden k¨ onnen. (Zul¨ assige) Nachrichten sind nach bestimmten, vorgegebenen Regeln aufgebaut (Syn¨ tax). Durch ihre sich an die Ubertragung anschließende Verarbeitung erh¨ alt die Nachricht eine Bedeutung (Semantik). Ein Alphabet besteht aus einer abz¨ ahlbaren Menge von Zeichen und definiert den Zeichenvorrat aus dem eine Nachricht aufgebaut ist. Die Menge aller Nachrichten, die mit den Zeichen eines Alphabets gebildet werden k¨ onnen, bezeichnet man als Nachrichtenraum. Eine Kodierung ist eine Abbildung von Zeichenfolgen eines Nachrichtenraums in einen anderen. In der Informatik sind Kodierungen von Nachrichten als Folgen von Bits von besonderem Interesse, d.h. der Nachrichtenraum u ¨ber dem Alphabet {0, 1} (Bin¨ arkodierung). Ein Codewort ist eine Folge von Code-Elementen (Zeichen) des Ziel-Nachrichtenraums, der eine Nachricht des Ursprungs-Nachrichtenraums zugeordnet wurde. Als Redundanz wird der Teil einer Nachricht bezeichnet, der keine Information innerhalb des Kommunikationsprozesses vermittelt. Der redundante Teil der Nachricht sorgt daf¨ ur, dass die Nachricht auch dann noch verstanden werden kann, wenn sie fehlerhaft u ¨bermittelt wurde. Weiterf¨ uhrende Literatur: Dankmeier, M.: Grundkurs Codierung, 3. Aufl., Vieweg, Wiesbaden (2006)

Abb. 4.1 Grundbegriffe aus der Informations- und Kodierungstheorie

4.2.2 Redundanz – Mehrwert oder Verschwendung? Aus dem im vorangegangenen Kapitel definierten Informationsgehalt einer Nachricht l¨asst sich eine untere Schranke f¨ur die L¨ange jeder Kodierung dieser Nachricht ableiten. Nicht alle Kodierungen sind in gleicherweise effizient, sie kodieren die gleiche Information in Nachrichten von unterschiedlicher L¨ange. Daher enthalten Kodierungen, deren Nachrichtenl¨ange die von Shannon beschriebene theoretische Untergrenze u¨ berschreiten, Anteile, die selbst nichts zum Informationsgehalt der kodierten Nachricht beitragen. Diese Anteile einer Nachricht, die selbst keine zur Nachricht beitragende Information enthalten, werden als Redundanz bezeichnet. Redundante Nachrichtenanteile zeichnen sich dadurch aus, dass sie aus der Nachricht entfernt werden k¨onnen, ohne dass sich dabei der Informationsgehalt der Nachricht verringert. Dieses Entfernen der redundanten Anteile aus einer Nachricht wird auch als Komprimierung der Nachricht bezeichnet. Betrachtet man unsere deutsche Sprache, so l¨asst sich sofort ein großer Anteil an Redundanz identifizieren. Entfernt man etwa aus einem Wort einige Buchstaben, wie z.B. We hnacht man “(die fehlenden Buchstaben wurden durch “ ersetzt ” ” ¨ und h¨atten z.B. bei der Ubertragung verloren gegangen sein k¨onnen), l¨asst sich das

4.2 Information und Kodierung

167

Informationsgehalt und Entropie Die Bestimmung des Informationsgehalts einer Nachricht geht auf Ralph Hartley (1888– 1970) zur¨ uck und wurde von Claude E. Shannon erweitert und in der von ihm begr¨ undeten Informationstheorie konsequent angewandt. Information – so Shannon – ist nichts weiter als beseitigte Unbestimmtheit. Gelingt es, das Maß dieser Unbestimmtheit als ¨ aquivalenten Ausdruck des Informationsgehalts zu ermitteln, gewinnt man einen Ansatz zur quantitativen Beschreibung von Information. Betrachten wir eine Menge X = {x1 , x2 , . . . , xn } von Ereignissen, wobei das Ereignis xi mit der Wahrscheinlichkeit 0≤p(xi )≤1 f¨ ur i=1, 2. . .,n eintritt. Dieses Ereignis kann etwa die Auswahl eines bestimmten Zeichens aus einem vorgegebenen Alphabet sein, also z.B. die Auswahl eines Buchstaben aus dem lateinischen Alphabet. Der Kehrwert 1/p(xi ) stellt dann ein Maß f¨ ur die Unbestimmtheit des Eintretens des Ereignisses xi dar. Je gr¨ oßer die Wahrscheinlichkeit des Auftretens eines Zeichens, also je gr¨ oßer p(xi ), desto kleiner die Unbestimmtheit seines Eintretens. Tritt ein Ereignis xi mit Sicherheit ein, d.h. ist p(xi )=1, dann besteht keine Unsicherheit mehr, ob das Ereignis eintritt oder nicht, d.h. die Unbestimmtheit des Ereignisses bzw. dessen Informationsgehalt ist Null. Um diese Bedingung zu erm¨ oglichen, muss man noch den Logarithmus (zur Basis 2) u ¨ber den Kehrwert 1/p(xi ) bilden. Der Informationsgehalt Hi des Ereignisses xi , das mit einer Wahrscheinlichkeit von 0 ≤ p(xi ) ≤ 1 auftritt, betr¨ agt somit 1 Hi = log2 = − log2 p(xi ). p(xi ) Der Ausdruck Hi gilt dabei sowohl als Maß der Unbestimmtheit, die vor dem Auftreten von xi vorhanden war, als auch als Maß f¨ ur die Information, die nach dem Auftreten von xi gewonnen wurde. Der Informationsgehalt einer Nachricht ergibt sich so aus dem Informationsgehalt jedes in der Nachricht auftretenden Zeichens multipliziert mit dessen H¨ aufigkeit. Sei N eine Nachricht, die aus Zeichenketten eines vorgegebenen Alphabets X = {x1 , x2 , . . . , xn } besteht und deren relative H¨ aufigkeit innerhalb der Nachricht N jeweils 0≤p(xi )≤1 betr¨ agt. Bezeichnet |N| die L¨ ange der Nachricht N, dann ergibt sich der Informationsgehalt der Nachricht N als n

H(N) = |N| · ∑ pi · (− log2 (pi )). i=1

Maßeinheit f¨ ur den Informationsgehalt einer Nachricht ist bit, das als Binary Digit eine Bin¨ arziffer bezeichnet und im Shannon’schen Sinn als Basic Indissoluble Information Unit die kleinstm¨ ogliche Informationseinheit ist. Der mittlere Informationsgehalt einer Nachricht wird in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik auch als Entropie bezeichnet. Weiterf¨ uhrende Literatur: Hartley, R. V.: Transmission of Information, Bell Syst. Tech. Journal, vol. 7, pp. 535–563 (1928) Shannon, C. E.: A Mathematical Theory of Communication, The Bell System Technical Journal vol. 27, pp. 379–423, 623–656 (1948)

Abb. 4.2 Informationsgehalt und Entropie

168

4 Multimediale Daten und ihre Kodierung

Wort Weihnachtsmann“ trotzdem problemlos erkennen. Entfernt man allerdings ” noch weitere Buchstaben (ohne dabei die Eindeutigkeit des Wortes oder die Shannon’sche Untergrenze zu verletzen), leidet darunter deutlich die Lesbarkeit des Wortes, wie z.B. bei W h ntsm n . Die Redundanz in unserer Sprache hat demnach ” ¨ einen Sinn. Sie dient dazu, auch bei unvollst¨andiger Ubermittlung einer Nachricht ¨ oder beim Auftreten von Ubertragungsfehlern in einer Nachricht, trotz fehlerhafter ¨ Ubermittlung die urspr¨ungliche Nachricht rekonstruieren und verstehen zu k¨onnen. Diese Eigenschaft der Redundanz findet sich nicht nur in unserer sprachlichen Kommunikation, sondern wird auch in der digitalen Datenkommunikation angewandt, ¨ um Ubertragungsfehler mit Hilfe fehlererkennender Kodierungen zu erkennen und mit Hilfe von fehlerkorrigierenden Kodierungen r¨uckg¨angig zu machen. Eine weitere wichtige Eigenschaft der Redundanz wurde bereits bei dem o.a. Beispiel deutlich: redundante Nachrichten lassen sich (f¨ur uns Menschen) leichter (effizienter) lesen und verstehen. Redundanz erm¨oglicht also neben Fehlertoleranz auch eine Vereinfachung der Nachrichtenverarbeitung. Allerdings muss f¨ur diese Vortei¨ le eine gr¨oßere Datenmenge bei der Ubertragung oder Speicherung einer Nachricht mit redundanten Anteilen in Kauf genommen werden. Ob und in welcher Art eine redundante Kodierung der Nachricht erfolgen soll, entscheidet der jeweilige Anwendungsfall. So ist im Falle einer Daten¨ubertragung u¨ ber ein unsicheres und feh¨ lerhaftes Ubertragungsmedium eine fehlertolerante Kodierung von Vorteil, w¨ahrend bei der optimalen Ausnutzung von vorhandenem Speicherplatz oder vorhandener ¨ Ubertragungskapazit¨ at auf m¨ogliche Redundanz verzichtet wird, um die Nachricht so speicherplatzeffizient wie m¨oglich zu kodieren. Dank Shannons Definition des Informationsgehalts einer Nachricht ergibt sich auch eine Untergrenze daf¨ur, inwieweit sich eine Nachricht ohne Informationsverlust komprimieren l¨asst. Eine weitere Komprimierung ist dann nur m¨oglich, wenn bewusst auf informationstragende Anteile einer Nachricht verzichtet wird. Im Gegensatz zur verlustfreien Komprimierung bezeichnet man Komprimierungsverfahren, bei denen Informationen verloren gehen, als verlustbehaftete Komprimierungsverfahren. Verlustbehaftete Komprimierungsverfahren kommen z.B. bei der Komprimierung von Audio-, Bild-, oder Videodaten zum Einsatz, da hier die Schw¨achen des menschlichen Wahrnehmungssystems ausgenutzt werden k¨onnen und auf solche Informationsanteile verzichtet werden kann, die vom Menschen ohnehin nicht oder nur schlecht wahrgenommen werden k¨onnen.

4.3 Text - Datenformate und Komprimierung 4.3.1 Textkodierung ¨ Zur Ubertragung von textuellen Nachrichten wurden schon fr¨uh Kodierungsverfahren entwickelt. Je nach Verwendungszweck kann die dabei benutzte Kodierung unterschiedlich viel Speicherplatz ben¨otigen. Dient eine Kodierung lediglich der Kon-

4.3 Text - Datenformate und Komprimierung

169

servierung einer Nachricht, dann kann diese so platzsparend wie m¨oglich aufge¨ zeichnet werden. Stehen aber Kriterien, wie z.B. die sichere Ubertragung oder die Verschl¨usselung zum Zwecke der Geheimhaltung im Vordergrund, so beinhaltet die verwendete Kodierung oft redundante Information, die im eigentlichen Sinne nichts zum Informationsgehalt der Nachricht beitr¨agt. ¨ Die gebr¨auchlichste Form der Darstellung einer Nachricht zum Zweck der Ubertragung - sei es eine direkte Kommunikation oder eine Archivierung, bei der der Empf¨anger die Botschaft zeitversetzt entgegen nimmt - ist eine Aufzeichnung der Nachricht mit Hilfe der Schrift. Dazu wird in unserem westlichen Kulturkreis ein Buchstabieralphabet verwendet, mit dem Buchstabenfolgen gebildet werden, die bereits selbst eine gewisse Redundanz beinhalten. Liest man z.B. die Buchstabenfolge ezember“, kann der deutschsprachige Empf¨anger darauf vertrauen, dass damit das ” Wort Dezember“ gemeint ist. ” Um Nachrichten, die mit Hilfe einer Buchstabenschrift abgefasst sind, mit den Mitteln der modernen Kommunikation u¨ bertragen zu k¨onnen, m¨ussen diese in einer f¨ur das zum Einsatz kommende Kommunikationsmedium geeigneten Weise kodiert werden. So wurde z.B. eine Kodierung der einzelnen Buchstaben durch die Positionen der Signalarme eines Fl¨ugeltelegraphens (Semaphor) ersonnen bzw. das Morse-Alphabet f¨ur die einfache elektrische bzw. drahtlose Kommunikation entwickelt. Die zeichenweise Kodierung eines Alphabets nennt man Chiffrierung. In der Regel muss diese Kodierung umkehrbar sein, wobei die umgekehrte Kodierung als Dekodierung bzw. Dechiffrierung bezeichnet wird. Beispiele f¨ur eine einfache Chiffrierung sind das internationale Buchstabieralphabet (Tabelle 4.1) oder die Brailleschrift (Abb. 4.3) f¨ur Blinde. Tabelle 4.1 Das internationale Buchstabieralphabet Alpha Foxtrott Kilo Papa Uniform Zulu

Bravo Golf Lima Quebec Victor

Charlie Hotel Mika Romeo Whiskey

Delta India November Sierra X-Ray

Echo Juliette Oscar Tango Yankee

Die Brailleschrift, benannt nach ihrem Erfinder Louis Braille (1809–1852) ist zugleich ein Beispiel f¨ur eine Kodierung u¨ ber dem bin¨aren Zeichenvorrat {0, 1}: Jedes Zeichen wird durch eine 3 × 2 Matrix bin¨arer Zeichen wiedergegeben. Auch der Morse-Code verwendet eine bin¨are Darstellung der einzelnen Buchstaben, wobei hier die L¨ange eines Codes f¨ur ein Zeichen von der mittleren H¨aufigkeit dessen Vorkommens abh¨angt (siehe Abb. 4.4). Die ersten Fernschreiber zu Beginn des 20. Jahrhunderts nutzten noch den Morse¨ Code zur Ubertragung von Buchstaben. Die Dekodierung erwies sich allerdings als wesentlich einfacher, wenn jeder Buchstabe mit einem bin¨aren Codewort konstanter L¨ange kodiert wurde. Codes, deren Codew¨orter eine konstante L¨ange aufweisen, heißen Blockcodes. Zwar werden in einem Blockcode h¨aufiger verwendete Zeichen

170

4 Multimediale Daten und ihre Kodierung

Louis Braille und die Blindenschrift Louis Braille (1809–1852) verlor bereits ihm fr¨ uhen Kindesalter durch einen Unfall sein Augenlicht. Da er sich nicht damit abfinden wollte, nur durch Vorlesen Zugang zu Literatur zu erlangen, bem¨ uhte er sich bereits fr¨ uh um die Entwicklung einer Schriftform, die auch BlinA B C D E den das Lesen und Schreiben erm¨ oglichen sollte. 1821 ver¨ offentlichte er seine einfach zu erlernende Blindenschrift, die er aus einer sehr komplexen, f¨ ur das Milit¨ ar entworfenen Nachtschrift“ des Artilleriehauptmanns Charles ” Barbier (1767–1841) weiterentwickelte. In Napoleons Auftrag hatte Barbier eine spezielle Nachtschrift entworfen, die es Soldaten erm¨ oglichen sollte, ohne Ger¨ ausch und ohne Licht miteinander zu kommunizieren. Allerdings erwies sich die Nachtschrift f¨ ur die milit¨ arische Nutzung als ungeeignet, da sie ein zu kompliziertes System von Punkten und Silben verwendete. Braille vereinfachte diese Schrift, indem er die Silben durch Buchstaben ersetzte und die Anzahl der Punkte pro Zeichen von zw¨ olf auf sechs reduzierte. Ein Buchstabe konnte so einfach mit der Fingerspitze ertastet werden, ohne dass der Finger dabei bewegt werden musste, was ein z¨ ugiges Lesen erm¨ oglichte. Jeder Buchstabe des von Braille entwickelten Schriftsystems besteht aus sechs Punkten, die in einer 3x2-Matrix angeordnet sind. Die Kodierung von Buchstaben erfolgt, indem bestimmte Punkte in der Matrix erh¨ oht sind und so mit den Fingern ertastet werden k¨ onnen.

Abb. 4.3 Louis Braille und die Blindenschrift

ebenso wie seltener verwendete mit einem Codewort gleicher L¨ange kodiert und dadurch eine gewisse Redundanz in Kauf genommen, allerdings wurde dieser Nachteil durch die einfachere mechanische Bewerkstelligung der Dekodierung wieder wett gemacht. So wurde der Morse-Code schon bald durch den 1880 von Emile Baudot (1845–1903) entwickelten Baudot-Code abgel¨ost, der mit seinen 5 Bit pro Zeichen zwei verschiedene Zeichens¨atze mit zusammen u¨ ber 60 verschiedenen Zeichen kodieren kann und als International Telegraph Code No.1 (ITC-1, IA-1, CCITT-1) bekannt wurde. Zus¨atzlich zu den 26 Zeichen des Alphabets und den 10 Ziffern enth¨alt der Baudot-Code noch Steuerzeichen, die der Formatierung des Schriftsatzes bzw. der Steuerung des Fernschreibers dienen [15]. Eigentlich lassen sich mit 5 Bit nur 25 = 32 Zeichen darstellen, was nicht einmal ausreichen w¨urde, um das Alphabet und die zehn Ziffern zu kodieren. Abhilfe wurde geschaffen durch eine teilweise Doppelbelegung der Codeworte. Um dennoch eine eindeutige Belegung zu gew¨ahrleisten, kann vermittels spezieller Steuerzeichen zwischen Buchstabenund Ziffernmodus umgeschalten werden. Um 1900 wurde ein weiterer 5-Bit Code f¨ur Fernschreiber eingef¨uhrt, der sogenannte Murray-Code, der als International Telegraph Code No.2 (ITC-2, IA-2, CCITT-2) bekannt wurde und oft f¨alschlicherweise auch als Baudot-Code bezeichnet wird. Große Bedeutung erlangte der 7-Bit Fernschreibercode, der 1963 von der ANSI (American National Standards Institute) als ASCII-Code (American Standard Code for Information Interchange) standardisiert wurde und noch heute als Standardrepr¨asentationsform f¨ur Textinformation in Computern benutzt wird. In der Fr¨uhphase der Entwicklung erster kommerzieller Computersysteme bis Ende der

4.3 Text - Datenformate und Komprimierung

171

Morse-Code und Entropiekodierung Samuel F. B. Morse und Alfred Vail starteten 1836 mit der Entwicklung ihres schreiben” den“, elektrischen Telegraphen. Dieser Fernschreiber nutzte das von Hans Christian Oerstedt 1821 entdeckte Prinzip des Elektromagnetismus, indem Nachrichten u ¨ber wechselnde Str¨ ome kodiert werden, die auf Empf¨ angerseite einen Elektromagneten steuern. Allerdings erm¨ oglichte die damals verf¨ ugbare Technologie kein Drucken des empfangenen Textes, so dass die beiden Erfinder eine alternative Methode der Textkodierung fanden. Mit Hilfe des Elektromagneten des Morsetelegraphen konnten in Papierstreifen, die von einem mechanischen Uhrwerk unter dem Elektromagneten stetig fortbewegt wurden, Eindr¨ ucke erzeugt werden. Morse und Vail verwendeten eine Form der Bin¨ arkodierung, d.h. alle Textzeichen wurden aus Folgen von zwei Grundzeichen kodiert. Die beiden verwendeten Grundzeichen wurden als Punkt“ und Strich“, d.h. als k¨ urzere und l¨ angere Eindr¨ ucke im fortlaufenden ” ” Papierstreifen realisiert. Um eine m¨ oglichst effiziente Kodierung der versendeten Textnachrichten zu erreichen, nutzten Morse und Vail die Beobachtung, dass in der (englischen) Sprache bestimmte Buchstaben h¨ aufiger verwendet werden als andere. Die naheliegende Schlussfolgerung bestand darin, f¨ ur h¨ aufig verwendete Zeichen eine k¨ urzere Kodierung zu w¨ ahlen als f¨ ur seltener verwendete Buchstaben, z.B. wird das E“ als der im Englischen am h¨ aufigsten verwendete Buchstabe ” mit nur einem Grundzeichen, einem Punkt“ kodiert, w¨ ahrend ein seltener verwendeter ” Buchstabe, wie z.B. das Q“, mit der vier Grundzeichen umfassenden Folge Strich Strich ” ” Punkt Strich“ kodiert wird. Zahlen werden mit einer f¨ unf-stelligen und Interpunktion mit einer sechs-stelligen Kodierung abgebildet, Zeichen- und Wortgrenzen werden durch Pausen markiert.

A

B

D

E

F

.- -… -.-. -..

.

..-. --. …. .. .--- -.- .-.. --

N

R

S

T

U

-. --- .--. --.- .-. …

-

..- …- .-- -..- -.-- --..

O

C

P

Q

G H

I

J

K

V W X

L

Y

M

Z

Die gew¨ ahlte Kodierung spiegelt die relative H¨ aufigkeit der Buchstaben wider, wird also korrespondierend zur Entropie der kodierten Zeichen gew¨ ahlt. Daher wird diese Variante der Kodierung auch als Entropiekodierung oder statistische Kodierung bezeichnet.

Abb. 4.4 Morse-Code und Entropiekodierung

50er Jahre gab es n¨amlich noch keine standardisierte Zeichenkodierung f¨ur Computer. Allein die von IBM um 1960 vertriebenen Rechner benutzten neun verschiedene Buchstabenkodierungen. Als jedoch die Idee der Vernetzung von Computern zunehmend Wirklichkeit wurde, nahm die Nachfrage nach einer einheitlichen Buchstabenkodierung immens zu. 1961 schlug deshalb Robert Bemer (1920–2004), ein Mitarbeiter von IBM der ANSI die ASCII-Kodierung als Standardcode vor, die ihn dann 1963 als Standard verabschiedete. 1974 wurde auch der 7-Bit ASCII-Code zum internationalen ISO I-646 Standard. Allerdings dauerte es weitere 18 Jahre, bis ASCII schließlich als allgemeiner Standard anerkannt wurde. Dies lag an der 1964 von IBM vorgestellten neuen Rechner-

172

4 Multimediale Daten und ihre Kodierung

Abb. 4.5 Auszug aus dem 7-Bit ASCII Code bin¨ ar 000 001 010 0000 0001 ! 0010 “ 0011 # 0100 $ 0101 % 0110 & 0111 1000 ( 1001 ) 1010 * 1011 + 1100 , 1101 1110 . 1111 /

011 0 1 2 3 4 5 6 7 8 9 : ; < = > ?

100 @ A B C D E F G H I J K L M N O

101 P Q R S T U V W X Y Z [ \ ]

110 ’ a b c d e f g h i j k l m n o

111 p q r s t u v w x y z { | } ˜

architektur System/360, die noch unabh¨angig und losgel¨ost vom Standardisierungsprozess von ASCII eine eigene Kodierung, genannt EBCDIC (Extended Binary Coded Decimals Interchange Code) verwendete. Aus Kompatibilit¨atsgr¨unden verwendeten dann auch Folgegenerationen des IBM System/360 die EBCDICKodierung weiter. Bei EBCDIC handelt es sich um eine 8-Bit Kodierung, eine Erweiterung der zuvor bei IBM verwendeten 6-Bit BCD-Kodierung. Aufeinanderfolgende Zeichen im Alphabet werden dabei nicht notwendigerweise mit aufeinanderfolgenden Codes versehen, da die Art der Kodierung noch von Holleriths Lochkarten inspiriert war. Von EBCDIC existieren verschiedene Varianten, die untereinander inkompatibel sind. Die amerikanische Variante benutzt weitgehend die gleichen Zeichen wie der ASCII-Code. Einige spezielle Zeichen sind aber in dem jeweils anderen Code nicht enthalten. IBM entwarf insgesamt 57 verschiedene nationale EBCDIC Codes, die jeweils l¨andertypische Sonderzeichen und Buchstaben enthielten. Erst 1981 stieg IBM dann im Rahmen der Entwicklung ihres ersten Personal Computers auf den ASCII-Code um. Auch die 7 Bits der urspr¨unglichen ASCII-Kodierung reichen nicht aus, um alle internationalen Zeichens¨atze mit den zugeh¨origen Sonderzeichen darzustellen. Durch Hinzuf¨ugen eines achten Bits f¨uhrten einige Hersteller eigene propriet¨are Kodierungen ein, die die Darstellung diverser Sonderzeichen gestatteten. Ein einheitlicher Standard f¨ur verschiedene internationale Zeichens¨atze auf Basis einer 8-Bit ASCII Kodierung konnte jedoch erst mit der ISO/IEC 8859-Kodierung erreicht werden. Im ISO/IEC 8859-x Standard werden die ersten 7 Bits mit den urspr¨unglichen Kodierungen des 7-Bit ASCII belegt, um eine Kompatibilit¨at zur Vorg¨angerkodierung ¨ zu gew¨ahrleisten. Uber das 8. Bit werden dann unterschiedliche nationale Erweiterungen des ASCII-Codes implementiert. Insgesamt existieren 15 verschiedene nationale Standards f¨ur den 8-Bit ASCII-Code, ISO/IEC 8859-1 bis ISO/IEC 8859-16,

4.3 Text - Datenformate und Komprimierung

173

wobei ISO/IEC 8859-12 f¨ur die Zeichen der indischen Devanagari-Schrift 1997 fallen gelassen wurden. ISO/IEC 8859-1 (Latin-1) umfasst nationale Sonderzeichen f¨ur die Regionen Westeuropa, Amerika, Australien und Afrika, ISO/IEC 8859-2 (Latin-2) erg¨anzt die Basiszeichen des 7-Bit ASCII-Codes mit weiteren, mitteleurop¨aischen Sonderzeichen. ISO/IEC 8859-5 enth¨alt kyrillische, ISO/IEC 8859-6 arabische und ISO/IEC 8859-8 hebr¨aische Sonderzeichen. Da das Hebr¨aische ebenso wie das Arabische im Gegensatz zu europ¨aischen Schriftsystemen u¨ ber eine entgegengesetzte Textlaufrichtung verf¨ugt, wurden zwei Sonderzeichen mit Nullbreite an den Positionen 253 bzw. 254 aufgenommen, die die Textrichtung auf LinksRechts- bzw. auf Rechts-Links-Laufrichtung wechseln. F¨ur asiatische Zeichens¨atze, wie z.B. f¨ur die chinesische Sprache mit ihren mehr als 10.000 ideographischen Zeichen, f¨ur koreanische oder indische Schriftzeichen reicht eine 8-Bit Kodierung alleine nicht aus, um alle Zeichen darzustellen. Zudem ist die Auffassung von einem Zeichen oder Buchstaben als atomare“ Einheit zur ” Kodierung eines Textes nicht in allen Sprachen und Schriftsystemen gleich. Einzelzeichen k¨onnen in anderen Sprachen auch aus einer Folge weiterer Einzelzeichen bestehen, die jeweils f¨ur sich als auch im Verbund eine eigene Bedeutung haben und bei einer Zusammenf¨uhrung auch noch ihre a¨ ußere Gestalt ver¨andern k¨onnen. Das koreanische Hangul-Schriftsystem kombiniert Symbole, die im Koreanischen jeweils f¨ur eine individuelle Lautung stehen, in quadratischen Bl¨ocken, die jeweils eine einzelne Silbe repr¨asentieren. In Abh¨angigkeit vom Benutzer sowie von der intendierten Anwendung k¨onnen sowohl Einzelsymbole als auch Silbenbl¨ocke als Zeichen“ aufgefasst werden. In indischen Schriftsystemen birgt jedes ” Zeichen, das f¨ur einen Konsonanten steht, einen inh¨arenten Vokal, der in unterschiedlicher Weise eliminiert oder ersetzt wird, wenn Einzelzeichen zu Bl¨ocken zusammengesetzt werden. Auch hier k¨onnen abh¨angig von Benutzer oder Anwendung Einzelkonsonanten und Vokale oder ganze Konsonanten-Vokalbl¨ocke als Zeichen“ ” angesehen werden. Es bestand also die Notwendigkeit, ein Kodierungssystems zu entwickeln, das die Anforderungen unterschiedlicher internationaler Schriftsysteme in angemessener Weise erf¨ullen kann. Eine solche einheitliche Kodierung f¨ur nahezu alle existierenden Alphabete soll Unicode gew¨ahrleisten. Die Unicode Kodierung wurde 1991 eingef¨uhrt und in der Norm ISO/IEC 10646 als Universal Character Set (UCS) zum internationalen Standard erhoben. Das gemeinn¨utzige Unicode Consortium wurde 1991 gegr¨undet und zeichnet f¨ur den Industriestandard Unicode verantwortlich. Unicode verwendete urspr¨unglich 16 Bits zur Kodierung multilingualer Zeichen, wurde sp¨ater auf 21 Bit erweitert1 und umfasst auch Codes f¨ur indische, chinesische, japanische und koreanische Zeichen, da letztendlich ein gigantischer Zeichenvorrat von 221 Zeichen zur Verf¨ugung steht. Damit sollte sichergestellt werden, dass die Unicode-Kodierung tats¨achlich die gew¨unschten Anforderungen von Universalit¨at (d.h. f¨ur jedes existierende Schriftsystem sollte eine Kodierungsm¨oglichkeit bestehen) und Erweiterbarkeit erf¨ullt. Unicode umfasst neben einer Vielzahl nationaler Landesalphabete auch zus¨atzliche typographische Symbole und nationale Sonderzeichen. 1

In der UTF-32 Transformation werden 21 Bit Unicode Zeichen mit vollen 32 Bit kodiert.

174

4 Multimediale Daten und ihre Kodierung

Exkurs 5: Der Unicode Standard Der Unicode-Standard ordnet jedem enthaltenen Zeichen eine Zahl (Codepoint) und einen Namen anstelle der sonst u asentiert jedes einzelne Zeichen ¨blichen Glyphen2 zu, und repr¨ auf abstrakte Weise, w¨ ahrend die visuelle Darstellung des Zeichens der textdarstellenden Software, wie z.B. dem Web-Browser u ¨berlassen bleibt. Dies ist sinnvoll, da die graphische Darstellung des Zeichens je nach gew¨ ahlter Schrifttype stark variieren kann. Zeichen k¨ onnen dabei aber mehreren verschiedenen Codepoints zugeordnet werden, da dieselben Zeichen oft verschiedenen Schriftsystemen angeh¨ oren. Abstraktes Zeichen

Unicode Codepoint

Å

U+00C516 U+212B16

A

Å

U+004116

U+030A16

Ein Codepoint definiert im Unicode ein ganz bestimmtes Zeichen. Allerdings kann ein Zeichen in verschiedenen Schriftsystemen Verwendung finden. Da Struktur und Organisation des Unicodes einzelne Schriftsysteme jeweils innerhalb zusammenh¨ angender Codeblocks anordnen, existieren Zeichen, denen mehrere Codepoints zugeordnet sind. Ebenso kann ein Zeichen aus einer Folge von mehreren Grundzeichen, die auch als Einzelzeichen existieren, zusammengesetzt sein. Organisation der Unicode Kodierung Bei der Unicode Kodierung wurden die ersten 256 Zeichen des Unicodes mit den Zeichen des ISO/IEC 8859-1 Codes belegt, um eine Kompatibilit¨ at zwischen alter 8-Bit ASCIIKodierung und Unicode zu gew¨ ahrleisten. Unicode-Zeichen werden u ¨blicherweise in der Form U+xxxxxxxx dargestellt, wobei xxxxxxxx f¨ ur einen Codepoint in hexadezimaler Darstellung steht. F¨ uhrende Nullen k¨ onnen weggelassen werden. Der in Unicode zur Verf¨ ugung stehende Coderaum wird in einzelnen Ebenen (Planes) eingeteilt, die jeweils 216 =65.536 Codepoints umfassen. Von diesen Ebenen sind derzeit 17 zur Nutzung vorgesehen (dadurch wird der vermittels Unicode kodierbare Zeichenraum auf 17·216 =1.114.112 Zeichen beschr¨ ankt) und lediglich die Ebenen 0–1 und 14–16 in Gebrauch.

2

In der Typographie bezeichnet das Zeichen (engl. character) die abstrakte Idee eines Buchstabens, die Glyphe dagegen deren konkrete grafische Darstellung.

4.3 Text - Datenformate und Komprimierung

175

Plane Titel

von

bis U+FFFF16

0

Basic Multilingual Plane (BMP)

U+000016

1

Supplementary Multilingual Plane (SMP)

U+1000016 U+1FFFF16 U+2000016 U+2FFFF16

2

Supplementary Ideographic Plane (SIP)

14

Supplementary Special-purpose Plane (SSP) U+E000016 U+EFFFF16

15

Supplementary Private Use Area-A

U+F000016 U+FFFFF16

16

Supplementary Private Use Area-B

U+10000016 U+10FFFF16

Die erste Ebene – Ebene 0 mit den Codepoints 0–65.535 – wird als Basic Multilingual Plane (BMP) bezeichnet und umfasst ann¨ ahernd alle lebenden Sprachen.

00

01

02

10

11

12

03

04

05

06

07

08

09

0A

0B

0C

0D

20

21

22

23

24

30

31

32

33

34

35

36

40

41

42

43

44

45

50

51

52

53

54

55

60

61

62

63

64

65

70

71

72

73

74

75

76

77

78

80

81

82

83

84

85

86

78

90

91

92

93

94

95

96

97

A0

A1

A2

A3

A4

A5

A6

B4

B5

B6

B7

8B

B9

BA

BB

BC

BD

BE

BF

Hangul C4 C5 C6

C7

C8

C9

CA

CB

CC

CD

CE

CF

D9

DA

DB

Bereich mit16allgemeinen Schriften 13 14 15 17 18 19 1A 1B 1C 1D 25 26 27 Symbole

0E

0F

1E

1F

28

29

2A

2B

2C

2D

2E

2F

37

38

39

3A

3B

3C

3D

3E

3F

46

47

48

49

4A

4B

4C

4D

4E

4F

56

57

58

59

5A

5B

5C

5D

E5

5F

CJK 66 Unihan 67 68 69

6A

6B

6C

6D

6E

6F

79

7A

7B

7C

7D

E7

F7

88

89

8A

8B

8C

8D

8E

8F

98

99

9A

9B

9C

9D

9E

9F

A7 belegt A8 A9 nicht

AA

AB

AC

DA

AE

AF

B0

B1

B2

B3

C0

C1

C2

C3

D0

D1

D2

D3

D4

D5

D6

D7

D8

DC

DD

DE

DF

E0

E1

E2

E3

E4

E5

E6

E7

E8

E9

EA

EB

EC

ED

EE

EF

F0

F1

F2

F8

F9

FA

FB

FC

FD

FE

FF

UTF-16 Surrogate und F3 F4 F5 F6 F7

privater Bereich

Die zweite Ebene (Ebene 1), das Supplementary Multilingual Plane (SMP), enth¨ alt selten gebrauchte und meist historische Schriftsysteme, wie z.B. das auf der altgriechischen Schrift aufbauende Schriftsysteme des Altitalienischen oder die der griechischen Schrift vorangegangene, kretische Linear A und Linear B Schrift. Die n¨ achste Ebene (Ebene 2), das Supplementary Ideographic Plane (SIP), umfasst zus¨ atzliche, selten verwendete ideographische Zeichen aus dem als CJK“ zusammengefassten ” Bereich der chinesischen, japanischen und koreanischen Zeichen, die nicht in das BMP eingeordnet wurden. Ebene 14, das Supplementary Special-purpose Plane (SSP), beinhaltet zus¨ atzliche Steuerungs- und Kontrollzeichen, die nicht in das BMP eingeordnet wurden. Ebene 15 und 16 dienen der Aufnahme privat genutzter Zeichen. Innerhalb der Ebenen werden zusammengeh¨ orende Codepoints in Bl¨ ocken zusammengefasst. Prinzipiell umfasst ein Unicode-Block ein komplettes Schriftsystem. Allerdings hat sich aus historischen Gr¨ unden ein gewisses Maß an Fragmentierung eingestellt, da vielfach neue Zeichen zu einem sp¨ ateren Zeitpunkt einem bereits abgeschlossenen Block hinzugef¨ ugt wurden, die an anderer Stelle untergebracht werden mussten. Unicode UTF Transformationen Unicode Codepoints lassen sich auf unterschiedliche Weise u ¨ber sogenannte Unicode ” Transformation Formate“ (UTF) kodieren. Da sich die am h¨ aufigsten verwendeten Schriftsysteme innerhalb Ebene 0 befinden, liegt es nahe, f¨ uhrende Nullen innerhalb einer Kodierung aus Effizienzgr¨ unden wegzulassen. Zu diesem Zweck wurden die unterschiedlichen

176

4 Multimediale Daten und ihre Kodierung

UTF-Transformationen (UTF-7, UTF-8, UTF-16 oder UTF-32) entwickelt, die eine effiziente Kodierung der Unicode-Codepoints erm¨ oglichen sollen. UTF-8 ist dabei die bekannteste Variante und realisiert eine Kodierung von variabler L¨ ange von 1 – 4 Bytes (theoretisch k¨ onnen nach dem UTF-8 Verfahren Zeichenketten von bis zu 7 Bytes L¨ ange erzeugt werden, jedoch wird durch die Beschr¨ ankung auf den Unicode Coderaum die maximale L¨ ange auf 4 Bytes beschr¨ ankt). Dabei werden die ersten 128 Zeichen des Unicodes, die den 7-Bit ASCII Code umfassen, mit nur einem Byte dargestellt. Die Bytefolge jedes UTF-8 kodierte Zeichens startet mit einer Pr¨ aambel, die die L¨ ange der Bytefolge kodiert. Um maximale Kompatibilit¨ at mit der ASCII-Kodierung zu gew¨ ahrleisten, werden die 128 Zeichen des 7-Bit ASCII Codes mit der Pr¨ aambel 0“ versehen. Besteht ” ein UTF-8 kodiertes Zeichen aus mehreren Bytes, beginnt das Startbyte stets mit einer 1“ und jedes Folgebyte mit der Pr¨ aambel 10“. Bei Mehrbyte-Zeichen ergibt die Anzahl ” ” der 1-Bits aus der Pr¨ aambel des Startbytes die Bytel¨ ange des gesamten UTF-8 kodierten Zeichens an. Daher ergibt sich folgendes Kodierungsschema: 1 2 3 4

Byte Bytes Bytes Bytes

0xxxxxxx 110xxxxx 10xxxxxx 1110xxxx 10xxxxxx 10xxxxxx 1111xxxx 10xxxxxx 10xxxxxx 10xxxxxx

(7 Bit) (11 Bit) (16 Bit) (21 Bit)

F¨ ur die UTF-8 Kodierung eines Codepoints wird stets die k¨ urzest m¨ ogliche Kodierungsvariante gew¨ ahlt und der Unicode Codepoint stets rechtsb¨ undig in das Kodierungsschema eingetragen. Folgende Beispiele sollen das Prinzip der UTF-8 Kodierung verdeutlichen: Zeichen Codepoint Unicode bin¨ ar y a ¨

e

UTF-8

U+007916 00000000 01111001 01111001 U+00E416 00000000 11100100 11000011 10100100 U+20AC16 00100000 10101100 11100010 10000010 10101100

F¨ ur alle auf dem lateinischen Alphabet basierenden Schriften ist UTF-8 die speicherplatzeffizienteste Methode zur Abbildung von Unicode-Zeichen. Eine weitere Variante ist die UTF-16 Kodierung, die jedem Unicode Codepoint eine 2 – 4 Byte lange Bitfolge zuweist. UTF-16 ist auf die Kodierung der Zeichen des BMP spezialisiert und ist bei der Kodierung von Texten in Chinesisch, Japanisch oder Hindi der UTF-8 Kodierung u ¨berlegen, da diese Zeichen des BMP mit UTF-8 in eine 3 Byte lange Bitfolge kodiert werden, w¨ ahrend eine entsprechende UTF-16 Kodierung nur 2 Byte umfasst. UTF-32 dagegen weist jedem Unicode Codepoint eine Bitfolge mit konstanter L¨ ange von 4 Bytes zu und stellt damit die einfachste aller Kodierungsvarianten dar, da der Unicode Codepoint direkt in eine 32-Bit Bin¨ arzahl u ¨bersetzt wird. Allerdings ist UTF-32 bei der Verwendung von Zeichen aus dem BMP sehr ineffizient. Es existieren noch weitere Kodierungsvarianten, von denen lediglich noch die UTF-7 Kodierung erw¨ ahnt werden soll, da sie f¨ ur die Verwendung in Kommunikationsprotokollen gedacht ¨ war, die auf einem 7-Bit Ubertragungsstandard basieren, wie z.B. das f¨ ur E-Mails zust¨ andige SMTP-Protokoll. In der E-Mail-Kommunikation hat sich jedoch die Base64-Kodierung des MIME-Standards anstelle von UTF-7 durchgesetzt. Weiterf¨ uhrende Literatur: The Unicode Consortium: The Unicode Standard, Version 5.0, Addison-Wesley Professional, 5th ed. (2006)

4.3 Text - Datenformate und Komprimierung

177

Unicode hat auch im WWW bereits Einzug gehalten: im RFC 2070 wurde die WWW-Sprache HTML f¨ur die Unterst¨utzung von Unicode vorbereitet und RFC 2077 empfiehlt die Unterst¨utzung von ISO 10646 f¨ur alle neuen Internet Protokolle.

4.3.2 Textkomprimierung Die zur Verf¨ugung stehende Bandbreite des verwendeten Kommunikationsmediums beschr¨ankt die u¨ bertragbare Datenmenge. Deshalb wurden bereits sehr fr¨uh Verfahren entwickelt, um die in einer Nachricht enthaltene Redundanz zu minimieren und die verf¨ugbare Bandbreite so effizient wie m¨oglich zu nutzen. Die zum Einsatz kommenden Techniken werden als Komprimierungs-Verfahren (Verdichtung) bezeichnet und werden oft f¨ur Textdateien oder multimediale Daten eingesetzt. Sie versprechen insbesondere dann einen Vorteil, wenn z.B. in Textdateien bestimmte Zeichen oder Zeichenketten h¨aufiger als andere vorkommen, oder Grafiken große, zusammenh¨angende homogene Fl¨achen enthalten bzw. umfangreiche Wiederholungen von identischen Mustern auftreten. Die Platzeinsparung variiert bei den verschiedenen Komprimierungsmethoden in Abh¨angigkeit von den Merkmalen der zu komprimierenden Datei. F¨ur Textdateien sind z.B 20% bis 50% Einsparung ein typischer Wert, w¨ahrend bei Grafikdateien oft Einsparungen von 50% bis 90% erzielt werden k¨onnen. Bei Dateitypen, die weitgehend aus zuf¨alligen Bitmustern bestehen, kann mit diesen Komprimierungsverfahren allerdings nur wenig gewonnen werden. Prinzipiell lassen sich verschiedene Arten der Komprimierung unterscheiden, die nicht von der Art des zu komprimierenden Mediums abh¨angen, sondern allgemeine G¨ultigkeit besitzen: • Logische vs. physikalische Komprimierung Semantische bzw. logische Komprimierung wird erreicht durch fortlaufende Substitution, d.h. durch Ersetzung eines alphanumerischen bzw. bin¨aren Symbols durch ein anderes. Beispielsweise kann der Ausdruck United States of America“ ” durch USA“ ersetzt werden. Semantische Komprimierung kann nur auf Daten ” oberhalb des Abstraktionsniveaus von alphanumerischen Zeichen sinnvoll angewendet werden und basiert ausschließlich auf Information, die in den zu komprimierenden Daten enthalten ist. Komprimierungsalgorithmen kodieren die darzustellende Information in einer Art und Weise, die m¨oglichst wenig Redundanz besitzt. Syntaktische bzw. physikalische Komprimierung kann auf vorgegebene Daten angewendet werden, ohne dass die in den Daten enthaltene Information genutzt wird. Es wird also nur eine Kodierung durch eine andere, kompaktere ausgetauscht. Die komprimierten Daten k¨onnen auf mechanische Weise wieder in die Ausgangsdaten dekodiert werden, allerdings ist der Zusammenhang zwischen Ausgangsdaten und komprimierten Daten im Allgemeinen nicht offensichtlich. Alle im Folgenden vorgestellten Komprimierungsverfahren geh¨oren zu den syntaktischen Komprimierungsverfahren.

178

4 Multimediale Daten und ihre Kodierung

• Symmetrische vs. asymmetrische Komprimierung Bei den symmetrischen Komprimierungsmethoden besitzen Kodierungsalgorithmus und Dekodierungsalgorithmus in etwa dieselbe Berechnungskomplexit¨at. Anders sieht es bei den asymmetrischen Komprimierungsmethoden aus. Dort ist die Berechnungskomplexit¨at der beiden Algorithmen deutlich unterschieden. Asymmetrische Komprimierungsverfahren machen dann Sinn, wenn eine aufw¨andige Kodierung w¨ahrend der Kompression nur ein einziges Mal durchgef¨uhrt wird, w¨ahrend eine Dekodierung bei jedem Zugriff auf die komprimierten Daten zu erfolgen hat und daher wesentlich h¨aufiger ausgef¨uhrt werden muss. • Adaptive vs. semiadaptive vs. nichtadaptive Komprimierung Viele Komprimierungsverfahren, wie z.B. die Huffman-Kodierung dienen ausschließlich der Komprimierung bestimmter Medienformate und verwenden deshalb formatspezifische Information, die in sogenannten W¨orterb¨uchern vorgehalten wird. Nicht-adaptive Verfahren benutzen ein statisches W¨orterbuch vorgegebener Muster, die bekanntermaßen in der zu komprimierenden Information sehr h¨aufig auftreten. So k¨onnte ein nicht-adaptives Komprimierungsverfahren f¨ur die deutsche Sprache ein W¨orterbuch mit vordefinierten Zeichenketten f¨ur die W¨orter “und, oder, der, die, das” enthalten, da diese sehr h¨aufig in der deutschen Sprache auftreten. Adaptive Komprimierungsverfahren, wie z.B. das LZW-Verfahren, bauen f¨ur jede Anwendung ein eigenes W¨orterbuch h¨aufig vorgefundener Muster auf und basieren nicht auf vordefinierten, anwendungsspezifischen Musterw¨orterb¨uchern. Semiadaptive Komprimierungsverfahren stellen eine Mischform aus beiden Verfahren dar. Sie arbeiten f¨ur gew¨ohnlich in zwei getrennten Arbeitsschritten, in denen zuerst ein W¨orterbuch u¨ ber die zu komprimierenden Daten aufgebaut wird, und die eigentliche Kodierung in einem darauf aufbauenden, zweiten Arbeitsschritt erfolgt. • Verlustfreie vs. verlustbehaftete Komprimierung Verlustfreie Komprimierungsverfahren f¨uhren die Kodierung und die Dekodierung der zu komprimierenden Daten so aus, dass die urspr¨unglichen Daten nach Ausf¨uhrung beider Verarbeitungsschritte wieder unver¨andert vorliegen. Die in den zu komprimierenden Daten enthaltene Information bleibt absolut vollst¨andig erhalten. Die maximal erreichbare Komprimierungsrate wird dabei durch die Shannon’sche Informationskomplexit¨at vorgegeben. Verlustfreie Komprimierungsverfahren sind f¨ur Text- und Programmdateien unumg¨anglich. Verlustbehaftete Komprimierungsverfahren dagegen versuchen, eine h¨ohere Komprimierungsrate zu erreichen, indem sie auf Teile der zu komprimierenden Information verzichten, die f¨ur den vorgesehenen Verwendungszweck als weniger wichtig angesehen werden. So verzichten verlustbehaftete Komprimierungsverfahren z.B. in der Audio-Komprimierung darauf, T¨one und Tonfolgen zu speichern, die das menschliche Ohr nicht wahrnehmen kann. Verlustbehaftete Komprimierungsverfahren f¨ur Bilddaten ermitteln mit Hilfe heuristischer Methoden, wie eine maximale Komprimierung erreicht werden kann, wobei gleichzeitig darauf geachtet wird, das m¨oglichst wenig von der vorhandenen visuellen Information verloren geht.

4.3 Text - Datenformate und Komprimierung

179

Exkurs 6: Einfache Verfahren der Datenkomprimierung Laufl¨ angenkodierung - (Run Length Encoding, RLE) Der einfachste Typ der Redundanz in einer Textdatei sind lange Folgen sich wiederholender Zeichen. Betrachten wir z.B. eine einfache Folge von Zeichen: AAAADEBBHHHHHCAAABCCCC Diese Zeichenfolge l¨ asst sich in einer kompakteren Form kodieren, indem jede Folge sich wiederholender Zeichen durch die Anzahl der Wiederholungen und die einmalige Angabe dieses Zeichens ersetzt wird. D.h. die obige Zeichenfolge w¨ urde dann kodiert werden durch 4ADEBB5HC3AB4C Diese Form der Kodierung wird als Laufl¨ angenkodierung (Run Length Encoding, RLE) bezeichnet. Laufl¨ angenkodierungen sind f¨ ur ein einzelnes Zeichen bzw. f¨ ur zwei gleiche Buchstaben nicht rentabel, da f¨ ur die Kodierung jeweils mindestens zwei Zeichen ben¨ otigt w¨ urden. Dagegen k¨ onnen recht hohe Komprimierungsraten erzielt werden, wenn lange Folgen des selben Zeichens auftreten. Bei der Kodierung von Bin¨ ardaten, wie sie etwa in den unterschiedlichen Medienformaten vorliegen, kommt eine verfeinerte Variante dieser Methode zum Einsatz, die ausnutzt, dass diese Daten nur aus den bin¨ aren Werten 0 und 1 zusammengesetzt sind, so dass es nur auf den Wechsel dieser Werte ankommt und das Abspeichern der eigentlichen 0- und 1-Werte entfallen kann. Diese Methode arbeitet effizient, wenn lange Folgen von 0- oder 1-Werten auftreten, denn es kann nur dann Platz bei der Kodierung eingespart werden, wenn die Anzahl der Zeichen einer Folge weniger Platz ben¨ otigt, als die Anzahl der Bits, die ben¨ otigt werden, um die L¨ ange dieser Folge als Bin¨ arzahl darzustellen. Kein Laufl¨ angenverfahren arbeitet effizient, wenn die L¨ angen der Wiederholungen zu kurz ausfallen. RLE wird auch zur Nachkomprimierung bei verlustbehafteten Komprimierungsverfahren f¨ ur Bildund Audiodaten eingesetzt. Kodierung mit variabler L¨ ange Die nun vorgestellte Methode der Kompression eignet sich besonders gut f¨ ur Textdateien. Ihre Idee besteht darin, von der herk¨ ommlichen Verfahrensweise abzuweichen, alle Zeichen mit einem Code fester, vorgegebener L¨ ange zu kodieren. Anstelle dessen werden Zeichen, die h¨ aufig im Text auftreten, k¨ urzere Codeworte zugeordnet als Zeichen, die nur selten vorkommen. Angenommen, die nachfolgende Zeichenfolge soll kodiert werden: ABRAKADABRA Mit einer Standardkodierung, die f¨ ur jeden Buchstaben des Alphabets einen 5-Bit Code verwendet, z.B. dem i-ten Buchstaben des Alphabets einfach die Bin¨ ardarstellung der Zahl i zuordnet, ergibt sich die Bitfolge 00001 00010 10010 00001 01101 00001 00100 00001 00010 10010 00001 Zur Dekodierung werden jeweils 5 Bit gelesen und gem¨ aß der Kodierungsanleitung in die entsprechenden Buchstaben umgewandelt. Hier wird der Buchstabe A ebenso mit einer f¨ unfstelligen Bitfolge kodiert wie der Buchstabe K, der im Schl¨ usseltext nur einmal vorkommt. Eine Platzeinsparung l¨ asst sich erzielen, wenn h¨ aufig verwendete Buchstaben mit weniger Bits verschl¨ usselt werden, um so die Gesamtzahl der f¨ ur die Zeichenfolge benutzten Bits zu minimieren. Die vorgegebene Zeichenfolge kann folgendermaßen verschl¨ usselt werden: Die zu kodierenden Buchstaben werden angeordnet entsprechend der H¨ aufigkeit ihres Vorkommens. Die beiden erstplatzierten Buchstaben werden mit einer Bitfolge der L¨ ange 1 kodiert. Die nachfolgenden Buchstaben werden solange es m¨ oglich ist mit jeweils 2 Bit, anschließend mit jeweils 3 Bit langen Folgen kodiert usw. D.h. A kann mit 0, B durch 1, R durch 01, K durch 10 und D durch 11 kodiert werden:

180

4 Multimediale Daten und ihre Kodierung 0 1 01 0 10 0 11 0 1 01 0

Bei dieser Kodierung m¨ ussten allerdings zus¨ atzlich auch noch Begrenzer (im Beispiel Leerzeichen) zwischen den einzelnen Buchstaben kodiert werden, da sonst mehrdeutige Interpretationen des Codewortes m¨ oglich sind. Mehrdeutigkeiten lassen sich vermeiden, wenn bei der Kodierung darauf geachtet wird, dass kein Code mit der Bitfolge eines anderen Codes beginnt. Solche Codes werden auch als pr¨ afixfreie Codes bezeichnet und die o.a. Bedingung zur Erzeugung pr¨ afixfreier Codes wird nach ihrem Entdecker Robert M. Fano (*1917) als Fano-Bedingung bezeichnet. Beispielsweise k¨ onnen wir A mit 11, B mit 00, R mit 10, K mit 010 und D mit 011 verschl¨ usseln: 110010110101101111001011 Die urspr¨ unglich 55 Bit umfassende Standardkodierung konnte also durch die Kodierung mit variabler Codewortl¨ ange auf nur 24 Bit reduziert werden. Pr¨ afixfreie Kodierungen lassen sich auch sehr anschaulich mit Hilfe eines Bin¨ arbaums darstellen, dessen Bl¨ atter mit den zu kodierenden Buchstaben belegt sind. Ausgehend von der Wurzel kann aus dem Pfad zu einem Buchstaben das diesem Buchstaben zugeordnete Codewort gewonnen werden. Verzweigt der Pfad an einem inneren Knoten nach links, so wird dem Code das Bit 0 hinzugef¨ ugt, verzweigt er nach rechts, so kommt das Bit 1 hinzu (siehe Abb. 4.6).

0

00

1

01

10

B

R 010 K

11 A

011 D

Abb. 4.6 Pr¨afixfreie Kodierung in Bin¨arbaumdarstellung

Mit Hilfe von Baumdarstellungen lassen sich einfach Kodierungen gewinnen, die der FanoBedingung gen¨ ugen, so dass keine der verwendete Bitfolgen Pr¨ afix eines anderen Codewortes ist. Huffman Kodierung Es ergibt sich die Frage, wie man einen m¨ oglichst effizienten Code variabler L¨ ange gewinnen kann. Dazu eignet sich das 1952 von David A. Huffman (1925–1999) entwickelte Verfahren, die nach ihm benannte Huffman Kodierung. Die optimale Kodierung f¨ ur eine Textdatei l¨ asst sich stets in einem Bin¨ arbaum darstellen, dessen innere Knoten immer zwei Nachfolger besitzen, d.h. wenn die Menge A alle zu kodierenden Buchstaben repr¨ asentiert, dann besitzt der Baum f¨ ur einen optimalen pr¨ afixfreien Code f¨ ur A genau |A| Blattknoten und |A|-1 innere Knoten. Betrachten wir einen Baum T, der einem vorgegebenen pr¨ afixfreien Code entspricht, dann kann die Anzahl der Bits zur Kodierung einer vorgegebenen Datei einfach berechnet werden. Bezeichne f(c) die H¨ aufigkeit, mit der ein Zeichen c des gegebenen Alphabets A in unserer Datei vorkommt. dT(c) bezeichne die Tiefe des Blattknotens f¨ ur das Zeichen c im Bin¨ arbaum

4.3 Text - Datenformate und Komprimierung

181

T, was u ange des Codewortes f¨ ur c entspricht. Die Anzahl der zur Kodierung ¨brigens der L¨ einer Datei ben¨ otigten Bits B(T) ergibt sich zu

B(T) =

∑ f(c)dT (c). c∈A

Das von Huffman entwickelte Verfahren zur Konstruktion eines optimalen pr¨ afixfreien Codes arbeitet in sogenannter bottom-up Manier, d.h. es beginnt von unten mit einer Menge von |A| (unzusammenh¨ angenden) Blattknoten und f¨ uhrt eine Reihe von |A|-1 Verschmelzungsoperationen durch, um einen Ergebnisbaum zu konstruieren. Die Blattknoten tragen neben dem Buchstaben c∈A, den sie repr¨ asentieren auch noch dessen H¨ aufigkeit f(c) innerhalb der zu kodierenden Datei. Als n¨ achstes werden die beiden Knoten c1 und c2 , die die kleinsten H¨ aufigkeitsangaben enthalten, ausgew¨ ahlt und es wird ein neuer Knoten cneu erzeugt, der mit der Summe aus den beiden H¨ aufigkeiten f(cneu )=f(c1 )+f(c2 ) markiert und mit den beiden ausgew¨ ahlten Knoten als Nachfolger verbunden wird. Die Knoten c1 und c2 werden aus der Menge A herausgenommen, w¨ ahrend der neue Knoten cneu darin aufgenommen wird. Indem auf dieselbe Weise fortgefahren wird, entstehen immer gr¨ oßere Unterb¨ aume und die Anzahl der in A befindlichen Knoten wird immer kleiner. Am Ende sind alle Knoten zu einem einzigen Baum miteinander verbunden. Knoten mit geringer H¨ aufigkeit sind dann am weitesten vom Wurzelknoten entfernt, d.h. ihnen wird auch das l¨ angste verwendete Codewort zugeteilt, w¨ ahrend sich Knoten großer H¨ aufigkeit nahe dem Wurzelknoten befinden und dementsprechend kurze Codeworte besitzen. Aus dem so erzeugten Baum ergibt sich direkt der Huffman-Code (siehe Abb. 4.7).

11 0

1

0

6

1

4 0

5

2

2 1

0

2

1

1

1

A

B

R

D

K

0

100

101

110

111

Abb. 4.7 Huffman Kodierung in Bin¨arbaumdarstellung

Mit Hilfe vollst¨ andiger Induktion kann gezeigt werden, dass die Huffman Methode tats¨ achlich einen optimalen pr¨ afixfreien Code erzeugt. Weiterf¨ uhrende Literatur Huffman, D. A.: A Method for the Construction of Minimum-Redundancy Codes, in Proc. of the IRE, 40(9), pp. 1098-1101 (1952) Cormen, T. H., Leiserson, C. E., Rivest, R. L.: Introduction to Algorithms, MIT Press, Cambridge MA, USA (1996)

182

4 Multimediale Daten und ihre Kodierung

4.4 Grafik - Datenformate und Komprimierung Graphische Daten, die in einem Computer dargestellt und verarbeitet werden sollen, werden traditionell aufbereitet in Form von Vektorgrafiken oder Bitmapgrafiken (oft auch als Rastergrafik bezeichnet). Bei Vektorgrafiken werden Linien, Polygone oder Kurven durch die Angabe bestimmter Schl¨usselpunkte charakterisiert. Ein Programm rekonstruiert aus diesen Schl¨usselpunkten die darzustellende geometrische Figur. Zus¨atzlich werden diese Schl¨usselpunkte mit bestimmten Attributinformationen, wie z.B. Farbe oder Linienst¨arke ausgestattet. Aus diesen grafischen Grundelementen rekonstruiert ein entsprechendes Programm mit Hilfe eines Ausgabeger¨ats das darzustellende Bild. Historisch gesehen entstand die Vektorgrafik im Zusammenhang mit der Entwicklung von Plottern als grafische Ausgabeger¨ate f¨ur Computer. Bei einem Plotter werden ein oder mehrere Stifte vorgegebenen Koordinatenwerten folgend u¨ ber eine Zeichenebene gef¨uhrt. Ein Vorteil der Vektorgrafik liegt darin, dass sich die darzustellenden Bilder beliebig skalieren lassen, ohne dass dabei qualit¨atsmindernde Rasterung-Effekte auftreten. Bitmapgrafiken setzen sich zusammen aus einer Menge numerischer Werte, die Farb- und Helligkeitsinformationen einzelner Bildpunkte (Pixel) oder ganzer Bildelemente wiedergeben. Pixel sind Bildpunkte einer bestimmten Farbe, die in einer der Bemaßung des Bildes entsprechenden Matrix angeordnet sind. Zur Kodierung eines Bildes muss dieses zuvor in Form eines Rasters r¨aumlich diskretisiert (Rasterung) und jedem einzelnen Bildpunkt ein Farb- bzw. Helligkeitswert zugewiesen (Quantisierung) werden. Historisch gesehen ist die Bitmap- oder Rastergrafik mit der Entwicklung der Kathodenstrahlr¨ohre (Cathod Ray Tube, CRT) als grafisches Ausgabeger¨at verbunden. Um ein Bild, das auf einem solchen Bildschirm ausgegeben wird, durch seine einzelnen Bildpunkte darzustellen, werden diese in einer bestimmten Farbe und Helligkeit beleuchtet. Rastergrafiken eignen sich zur Darstellung komplexerer Bilder wie Fotografien, die nicht mit Vektorgrafiken beschreibbar sind. Zu den Nachteilen der Bitmapgrafik gegen¨uber der Vektorgrafik z¨ahlt der meist relativ hohe Speicherplatzverbrauch. Da Bitmapgrafiken nur aus einer begrenzten Anzahl von Pixeln bestehen, werden zweidimensionale geometrische Formen im Gegensatz zu Vektorgrafiken nur angen¨ahert. Dabei kann ein sogenannter Treppenef” fekt“ (Alias-Effekt) auftreten, d.h. an sich runde Linien werden durch treppenartige Pixelfolgen angen¨ahert. Zudem gehen bei geometrischen Transformationen, wie z.B. bei einer Vergr¨oßerung (Skalierung) oder Drehung (Rotation) eines Bildausschnittes Informationen verloren. Es kann dabei sogar zur Entstehung sogenannter Artefakte“ kommen, d.h. es k¨onnen durch die Transformation Pixel in Farbt¨onen ” erzeugt werden, die vormals nicht vorhanden waren und die Qualit¨at des transformierten Bildes vermindern. Obwohl inzwischen auch Vektorgrafiken im WWW eingesetzt werden, beschr¨anken wir uns in diesem Kapitel auf die wichtigsten Datenformate aus dem Bereich der Bitmapgrafik.

4.4 Grafik - Datenformate und Komprimierung

183

Bei der effizienten Speicherung von Grafikdaten m¨ussen die folgenden Eigenschaften ber¨ucksichtigt werden, die eine Grafik charakterisieren: • Bildaufl¨osung (Picture Resolution) Die Bildaufl¨osung wird durch die Anzahl der Bildpunkte entlang der x-Achse und der y-Achse bestimmt. • Farbtiefe (Color Depth) Die Farbtiefe bestimmt die Anzahl der Farben, mit denen ein Bildpunkt eingef¨arbt werden kann. Sie wird als Logarithmus log(c) u¨ ber die tats¨achliche Anzahl der m¨oglichen Farben c angegeben (z.B. Farbtiefe 8 entspricht 28 = 256 Farben), also der Anzahl der Bits, die ben¨otigt werden, um die Farbe eindeutig zu beschreiben oder anzugeben. Von einer Echtfarbdarstellung kann ab einer Farbtiefe von 24 Bit gesprochen werden. Moderne bildverarbeitende Systeme erlauben sogar eine 32 Bit bzw. 48 Bit tiefe Farbdarstellung. • Farbpalette (Palette Size) Einige Grafiksysteme beschr¨anken die Anzahl der zur Angabe von Farben zur Verf¨ugung stehenden Bits. Dabei wird von vornherein eine Farbpalette mit einer reduzierten Anzahl von Farben festgelegt, aus denen dann das Bild aufgebaut werden kann. Die Farben der Farbpalette sollten so gew¨ahlt werden, dass diese den originalen Farben des zu kodierenden Bildes m¨oglichst nahe kommen. • Bildaufl¨osung (Dichte) Die Bildaufl¨osung wird als Dichte der einzelnen Bildpunkte pro L¨angeneinheit angegeben. Die g¨angige, aus dem amerikanischen u¨ bernommene Maßeinheit ist dabei dpi (dots per inch), also die Anzahl der Bildpunkte pro 2,54 cm. Eine Bildaufl¨osung f¨ur Computerbildschirme liegt etwa bei 100 dpi, w¨ahrend im Druckbereich Bildaufl¨osungen von mehr als 300 dpi u¨ blich sind. Je h¨oher die Bildaufl¨osung gew¨ahlt wird, desto detailreicher erfolgt die Darstellung des Bildes und desto gr¨oßer ist aber auch der ben¨otigte Speicherplatz. • Seitenverh¨altnis (Aspect Ratio) Das Seitenverh¨altnis eines Bildes beschreibt das Verh¨altnis von Bildl¨ange zu Bildbreite. Man unterscheidet zus¨atzlich noch das Seitenverh¨altnis eines einzelnen Bildpunktes (Pixel Aspect Ratio), das ebenfalls das Seitenverh¨altnis des Gesamtbildes und dessen Wahrnehmung beeinflusst. In einer Bitmapgrafik werden die einzelnen Bildpunkte im einfachsten Fall nebeneinander innerhalb einer Zeile und die Zeilen in aufeinanderfolgender Reihe abgespeichert. Entsprechend der darzustellenden Farbtiefe wird f¨ur einen einzelnen Bildpunkt unterschiedlich viel Speicherplatz ben¨otigt. Reicht in einem monochromen Bild ein einzelnes Bit f¨ur einen Bildpunkt, so werden f¨ur eine sogenannte Echtfarbdarstellung mindestens 24 Bit pro Bildpunkt ben¨otigt. Farbe selbst ist keine Eigenschaft der physikalischen Welt, sondern lediglich eine Sinneswahrnehmung. Farbe ist eine Empfindung, die es uns erlaubt, zwei strukturlose Oberfl¨achen von gleicher Helligkeit zu unterscheiden. Farbe, wie der Mensch sie wahrnehmen kann, ist nichts anderes als Licht unterschiedlicher Wellenl¨ange. Das weiße Licht, wie wir es aus unserem t¨aglichen Leben kennen, besteht aus einer

184

4 Multimediale Daten und ihre Kodierung

Vermischung unterschiedlichster Lichtfrequenzen, deren Wellenl¨ange innerhalb des f¨ur den Menschen wahrnehmbaren Bereichs von etwa 380 nm bis 780 nm (1 nm = 10−9 m) liegen. Idealerweise wird farbiges Licht erzeugt von einem strahlenden schwarzen K¨orper (Schwarzk¨orperstrahlung). Je nach Temperatur des Strahlers unterscheidet sich die spektrale Zusammensetzung des Lichts. Daher k¨onnen unterschiedlichen Lichtquellen Farbtemperaturen zugeordnet werden, die der Temperatur eines idealen schwarzen K¨orpers entspricht, der ein vergleichbares Lichtspektrum emittiert. Die Farbtemperatur einer gew¨ohnlichen 60 Watt Gl¨uhbirne betr¨agt 2.200◦ Kelvin, w¨ahrend die Farbtemperatur des Sonnenlichts ungef¨ahr 5.500◦ Kelvin betr¨agt. Niedrige Farbtemperaturen erscheinen uns r¨otlich warm, w¨ahrend wir h¨ohere Farbtemperaturen als bl¨aulich kalt wahrnehmen. Farbe kommt erst dadurch zustande, wenn weißes Licht in Einzelbestandteile fester bzw. a¨ hnlicher Frequenz zerlegt wird bzw. wenn bei Reflektion oder Streuung an Oberfl¨achen von weißem Licht bestimmte Frequenzen bevorzugt und andere unterdr¨uckt bzw. absorbiert oder durch farbige, transparente K¨orper gefiltert werden. Im ersten Fall wird farbiges Licht von einem K¨orper (Sonne, Gl¨uhlampe) emittiert, daher bezeichnet man diese Farben auch als Lichtfarben. Die zweite Variante der Farben, die durch Reflektion, Absorption, Streuung oder Filterung erzeugt wird, bezeichnet man als K¨orperfarben. Das menschliche Auge kann allerdings jeweils nur eine beschr¨ankte Anzahl von Farben wahrnehmen. Simultan lassen sich bis zu 10.000 Farben gleichzeitig unterscheiden. Insgesamt ist das menschliche Auge in der Lage bis zu 7 Millionen verschiedene Farbvalenzen bei etwa 500 verschiedenen Helligkeitsstufen und etwa 200 verschiedenen Farbt¨onen zu unterscheiden. Allerdings h¨angt dies jeweils von verschiedenen Parametern, wie z.B. Hintergrundbeleuchtung und der Gr¨oße des Helligkeitsfeldes ab. Unter optimalen Bedingungen erh¨oht sich der Wert der wahrgenommenen Helligkeitsstufen auf bis zu 1.000. Die maximale Empfindlichkeit des menschlichen Auges ist abh¨angig von der Wellenl¨ange und der Lichtintensit¨at. Bei Tageslicht liegt die maximale Empfindlichkeit bei 554 nm, bei der Anpassung des Auges an Nachtverh¨altnisse verschiebt sie sich nach 513 nm. Zur Darstellung der Farben im Computer existieren verschiedene mathematische Farbmodelle. Bereits Aristoteles ordnete die Farben systematisch an, indem er sie auf einer Palette zwischen Schwarz und Weiß aneinanderreihte. Nach ihm versuchten sich noch viele Wissenschaftler und K¨unstler durch die Jahrhunderte an einer Systematisierung der Farben. Die entwickelten Farbsysteme haben alle das Ziel, die Farben dergestalt anzuordnen, dass sie u¨ ber eine geometrische Anordnung beschrieben werden k¨onnen, oder eine Anleitung zum Mischen neuer Farben geben. Prinzipiell unterscheidet man additive und subtraktive Farbmodelle. In einem additiven Farbmodell werden Farben zur Grundfarbe Schwarz hinzugemischt, um neue Farben zu erzeugen. Je mehr Farben hinzugef¨ugt werden, desto mehr tendiert die Farbmischung zur Farbe weiß. In additiven Farbmodellen sind die jeweiligen Farben selbstleuchtend. Ein typisches Beispiel daf¨ur ist das Rasterbild eines Fernsehers oder Computerbildschirms. Da sich das Bild anhand vieler kleiner Punkte zusammensetzt, werden die drei Grundfarben der leuchtenden roten, gr¨unen und blauen Bildpunkte addiert“. In ausreichendem Abstand werden die nebeneinanderliegen”

4.4 Grafik - Datenformate und Komprimierung

185

den roten, gr¨unen und blauen Bildpunkte im Auge vermischt wahrgenommen und bewirken so eine entsprechende Farbwahrnehmung. Ein subtraktives Farbmodell arbeitet in der entgegengesetzten Weise. Im Prinzip werden dabei einzelne Farben von der Grundfarbe weiß abgezogen, um neue Farben zu erzeugen. Je mehr Farben dabei abgezogen werden, desto mehr tendiert die Farbmischung zu schwarz. Aus einer anderen Sicht betrachtet, repr¨asentiert schwarz in einem subtraktiven Farbmodell die totale Absorption des auftreffenden Lichts durch die Farbpigmente. Subtraktive Farbmodelle basieren auf Reflektion und Absorbtion. Die von uns wahrgenommene Farbe ergibt sich aus der Reflektion des Lichts einer externen Lichtquelle, wie z.B. an den auf einem Blatt Papier gedruckten Farben. Farben lassen sich im Rahmen eines Farbmodells in Prim¨arfarben, Sekund¨arfarben und Terti¨arfarben unterteilen, entsprechend dem Mischungsgrad der beteiligten Grundfarben. Die Grundfarben des Farbmodells stellen die Prim¨arfarben dar. Werden zwei Prim¨arfarben zu gleichen Anteilen gemischt, entstehen Sekund¨arfarben. So entsteht im additiven RGB-Farbmodell durch Mischung der Prim¨arfarben Rot und Gr¨un die Sekund¨arfarbe Gelb. Werden eine Prim¨arfarbe und eine Sekund¨arfarbe gemischt, entsteht eine Terti¨arfarbe. Die gebr¨auchlichsten Farbmodelle, das RGB-Farbmodell, das CMY(K)-Farbmodell, das HUV-Farbmodell und das YUV-Farbmodell werden detailliert in Exkurs 7 vorgestellt. Keines dieser Farbsysteme arbeitet in der Praxis perfekt. So sollte in einem subtraktiven Farbmischverfahren eine Mischung aller Farben ein perfektes Schwarz ergeben, was sich aber in der Praxis durch die Unzul¨anglichkeit der verwendeten Tinten eher als sehr dunkles Braun darstellt.

Exkurs 7: Was ist Farbe? – Farbe und Farbsysteme Das Einordnen nat¨ urlicher Farben in ein System und die Untersuchung solcher Systeme reicht bis in das Altertum zur¨ uck. Bereits Aristoteles (384–322 v. Chr.) ordnete die Farben ¨ in seinem Werk De sensu et sensato“ (Uber die Sinne), indem er sie auf einem Strahl ” entlang von Schwarz nach Weiß aneinanderreihte und diese dem Tagesverlauf zuordnete. Im Mittelalter stritten die Gelehrten u ¨ber die Existenz der Farben an sich. Der persische Arzt und Physiker Avicenna (980–1037) bestritt, dass es Farbe gibt, wo es dunkel ist. Ohne das Licht fehle den Farben das verum esse“, ihr tats¨ achliches Sein. Sein Gegenspieler Alhazen ” (auch Ibn al-Haitham, 965–1040) entgegnete, dass die Farben noch vorhanden seien, wenn es dunkel ist, sie w¨ urden nur das Auge nicht mehr erreichen. Im europ¨ aischen Mittelalter griff der Philosoph Roger Bacon (1214–1294) die Frage auf und erkl¨ arte, dass Licht und Farbe stets nur vereint vorkommen, Lux ... non venit sine colore“. ” Zahlreiche Wissenschaftler und K¨ unstler versuchten sich seither darin, die Farben in einem Farbsystem zu ordnen, wobei sie von unterschiedlichen Motivationen dazu getrieben wurden. Sehen Physiker in den Farben nichts anderes als die unterschiedlichen Wellenl¨ angen des Lichts, betrachtet der Maler eine Farbmischung auf seiner Palette und untersucht der Physiologe die mit der Farbe einhergehende Empfindung, die diese auf den Menschen aus¨ ubt. Der Zweck eines Farbsystems liegt darin, die Farben so anzuordnen, dass aus der Geometrie eine Anleitung zur Farbmischung gewonnen werden kann. Die Erkenntnis, dass Farben nichts anderes als die Bestandteile des weißen Lichts sind, wurde mit Untersuchungen an Glasprismen gewonnen und von dem b¨ ohmischen Physiker Marcus Marci (1595–1667) erstmals 1648 in seinen Schriften Thaumantias liber de arcu caelesti“ ” (1648) und Dissertatio de natura iridis“ (1650) dokumentiert. Farben unterschiedlicher ”

186

4 Multimediale Daten und ihre Kodierung

Wellenl¨ ange werden an einem Prisma mit unterschiedlichen Winkeln gebrochen (chromatische Aberration). Die durch ein Prisma erzeugten Farben sind nicht weiter zerlegbar. Darauf aufbauend experimentierte auch der englische Physiker Isaac Newton mit Prismen und ver¨ offentlichte 1672 seine Ergebnisse, die sp¨ ater (1704) die Grundlage f¨ ur sein Hauptwerk Opticks or a treatise of the reflections, refractions, inflections and colours of light“ bildeten. ” Er pr¨ agte den ber¨ uhmten Satz The rays are not coloured“ (Die Lichtstrahlen sind nicht ” farbig). Vielmehr entsteht ein unterschiedlicher Farbeindruck in Abh¨ angigkeit der Frequenz des wahrgenommenen Lichts. Langwelliges Licht entspricht der Farbe Rot, kurzwelliges Licht der Farbe Violett. Dazwischen liegen die Spektralfarben Orange, Gelb, Gr¨ un und Blau (in dieser Reihenfolge). Man bezeichnet Licht als monochromatisches Licht, wenn es nur eine einzige Wellenl¨ ange aufweist. Newton bog das Band der erzeugten Spektralfarben zu einem in sieben Sektoren – Rot, Orange, Gelb, Gr¨ un, Cyanblau, Ultramarin, Violettblau – unterteilten Kreis zusammen. In die Mitte dieses Farbkreises stellte er die Farbe Weiß, da diese sich ja aus der Mischung aller beteiligten Farben zusammensetzt. Dabei verzichtete er darauf, die Farben, wie bislang u ¨blich, entsprechend ihrer Helligkeit von Hell nach Dunkel anzuordnen. In einem weiteren Schritt schob Newton zwischen die im nat¨ urlichen Spektrum vorkommenden Randfarben Rot und Violett die Farbe Purpur (Magenta). Sie ergibt sich als Mischfarbe der Farben Rot und Violett, kommt aber bei der Spektralzerlegung von weißem Licht nicht vor. Allerdings setzte sich das Konzept der Newtonschen Farblehre nur zaghaft durch. Noch u ¨ber hundert Jahre sp¨ ater polemisierte der Dichter, Naturwissenschaftler und Kunsttheoretiker Johann Wolfgang von Goethe (1749 – 1832) gegen Newtons Farbkreis. Newton mutmaßte, das sich das Licht aus Korpuskeln, also kleinen Teilchen, von unterschiedlicher Gr¨ oße zusammensetzt. Im Gegensatz zu Newton versuchte Goethe in seiner Farbenlehre, die er selbst u ¨brigens als sein wichtigstes Werk bezeichnete, zu zeigen, dass das weiße Licht nicht zusammengesetzt ist und dass sich Farben aus einer Wechselwirkung von Licht und Finsternis ¨ ergeben. Die Farbzerlegung durch das Prisma erkl¨ arte Goethe durch ein Ubereinander” schieben“ von Hell und Dunkel, wodurch ein gelber und ein blauer Rand entstehe. Je nach dem jeweiligen Anteil von Hell und Dunkel vermischen sich diese R¨ ander zu Gr¨ un oder Rot, wodurch die Spektralfarben ausgebildet werden. Goethes Farbenlehre zielt nicht auf die physikalische Farbzerlegung ab, sondern vielmehr auf die sinnlich-sittliche Wirkung“ der ” Farbe. Seine Beobachtungen und Methoden in Bezug auf die Wirkung der Farben stellen den Beginn der modernen Farbpsychologie dar. Dabei entdeckte Goethe das Ph¨ anomen der subjektiven Farben und die Grundprinzipien des Farbensehens, wie z.B. den Nachbildeffekt und den Simultankontrast. 1802 postulierte der englische Arzt und Physiker Thomas Young (1773–1829) seine Dreifarbentheorie (trichromatisches Sehen), in der er davon ausging, dass die menschliche Retina nur in der Lage ist, drei verschiedene Grundfarben wahrzunehmen (ausgehend von den unterschiedlichen Typen der Rezeptoren). Youngs Dreifarbentheorie gewann an Glaubw¨ urdigkeit, als 1855 erstmals eine statistische Analyse der Farbblindheit vorlegt wurde und gezeigt werden konnte, dass die erfassten Beobachtungen nur dann zu verstehen waren, wenn man annahm, dass ein oder zwei Rezeptorentypen bei den betroffenen Menschen ausgefallen waren. Der schottische Physiker James Clerk Maxwell zeigte dann 1859, dass sich tats¨ achlich alle Farben durch eine Mischung dreier Komponenten erzeugen lassen, sofern sich diese zusammen zu weiß erg¨ anzen, d.h. im Spektrum also weit genug voneinander entfernt liegen (wie z.B. Rot, Gr¨ un, Blau). Er stellte die entsprechenden Kombinationen innerhalb eines Dreiecks dar, dessen Eckpunkte durch die drei prim¨ aren Spektralfarben Rot, Gr¨ un und Blau markiert wurden. Jede Mischfarbe lag dabei im Schwerpunkt der Linie, die die zusammenzustellenden Grundfarben verbindet. Maxwell lieferte mit seiner Theorie des Farbensehens“ den ” Ursprung und Ausgangspunkt der modernen, quantitativen Farbmessung (Colorimetrie). Der erste, der auf den Unterschied der additiven und subtraktiven Farbmischung aufmerksam machte, war der deutsche Physiker Hermann von Helmholtz (1821–1894), der in sei-

4.4 Grafik - Datenformate und Komprimierung

187

nem Handbuch zur physiologischen Optik“ 1867 die nach ihm benannten Helmholtz” Koordinaten (Helligkeit, Farbton und S¨ attigung) vorstellte. 1850 entwickelte Helmholtz Youngs Dreifarbentheorie weiter zur heute bekannten Young-Helmholtz Theorie. Großen Erfolg hatte auch die Farbsystematik des US-amerikanischen Malers Albert Henri Munsell (1858–1918), der 1915 in seinem Farbatlas die Farben entsprechend ihrer visuellen Empfindung kategorisierte. Er gruppierte alle Farben dreidimensional rund um eine von Schwarz nach Weiß verlaufende Helligkeits-Achse (Value) in der Gestalt, dass sich gegen¨ uberliegende Farbt¨ one (Hue) zu Grau mischen. Die S¨ attigung der jeweiligen Farbt¨ one (Chroma) wird durch deren Abstand von der Zentralachse repr¨ asentiert. Zus¨ atzlich ber¨ ucksichtigte er noch unterschiedliche Helligkeiten der reinen Spektralfarben, so erscheint uns die Spektralfarbe Gelb subjektiv heller als die Spektralfarben Blau oder Rot. Eine erste wirklich objektive Farbbestimmung wurde durch die 1931 von der Internationalen Beleuchtungskommision (Commission Internationale d’Eclairage, CIE) festgelegten Farbnormtafeln m¨ oglich. Diese Farbnormtafeln wurden mit Hilfe subjektiver Testpersonen ermittelt, die solange drei Elementarfarben aus monochromatischem Licht mischten, bis eine ¨ visuelle Ubereinstimmung mit einer vorgegebenen Spektralfarbe erreicht war. Auch f¨ ur jede Elementarfarbe ergab sich so ein Zahlenwert. Mit den drei ermittelten Zahlenwerten konnte jede vorgegebene Farbe eindeutig beschrieben werden. Durch geeignete Umformung und Skalierung lassen sich diese drei Koordinaten in einem zwei-dimensionalen Koordinatensystem abbilden. Durch die Grundbedingung x + y + z = 1 l¨ asst sich der z-Anteil rechnerisch (z = 1 − x − y) leicht ermitteln. 0,9 0,8

Grün

Spektralfarblinie

0,7

RGB

0,6

Ge lb

0,5

Cyan

0,4

P

Weißpunkt

0,3

Rot

0,2

Blau

0,1 Q 0,1

Purpurlinie lett Vio 0,2

0,3

0,4

0,5

0,6

0,7

0,8

Innerhalb dieses Koordinatensystems liegen alle von einem normalsichtigen Menschen wahrnehmbaren Farben innerhalb eines hufeisenf¨ ormigen Gebildes, dessen oberere Umrandung durch die reinen Spektralfarben vorgegeben ist. Der untere Rand wird durch die sogenannte Purpurlinie als gedachte Verbindung zwischen den beiden Enden der Spektrallinie gebildet. Die Purpurlinie enth¨ alt keine Spektralfarben, sondern Farben, die nur durch Mischung von zwei Spektralfarben gewonnen werden k¨ onnen. Im Inneren befindet sich der Weißpunkt. Ausgehend von diesem Weißpunkt k¨ onnen alle als farbtongleich empfundenen Farben auf einer Linie durch Punkte P oder Q auf dem Rand der Spektralfarben abgelesen werden. Die auf dieser Linie gegen¨ uberliegenden Punkte P und Q sind Komplement¨ arfarben. Das

188

4 Multimediale Daten und ihre Kodierung

RGB-Farbmodell beschreibt die Farben, die innerhalb der CIE-Farbnormtafel in dem von den Grundfarben Rot, Gr¨ un und Blau gebildeten Dreieck liegen. Die Deutsche Industrienorm DIN 5033 definiert Farbe schließlich als diejenige Gesichtsemp” findung eines dem Auge des Menschen strukturlos erscheinenden Teiles des Gesichtsfeldes, durch die sich dieser Teil bei ein¨ augiger Beobachtung mit unbewegtem Auge von einem gleichzeitig gesehenen, ebenfalls strukturlosen angrenzenden Bezirk allein unterscheiden kann.“ RGB Farbmodell (Red-Green-Blue, Rot-Gr¨ un-Blau) RGB stellt das heute am weitesten verbreitete Farbmodell f¨ ur Grafikformate dar. Es ist ein additives Farbmischsystem, in dem jeweils wechselnde Anteile der Grundfarben Rot (R, un (G, λ = 546,1 nm) oder Blau (B, λ = 435,8 nm) additiv Wellenl¨ ange λ = 700 nm), Gr¨ zum anf¨ anglichen Schwarz hinzugemischt werden, um neue Farben zu erzeugen. Bei G und B handelt es sich um Linien des Quecksilberspektrums, w¨ ahrend R das langwellige Ende des sichtbaren Lichts darstellt. Diese drei Komponenten k¨ onnen als linear unabh¨ angige Vektoren betrachtet werden, die einen dreidimensionalen Farbraum aufspannen, der durch den RGB-Farbw¨ urfel veranschaulicht wird.

Blau

Cyan

(0,0,1)

(0,1,1)

Magenta (1,0,1)

Weiß (1,1,1) Grauwerte

Schwarz (0,0,0)

Grün (0,1,0)

Rot (1,0,0)

Gelb (1,0,1)

Der durch die Eckpunkte des Farbw¨ urfels aufgespannte Farbraum wird auch als Gamut bezeichnet. Grafikdatenformate nutzen zur Darstellung eines Pixels im RGB-Farbsystem ein Farb-Tripel (r,g,b) numerischer Werte, die den jeweiligen Farbanteil der Grundfarben im Pixel festlegen. Bei einer 24 Bit Echtfarbdarstellung repr¨ asentiert z.B. das Tripel (0,0,0) die Farbe Schwarz und (255,255,255) die Farbe Weiß. Tragen alle drei RGB-Anteile denselben numerischen Wert - also z.B. (66,66,66) - so liegen diese auf einer Diagonalen im RGBW¨ urfel und die resultierende Farbe ergibt stets eine bestimmte Graustufe. CMY (Cyan-Magenta-Yellow, Cyan-Magenta-Gelb) CMY ist ein subtraktives Farbmodell, das von Druckern und in der Fotografie genutzt wird und auf einer weißen Oberfl¨ ache arbeitet. Ann¨ ahernd alle Ger¨ ate, die auf dem Prinzip des Auftragens von Farbpigmenten auf einer weißen Oberfl¨ ache beruhen, nutzen das CMY-Verfahren. Wird die bedruckte Oberfl¨ ache beleuchtet, so absorbiert jede der drei verwendeten Grundfarben anteilig die ihr zugeordnete Komplement¨ arfarbe des einfallenden Lichts: Cyan (ein gr¨ unliches Blau) absorbiert Rot, Magenta (ein leicht violettes Rot) absorbiert Gr¨ un und Yellow (ein mittleres Gelb) absorbiert Blau. Durch Erh¨ ohung des Gelbwertes wird z.B. der Anteil des im Bild wahrnehmbaren Blaus verringert. Werden alle Farbanteile

4.4 Grafik - Datenformate und Komprimierung

189

aus dem einfallenden Licht durch eine Mischung aller Farben absorbiert, dann resultiert Schwarz.

Yellow

Rot

(0,0,1)

(0,1,1)

Grün (1,0,1)

Schwarz (1,1,1) Grauwerte

Weiß (0,0,0)

Magenta (0,1,0)

Cyan (1,0,0)

Blau (1,0,1)

Da durch die Mischung der drei Grundfarben in der Praxis aber kein perfektes Schwarz erreicht werden kann, hat sich das erweiterte CMYK durchgesetzt. Dabei steht K f¨ ur Key Colour, die Schl¨ usselfarbe Schwarz. Der Begriff Key“ wird anstelle von Black“ verwen” ” det, um Missverst¨ andnissen mit dem Buchstaben B“ vorzubeugen, der im Englischen ” f¨ ur Blue“ (Blau) steht. Im Englischen bezeichnet K“ die im Offsetdruck verwendete ” ” Key Plate“ (Schl¨ usselplatte), die schwarz druckende Druckplatte, an deren Grundlinie die ” drei farbigen Druckplatten mit den Grundfarben ausgerichtet werden. Die schwarze Farbe dient im CMYK-Farbmodell nicht der Farbgebung, sonder lediglich dem Abdunkeln der drei Grundfarben. CMY-Farben werden als numerisches Tripel (CMYK-Farben als Quadrupel) angegeben. So stellt das CMY-Tripel (255,255,255) in einem 24 Bit Echtfarbsystem etwa die Farbe Schwarz dar und (0,0,0) die Farbe Weiß. Oft werden allerdings in vielen Farbmischsystemen auch nur Prozentangaben f¨ ur die anteilig verwendeten Grundfarben angegeben, die zwischen 0% und 100% liegen. HSV Farbmodell (Hue-Saturation-Value, Farbton-S¨ attigung-Intensit¨ at) Das HSV-Farbsystem ist ein Vertreter der Farbsysteme, die Farbeigenschaften variieren, um neue Farben zu erzeugen, anstelle Farben zu mischen. Hue bestimmt dabei den Farbton im eigentlichen Sinn, wie z.B. rot, orange, blau, etc. Die Angabe des Farbtons erfolgt als Farbwinkel auf dem Farbkreis (z.B. 0◦ = Rot, 120◦ = Gr¨ un, 240◦ = Blau). Saturation bestimmt den Anteil der Farbe Weiß im gew¨ ahlten Farbton. Ein voll ges¨ attigter Farbton, d.h. Saturation 100%, beinhaltet kein Weiß und erscheint als reiner Farbton. W¨ ahlt man z.B. den Farbton Rot mit einer S¨ attigung von 50%, so ist die resultierende Farbe Rosa. Value schließlich bezeichnet den Grad der Eigenleuchtkraft (Selbstlumineszenz) eines Farbtons, d.h. wieviel Licht der Farbton emittiert. Ein Farbton mit hoher Eigenleuchtkraft erscheint hell, w¨ ahrend ein Farbton mit nur geringer Eigenleuchtkraft dunkel erscheint.

190

4 Multimediale Daten und ihre Kodierung Weiß

V

Magenta

Blau

S H

Rot Gelb

Cyan

Grün

Schwarz

HSV ¨ ahnelt damit stark dem Farbmischsystem, das von Malern angewendet wird, wenn diese zu einem reinen Farbton durch Zumischung von Weiß, Schwarz oder Grau verschiedene Abstufungen erzielen. Es gibt eine Reihe weiterer, sehr ¨ ahnlicher Farbmodelle, die einen Farbton (Hue) durch die Variation zweier anderer Eigenschaften ver¨ andern, so z.B.:

• HSL - Hue, Saturation, and Lightness (relative Helligkeit), • HSI - Hue, Saturation, and Intensity (Lichtintensit¨at), • HSB - Hue, Saturation, and Brightness (absolute Helligkeit). Obwohl in dieser Familie Farbsysteme eine klare Trennung zwischen Helligkeit und Farbe liefern, haben sie in der Grafikkodierung und Grafikkomprimierung kaum Bedeutung erlangt. Eine Ursache daf¨ ur ist ihre Diskontinuit¨ at bzgl. der Farbdarstellung. So haben die Farbwerte der Winkel 0◦ und 359◦ fast einen identischen Farbton, ihre Repr¨ asentation als Zahlenwert unterscheidet sich jedoch stark. Sollte es z.B. bei einer verlustbehafteten Komprimierung zu einer Vermischung der beiden Farben kommen, w¨ urde sich eine Farbe ergeben, die auf der gegen¨ uberliegenden Seite des Farbkreises liegt ((0+359)/2≈180), und die die Darstellung stark verf¨ alscht. YUV Farbmodell (Y-Signal, U-Signal, and V-Signal) Das YUV-Farbmodell geh¨ ort zu einer Familie von Farbmodellen, die sich von den u ¨brigen ¨ Farbmodellen durch die Trennung von Bildhelligkeit und Farbdifferenz unterscheidet. Uber eine einfache Transformation lassen sich die RGB-Komponenten eines Farbbildes in ihr entsprechendes YUV-Gegenst¨ uck umrechnen. Historisch gesehen sind die YUV-Farbmodelle ¨ eng mit der Entwicklung des Farbfernsehens verkn¨ upft. Beim Ubergang vom SchwarzweißFernsehen zum Farbfernsehen war es aus Gr¨ unden der Kompatibilit¨ at erforderlich, ein Verfahren zu finden, das es erm¨ oglichte, die alten Schwarzweiß-Empf¨ anger weiterzubenutzen ¨ und durch zus¨ atzliche Ubertragung der Farbkomponente das Farbfernsehen zu erm¨ oglichen. Man trennte also die Helligkeit (Luminanz) (Y-Komponente) von den Farbanteilen (Chrominanz) (U- und V-Komponente). Das menschliche Auge besitzt unterschiedliche Empfindlichkeit bzgl. der Helligkeits- und Farbaufl¨ osung, so dass diese Art der Trennung der Komponenten eine gleichzeitige Anpassung der Aufl¨ osung der Komponenten an die menschliche Wahrnehmung erm¨ oglichte. Die Umrechnung vom RGB- in das YUV-Farbmodell erfolgt u ¨ber:

4.4 Grafik - Datenformate und Komprimierung

(Y, U, V) = (R, G, B) ·

0, 299 −0, 168736 0, 5 0, 587 −0, 331264 −0, 418688 0, 114 0, 5 −0, 081312

191

!

Innerhalb der Familie dieser Farbmodelle unterscheidet man grunds¨ atzlich drei Modelle:

• YUV - Dieses Modell findet im PAL-Fernsehstandard seinen Einsatz. • YIQ - Dieses Modell wird im konkurrierenden NTSC-Farbfernsehsystem verwendet, das •

haupts¨ achlich in Nordamerika und Japan verwendet wird. Der einzige Unterschied zum YUV-Modell besteht in einer Verschiebung der Chrominanzen um 33◦ . YCbCr - Dieses Modell wurde aus dem YUV-Modell speziell f¨ ur das digitale Fernsehen abgeleitet. Es unterscheidet sich vom YUV-Modell durch eine Skalierung der einzelnen Komponenten und einen Offset f¨ ur die Chrominanzen.

Weiterf¨ uhrende Literatur: Falk, D., Brill, D., Stork, D.: Seeing the Light: Optics in Nature, Photography, Color, Vision and Holography, John Wiley & Sons, New York, USA (1986) Gage, J.: Kulturgeschichte der Farbe. Von der Antike bis zur Gegenwart, 2. Aufl., E. A. Seemann Verlag, Leipzig (2004) K¨ uppers, H.: Das Grundgesetz der Farbenlehre, 10. Aufl., DuMont, K¨ oln (2002)

4.4.1 Varianten der Laufl¨angenkodierung fur ¨ Grafikdaten Bild- oder Grafikdaten werden in der Regel in einem sequentiellen Prozess komprimiert. Dazu wird das 2-dimensionale Bild in einen 1-dimensionalen Datenstrom, bestehend aus den Farbinformationen der einzelnen Bildpunkte zerlegt. Dies kann zeilenweise von links oben nach rechts unten (X-Axis Encoding), spaltenweise in derselben Reihenfolge (Y-Axis Encoding) oder sogar diagonal in abwechselnder Richtung (Zig-Zag-Encoding) erfolgen. Laufl¨angenkodierungen (RLE, siehe Exkurs 6) f¨ur Grafikdateien sind in der Regel verlustfrei. Das Verfahren entspricht im Wesentlichen dem bereits vorgestellten Verfahren f¨ur Textdateien. Unabh¨angig vom gew¨ahlten Farbmodell werden die Farbwerte der einzelnen Bildpunkte durch eine Anzahl numerischer Werte angegeben. Diese numerischen Werte k¨onnen als Bin¨arzahl dargestellt werden und bilden so fortlaufend aneinandergereiht einen einzigen langen Bitstring. Auftretende zusammenh¨angende Gruppen von Nullen und Einsen k¨onnen wie gehabt zusammengefasst werden. Je l¨anger dabei die zusammenh¨angenden Gruppen sind, desto h¨oher ist der Grad der Komprimierung. Eine zusammenh¨angende Gruppe von identischen Bits l¨asst sich dann bezogen auf die urspr¨ungliche Speichergr¨oße auf nur logarithmischem Raum zusammenfassen. Diese Art der Kodierung wird als Bit-Level Laufl¨angenkodierung bezeichnet. Im Gegensatz dazu ber¨ucksichtigt die Byte-Level Laufl¨angenkodierung identische Byte-Werte der zu kodierenden Bildinformation und nimmt keine R¨ucksicht auf einzelne Bits oder Bitgruppen. Am verbreitetsten sind dabei Verfahren, die zusammenh¨angende Gruppen identischer Bytes in einem 2-Byte Paket kodieren, wobei

192

4 Multimediale Daten und ihre Kodierung

das erste Byte die Anzahl der Wiederholungen und das zweite Byte den betreffenden Bytewert angibt. Auf einem h¨oher gelegenen Abstraktionslevel setzt die sogenannte Pixel-Level Laufl¨angenkodierung an. Diese wird dann angewendet, wenn zwei oder mehr Bytes zur Speicherung des Farbwertes eines Pixels verwendet werden. Um diese Verfahren in ihrer Effizienz noch weiter zu erh¨ohen, werden verschiedene spezielle Tricks angewendet. Wiederholt sich in einer Bilddatei etwa eine komplette Zeile, dann reicht es aus, diese Wiederholung durch ein spezielles, reserviertes Codewort zu kennzeichnen, was zu einer betr¨achtlichen zus¨atzlichen Platzersparnis f¨uhrt.

4.4.2 LZW-Verfahren Eine der gebr¨auchlichsten Komprimierungsmethoden f¨ur Grafikdaten ist das sogenannte LZW-Verfahren, benannt nach seinen drei Urhebern Abraham Lempel, Jakob Zif und Terry Welch. 1977 entwickelten Lempel und Zif den ersten Vertreter der LZ-Substitutionskomprimierverfahren - LZ77 - der besonders gut zur Komprimierung von Textdateien oder zur Archivierung geeignet war [254]. LZ77 ist in vielen g¨angigen Archivierungsprogrammen, wie z.B. compress, pkzip oder arj, enthalten. Das im Folgejahr entwickelte Verfahren LZ78 dagegen ist zur Komprimierung von Bin¨ardaten, wie z.B. Bitmaps, geeignet. 1984 modifizierte Terry Welch, der zu dieser Zeit f¨ur die Firma Unisys arbeitete, den LZ78-Komprimierer, um ihn an den Einsatz in Hochgeschwindigkeits-Festplattencontrollern anzupassen. Das Ergebnis dieser Modifikation ist der heute gebr¨auchliche LZW-Algorithmus [246]. Der LZW-Algorithmus ist f¨ur jede Art von Daten geeignet und arbeitet sowohl beim Kodieren als auch beim Dekodieren sehr schnell, da unter anderem auf die Ausf¨uhrung von Fließkommaoperationen verzichtet wird. LZW ist ein W¨orterbuchbasierter Komprimierungsalgorithmus, der zur Kodierung ein W¨orterbuch (Data Dictionary, Translation Table) aus den Zeichenketten (bzw. 8-Bit Bin¨arworten) eines unkomprimierten Datenstroms aufbaut. Die auftretenden Datenmuster (Substrings) eines Datenstroms werden anschließend den einzelnen W¨orterbucheintr¨agen zugeordnet. Iterativ werden aus nicht im W¨orterbuch vorkommenden Datenmustern neue Codeworte generiert und im W¨orterbuch gespeichert. Treten diese Datenmuster erneut auf, werden sie durch die jeweils zugeordneten Codew¨orter aus dem W¨orterbuch ersetzt. Da diese eine k¨urzere L¨ange als die urspr¨unglichen Datenmuster besitzen, findet eine Komprimierung statt (siehe Abb. 4.8). Die Dekodierung von LZW-komprimierten Daten erfolgt in der umgekehrten Reihenfolge. Der Vorteil des LZW-Algorithmus liegt darin, dass das W¨orterbuch nicht zus¨atzlich zu den komprimierten Daten abgelegt und u¨ bertragen werden muss. Es ist implizit in den komprimierten Daten mit enthalten und wird im Verlauf der Dekodierung rekonstruiert. Der Dekomprimierungsalgorithmus liest ein Codewort ein und u¨ bersetzt dieses mit Hilfe des W¨orterbuchs zur¨uck in die unkomprimierten Ursprungsdaten. Der LZW-Algorithmus arbeitet mit einer W¨orterbuchgr¨oße von 4K (4.096) Byte. Im W¨orterbuch befinden sich beim Start des Algorithmus bereits je-

4.4 Grafik - Datenformate und Komprimierung

193

LZW-Algorithmus - prinzipieller Ablauf

• Lies aus dem Eingabe-Strom Zeichen und akkumuliere diese zu einem String S, solange sich S als W¨ orterbuch-Eintrag findet. • Sobald ein Zeichen x gelesen wird, f¨ ur das der String Sx nicht mehr zur W¨ orterbuchTabelle geh¨ ort, fahre folgendermaßen fort: – F¨ uge den String Sx der W¨ orterbuch-Tabelle hinzu, – baue mit dem Zeichen x beginnend einen neuen String auf.

• Wiederhole diese Schritte, bis das Ende des Eingabe-Stroms erreicht ist. Abb. 4.8 LZW-Komprimierung - Algorithmus

weils die einzelnen Bytes von 0 bis 255, die Eintr¨age 256 bis 4.095 werden zur Laufzeit des Algorithmus gef¨ullt und sind f¨ur Zeichenketten vorgesehen, die aus zwei oder mehreren Zeichen bestehen. Neue Eintr¨age werden wie bereits beschrieben erzeugt, indem gefundene W¨orterbucheintr¨age mit einem neuen Zeichen des zu komprimierenden Texts kombiniert werden. Bei 4.096 Eintr¨agen im W¨orterbuch handelt es sich um ein 12-Bit Kodierungschema (212 =4.096). Um Platz zu sparen werden 1-Byte lange Einzelzeichen nicht als W¨orterbuchreferenz (mit 12 Bit L¨ange) kodiert. Ein spezielles Flag dient dazu, zwischen W¨orterbuchreferenz und Einzelzeichen zu unterscheiden. Abb. 4.9 und Abb. 4.10 beschreiben jeweils ein Beispiel zur Komprimierung und Dekomprimierung mit dem LZW-Algorithmus. Das gesamte W¨orterbuch einer LZW-komprimierten Datei kann bis zu 4096 Eintr¨age umfassen, die aus bis zu 4096 Byte langen Zeichenketten bestehen k¨onnen. Ein neuer W¨orterbucheintrag besteht stets aus einem Pr¨afix, der auf einen bereits im W¨orterbuch vorhandenen Eintrag verweist, und einem Suffix, der lediglich aus einem Zeichen besteht, mit dem der gefundene W¨orterbucheintrag erweitert wird. Der LZW-Algorithmus zur Datenkomprimierung wurde von den Firmen Unisys und IBM patentiert. Unisys fordert von allen Hardware-Entwicklern, die planen, das LZW-Verfahren in ihren Produkten einzusetzen die einmalige Zahlung einer Lizenzgeb¨uhr. Das LZW-Verfahren wird bei der Komprimierung von Grafikdaten in den ¨ Formaten GIF und TIFF eingesetzt. Tabelle 4.2 gibt einen kurzen Uberblick u¨ ber gebr¨auchliche Grafik-Datenformate und den Komprimierungsverfahren auf denen diese fußen.

4.4.3 GIF-Format Das Graphic Interchange Format (GIF) wurde 1987 von der US-amerikanischen Firma Compuserve Incorporated eingef¨uhrt und unterlag aufgrund des darin verwendeten LZW-Algorithmus bis 2003/2004 einem Copyright der Firma Unisys. Heute kann das GIF-Grafikformat frei genutzt werden. Seine weite Verbreitung erreichte dieses Grafikformat durch seinen Einsatz im Internet. Gl¨ucklicherweise gestattete Compuserve den Einsatz von Software, die dieses Grafikformat nutzte. Der

194

4 Multimediale Daten und ihre Kodierung

Beispiel f¨ ur eine LZW-Komprimierung: Der folgende Textstring soll mit Hilfe des LZW-Algorithmus komprimiert werden: ABRAKADABRAABRAKADABRA. Der Algorithmus startet mit einem W¨ orterbuch, in dem die ersten 256 Eintr¨ age aus den zugeh¨ origen 1-Byte langen Einzelzeichen (0016 – FF16 ) bestehen. Die folgende Tabelle verdeutlicht den Ablauf des LZW-Algorithmus. Die erste Spalte enth¨ alt die noch zu komprimierende Rest-Zeichenkette. Die Rest-Zeichenkette wird von links solange gelesen, bis die l¨ angste Zeichenkette gefunden wurde, f¨ ur die bereits ein W¨ orterbucheintrag existiert. Der gefundene W¨ orterbucheintrag ist in der zweiten Spalte dargestellt. Die dritte Spalte enth¨ alt die Ausgabe des LZW-Algorithmus, die bei der Kodierung des gefundenen W¨ orterbucheintrags entsteht. In der letzten Spalte befindet sich der neue W¨ orterbucheintrag, der entsteht, wenn das n¨ achste zu lesende Zeichen zum gefundenen W¨ orterbucheintrag hinzugef¨ ugt wird. Neue W¨ orterbucheintr¨ age bestehen aus der zu kodierenden Zeichenkette und ihrer Kodierung. Rest-Zeichenkette

gefundener Eintrag

ABRAKADABRAABRAKADABRA A BRAKADABRAABRAKADABRA B RAKADABRAABRAKADABRA R AKADABRAABRAKADABRA A KADABRAABRAKADABRA K ADABRAABRAKADABRA A DABRAABRAKADABRA D ABRAABRAKADABRA AB RAABRAKADABRA RA ABRAKADABRA ABR AKADABRA AK ADABRA AD ABRA ABRA

Ausgabe

neuer Eintrag

A AB B BR R RA A AK K KA A AD D DA ABR RAA ABRA AKA ADA

-

Nach der Komprimierung erhalten wir folgenden Code (Spalte Ausgabe von oben nach unten gelesen): ABRAKAD W¨ ahrend die urspr¨ ungliche Zeichenkette 172 Bit (22 Zeichen von jeweils 8 Bit L¨ ange) Speicherplatz ben¨ otigt, belegt die LZW-komprimierte Zeichenkette lediglich 156 Bit (13 Zeichen von jeweils 12 Bit L¨ ange).

Abb. 4.9 LZW-Komprimierung - Beispiel

Entwickler der Software musste lediglich die Urheberrechte am GIF-Datenformat f¨ormlich anerkennen. Man unterscheidet zwei GIF Datenformate: GIF87a und GIF89a, das eine verbesserte Version des a¨ lteren GIF87a darstellt. Jede GIF-Datei beginnt mit einem Header und einem sogenannten Logical Screen Descriptor, der Informationen u¨ ber die in der GIF-Datei gespeicherten Bilder enth¨alt. Danach folgt in der Regel die Ausgabe einer globalen Farbpalette, gefolgt von den in der GIF-Datei gespeicherten Bildern,

4.4 Grafik - Datenformate und Komprimierung

195

Beispiel f¨ ur eine LZW-Dekomprimierung: Bei der Dekodierung einer LZW-komprimierten Datei kann das W¨ orterbuch schrittweise rekonstruiert werden, da die Ausgabe des LZW-Algorithmus zu jeder Zeit immer nur W¨ orterbucheintr¨ age beinhaltet, die bereits im W¨ orterbuch vorhanden waren. Bei der Komprimierung beginnt jeder W¨ orterbucheintrag mit dem letzten Zeichen des zuvor hinzugef¨ ugten W¨ orterbucheintrags. Umgekehrt ist das letzte Zeichen eines neuen W¨ orterbucheintrags, der dem W¨ orterbuch bei der Dekomprimierung hinzugef¨ ugt werden muss, gleich dem ersten Zeichen, das bei der Dekodierung ausgegeben werden muss. Die folgende Tabelle verdeutlicht den Ablauf der LWZ-Dekomprimierung. Die erste Spalte enth¨ alt fortlaufend das jeweils zu dekodierende Codezeichen. Die zweite Spalte zeigt die Ausgabe der Dekomprimierung und die dritte Spalte enth¨ alt den aktuell hinzugef¨ ugten W¨ orterbucheintrag, bestehend aus Zeichenkette und zugeh¨ origem Code. erstes Zeichen Ausgabe neuer Eintrag A B R A K A D





A B AB

2,5 4,5 7,5 11,0 15,0 15,0

kHz kHz kHz kHz kHz kHz

Bitrate (kbps) Komprimierung

mono 8 mono 16 mono 32 stereo 56 . . . 64 stereo 96 stereo 112 . . . 128

kbps kbps kbps kbps kbps kbps

96:1 48:1 24:1 26 . . . 24:1 16:1 14 . . . 12:1

MP3 Audioqualit¨ at Die mit Hilfe der MP3-Komprimierung erzielte Audioqualit¨ at variiert in Abh¨ angigkeit der zur Komprimierung verwendeten Basisparameter und der Implementierung der verwendeten Encoder. Bei der verlustbehaftete MP3-Komprimierung kann es bei der Wahl ungeeigneter Basisparameter, wie z.B. zu niedrig gew¨ ahlte Bitrate, zu St¨ orungen und Verzerrungen in Form von Artefakten kommen, die sich allerdings von vorkommenden Verzerrungen unterscheiden, wie sie aus der analogen Welt, wie z.B. beim Rundfunk u ¨blich sind. Artefakte sind dezidierte Fehlersignale, die sich u andern und die nicht ¨ber die Zeit und Frequenz hinweg ¨ von der Harmonie des Audiosignals abh¨ angig sind. Man unterscheidet

• verzerrte Artefakte (aber keine harmonischen Verzerrungen), • verrauschte Artefakte (wobei das Rauschen nur einen bestimmten Frequenzbereich betrifft) und

4.5 Audio – Datenformate und Komprimierung

237

• st¨orende Artefakte (wobei die St¨orungen gegen¨uber dem Audiosignal sehr in den Vorder-

grund treten, da sich die Charakteristik der St¨ orsignale alle 24 Millisekunden ver¨ andern kann).

Ist ein Encoder nicht in der Lage, ein Audiosignal mit der ihm zur Verf¨ ugung stehenden Bitrate zu kodieren, kommt es zu einem Verlust an Bandbreite des Signals, da typischerweise hochfrequente Anteile des Signals nicht kodiert werden k¨ onnen. Im Gegensatz zu einer konstanten Bandbreitenbeschr¨ ankung f¨ allt die durch eine zu niedrige Bitrate verursachte Bandbreitenbeschr¨ ankung deutlicher auf, da sich ihr Spektrum nach jedem kodierten Datenblock (alle 24 Millisekunden) ¨ andern kann. Oft treten auch sogenannte Pre-Echos auf, d.h. es tritt bereits ein St¨ orsignal auf, bevor das Audiosignal, das die St¨ orung verursacht hat, wiedergegeben wird. Dies kann am Dekodierungsprozess veranschaulicht werden. Dabei wird als erstes der empfangene Bitstrom mit seinen einzelnen Frequenzb¨ andern dekodiert und diese einer inversen Quantisierung unterworfen, bevor dann die Frequenzb¨ ander in einer Synthese-Filterbank rekombiniert werden. Der Quantisierungsfehler, der vom Encoder verursacht wurde, kann als zus¨ atzliches Signal betrachtet werden, das zu den vorhandenen Frequenzb¨ andern hinzuaddiert wird. Die Zeitdauer des Quantisierungsfehlers entspricht der L¨ ange des Synthese-Zeitfensters. Daher wird der Fehler bei der Rekonstruktion des Signals u alt ¨ber das gesamte Zeitfenster verteilt. Enth¨ das Musiksignal im Zeitfenster einen pl¨ otzlichen Anstieg der Amplitude, wie z.B. bei einem Kastagnetten-Klappern, erh¨ oht sich ebenfalls die Signalst¨ arke des Quantisierungsfehlers (¨ ublicherweise sind dabei klirrend-metallisch klingende Artefakte h¨ orbar). F¨ allt ein derartiges Signal in des Analyse-Zeitfensters, wird sein Quantisierungsfehler u ¨ber das komplette Zeitfenster verteilt, so dass der Fehler in der Rekonstruktion bereits auftritt, bevor seine ¨ Ursache h¨ orbar wird. Ubertrifft die Zeitspanne des Pre-Echos die zeitliche Maskierung des menschlichen Geh¨ ors, ist das Pre-Echo zu h¨ oren. Eine M¨ oglichkeit der Vermeidung h¨ orbarer Pre-Echos liegt in der Verwendung variabler Bitraten bzw. einer lokalen Erh¨ ohung der Bitrate, um die Signalst¨ arke des Pre-Echos abzuschw¨ achen. Ein weiterer Effekt, der durch eine unzureichende Abstimmung zwischen zeitlicher Aufl¨ osung des Enkoders und der Zeitstruktur des Audiosignals verursacht wird, tritt am deutlichsten bei Sprachsignalen auf. Dieser als Double Speak bezeichnete Fehler wird vor allem bei der Wiedergabe u orer wahrgenommen und erscheint als eine zweite, die Originalstim¨ber Kopfh¨ me u ¨berlagernde Stimme. Bei der Erzeugung einer MP3-komprimierten Audiodatei muss stets ein angemessener Kompromiss zwischen der gewonnenen Kompressionsrate und der erw¨ unschten Audioqualit¨ at ge¨ funden werden. Ublicherweise wird eine bestimmte Bitrate vom Benutzer fest vorgegeben. Je niedriger die Bitrate, desto geringer die Audioqualit¨ at. Einige spezielle Audiodateien, wie z.B. St¨ ucke mit hohen und pl¨ otzlich auftretenden Dynamikschwankungen oder einem hohen Grad an zuf¨ alligen Ger¨ auschen, lassen sich nur sehr schwer komprimieren. Die erzielte Qualit¨ at h¨ angt aber auch vom jeweils verwendeten Encoder ab, da die MPEG Spezifikation eine relativ freie Auslegung bei der Implementierung des Standards zul¨ asst. L¨ asst sich das MP3-komprimierte Signal von einem durchschnittlichen H¨ orer nicht mehr vom Ausgangssignal unterscheiden, heißt die Komprimierung transparent. Eine ausreichende Transparenz ist bei MP3 u ¨blicherweise bei Bitraten zwischen 128 kbps und 192 kbps erreichbar. Weiterf¨ uhrende Literatur: Dietz, M., Popp, H., Brandenburg, K., Friedrich, R.: Audio compression for network transmission. Journal of the Audio Engineering Society 44(1-2), pp. 58-72 (1996) Painter, T., Spanias, A.: Perceptual coding of digital audio. Proc. of the IEEE 88(4), pp. 451-515 (2000) Thom, D., Purnhagen, H., Pfeiffer, S.: MPEG-Audio Subgroup: MPEG Audio FAQ, ISO/IEC JTC1/SC29/WG11 Coding of Moving Pictures and Audio (1999)

238

4 Multimediale Daten und ihre Kodierung

Tabelle 4.9 macht das Verh¨altnis der erzielten Dateigr¨oße bei unterschiedlichen, vorgegebenen Bitraten deutlich. Steigt die Bitrate, steigt auch die Qualit¨at der Audiodaten zusammen mit der jeweiligen Dateigr¨oße. Aus der Abbildung wird auch ersichtlich, wieviele Stunden MP3 kodierter Audiodaten eine 1 GB große Festplattenpartition f¨ullen, und wieviele Musikst¨ucke von jeweils 4-min¨utiger Dauer darauf Platz finden. Tabelle 4.9 Dateigr¨oße vs. Bitrate bei MP3 Kodierung Bitrate Dateigr¨ oße 1,411 kbps (CD-Audio) 80 128 160 192 256 320

kbps kbps kbps kbps kbps kbps

Kompression

Stunden/GB

St¨ ucke/GB

41,3 MB

keine

1,7

25

2,3 3,8 4,7 5,6 7,5 9,4

17,6:1 11:1 8,8:1 7,3:1 5,5:1 4,4:1

29,1 18,2 14,6 12,1 9,1 7,3

437 273 218 182 137 109

MB MB MB MB MB MB

Exkurs 11: MP3 – Dateiaufbau Eine MPEG-Datei besitzt keinen Datei-Header im eigentlichen Sinn, sondern sie besteht nur aus einer Aneinanderreihung von einzelnen Datenbl¨ ocken (Frames), die jeweils einen eigenen Header, sowie die gespeicherte Audio-Information enthalten. F¨ ur MPEG Layer 1 und Layer 2 sind diese Bl¨ ocke vollst¨ andig unabh¨ angige Einheiten, so dass eine MPEG-Datei an einer beliebigen Stelle auseinandergeschnitten und von dort an korrekt wiedergegeben werden kann, der Dekoder spielt die Datei vom ersten unversehrt aufgefundenen Datenblock an ab. Bei MP3 jedoch sind die einzelnen Datenbl¨ ocke nicht immer unabh¨ angig voneinander. Aufgrund der Verwendung des Byte-Reservoirs sind die einzelnen Bl¨ ocke oftmals gegenseitig voneinander abh¨ angig, wobei maximal 9 Datenbl¨ ocke ben¨ otigt werden, um einen Datenblock korrekt wiederzugeben. Um Information u ¨ber eine MP3-Datei zu erhalten, reicht es aus, einen Datenblock zu finden und dessen Header zu lesen, da man davon ausgehen kann, dass diese Information in unver¨ anderter Weise auch f¨ ur die anderen Datenbl¨ ocke gilt. Dies trifft zu, solange nicht mit variabler Bitrate (VBR) gearbeitet wird, da dort die Bitrate in jedem neuen Datenblock ver¨ andert werden kann. In Abb. 4.38 ist der Aufbau einer MP3-Datei schematisch dargestellt.

• Ein Datenblockheader ist 32 Bit lang und enth¨alt die folgenden Bestandteile: – Das Synchronisationswort nimmt die ersten 11 Bit des Datenblockheaders ein und besteht ausschließlich aus Bits, die auf den Wert ’1’ gesetzt werden, um den Anfang eines MP3 Datenblocks zu identifizieren. – Die MPEG Id besteht aus einer 2 Bit lang Folge, mit der die MPEG Version der vorliegenden Daten angegeben werden kann. Der Wert 3, d.h. die Bitfolge ’11’ bezeichnet MPEG Version 1. – Die nachfolgende, 2 Bit lange Sequenz identifiziert den entsprechenden MPEG Layer. Die Folge ’01’ bezeichnet Layer 3, ’10’ bezeichnet Layer 2 und ’11’ bezeichnet Layer 1.

4.5 Audio – Datenformate und Komprimierung

239

31

File Header

21

Sync 20

19 18

17

MPEG Id

16

Layer

CRC−Flag

15

12

Bitrate Index 11

10

Samplingrate

9

Padding

7

65

Channel Mode 3

4

Mode Extension

2

Copyright Flag

1

Original

15

optional

16−Bit CRC

Audio Daten

127

Id3−Tag

0

Emphasis

0

CRC

Data

8

Priv

0

Id3−Tag

Abb. 4.38 MPEG-1 Layer 3 - MP3 - Dateiformat

– Das folgende CRC-Flag gibt an, ob eine CRC-Pr¨ ufsumme verwendet wird (CRCFlag=’0’) oder nicht (CRC-Flag=’1’). – Die n¨ achsten 4 Bit kodieren die in den Datenbl¨ ocken verwendete Bitrate in Abh¨ angigkeit von der jeweils verwendeten MPEG Variante. F¨ ur MPEG 1 Layer 3 wird eine Bitrate von 128 kbps z.B. mit der Bitfolge ’1001’ kodiert. – Die Samplingrate wird mit Hilfe der n¨ achsten beiden Bits ebenfalls in Abh¨ angigkeit der jeweils verwendeten MPEG Variante kodiert. F¨ ur MPEG 1 bezeichnet die Bitfolge ’00’ z.B. eine Samplingrate von 44100 Hz. – Das n¨ achste Bit (Padding) gibt an, ob der Datenblock vollst¨ andig gef¨ ullt ist oder nicht. – Das Private Bit dient nur informativen Zwecken. – Die folgenden 2 Bit (Channel Mode) geben dar¨ uber Auskunft, wieviele Kan¨ ale auf welche Weise kodiert werden. Die Bitfolge ’00’ steht f¨ ur regul¨ ares Stereo, w¨ ahrend die Folge ’01’ die Variante Joint Stereo bezeichnet. – Die folgenden 2 Bit enthalten nur im Falle der Joint Stereo Kodierung der Audiosignale relevante Informationen. Werden beide Bits gesetzt (’11’), wird das Audiosignal mit den Verfahren Intensity-Stereo und Mid-Side-Stereo kodiert. – Das Copyright-Flag ist dazu gedacht, Copyright-gesch¨ utzte Audioinformationen zu kennzeichnen (’1’ = mit Copyright).

240

4 Multimediale Daten und ihre Kodierung

– Das Original-Flag dient der Kennzeichnung von originalen Audioinformationen (’1’) oder von Kopien (’0’). – Die letzten beiden Bits (Emphasis) werden nur selten genutzt und zeigen dem MP3Dekoder an, ob die folgenden Audiodaten mit einer Dolby-¨ ahnlichen Rauschunterdr¨ uckung aufgenommen wurden und ob deshalb eine m¨ ogliche Verzerrung des Audiosignals ausgeglichen werden muss.

• Optional kann jeder MP3-Datenblock auch eine 16 Bit lange CRC-Pr¨ufsumme enthalten, die - falls vorhanden - direkt dem Datenblockheader folgt.

• Schließlich folgen die eigentlichen kodierten Audiodaten, die vom MP3-Dekoder entsprechend den im Datenblockheader gemachten Angaben dekodiert werden.

• Das letzte Element in einer MP3-Datei ist das sogenannte ID3-Tag. Dieser Speicher-

bereich dient dazu, Metadaten zu dem in der MP3-Datei abgelegten Musikst¨ uck zu speichern, wie z.B. Interpret, Titel, Ver¨ offentlichungsdatum oder Genre. Das ID3-Tag ist 128 Byte lang (ID3v1) und befindet sich stets am Ende der MP3-Datei. Dieser Informationsabschnitt war urspr¨ unglich nicht in der MPEG-Spezifikation enthalten, sondern wurde nachtr¨ aglich eingef¨ ugt (siehe Abb. 4.39). 1996 erweiterte Eric Kemp in seinem

MP3 Audio Data TAG

Title (30 Bytes) Artist (30 Bytes) Album (30 Bytes) Year (4 Bytes) Comment (30 Bytes)

ID3v1

Genre (1 Byte)

Abb. 4.39 MP3 ID3v1-Tag mit Metadaten

Programm Studio 3“ MPEG-1 Audiodateien dahingehend, dass er am Ende einen klei” nen, 128 Byte langen Bereich anhing, der Informationen u ¨ber die vorliegende Audiodatei enthielt: Das ID3-Tag (Version 1.0, ID3v1.0). Innerhalb dieses Bereichs der stets mit der Zeichenfolge ’TAG’ startet, befinden sich vorgegebene Felder f¨ ur Titel, Interpret, Album, Jahr, Kommentar sowie ein Feld, in dem ein musikalisches Genre aus 80 vordefinierten Genres angegeben werden kann (Winamp erweiterte diese Genre-Liste auf 148 Eintr¨ age). Das ID3-Tag wurde bewusst am Ende der Datenbl¨ ocke platziert, um Kompatibilit¨ at mit alteren Dekodern zu gew¨ ahrleisten. Die starre Struktur des ID3-Tags ließ wenig Spiel¨ raum f¨ ur Erweiterungen, so dass nach der ersten nicht zufriedenstellenden Erg¨ anzung (Id3v1.1) eine weitaus flexiblere Neudefinition ID3v2 folgte. ID3v2 definierte 1998 ein eigenes Containerformat, das aus bis zu 84 einzelnen, unterschiedlichen Datenbl¨ ocken von jeweils maximal 16 MByte L¨ ange besteht. Die maximale

4.5 Audio – Datenformate und Komprimierung

241

L¨ ange eines ID3v2-Tags ist auf 256 MByte beschr¨ ankt. Um die M¨ oglichkeiten des MediaStreamings zu nutzen, steht das ID3v2-Tag am Beginn der MP3-Datei, damit es von Anfang an nutzbar ist. Darin enthalten sein k¨ onnen unter anderem: – – – –

zus¨ atzliche vorgegebene Eigenschaftsfelder, Unicode-Zeichens¨ atze, eigenst¨ andige Dateien, wie etwa Bilder, Liedertexte, die auch synchron zum Musikst¨ uck - also wie z.B. bei Karaoke - wiedergegeben werden k¨ onnen und – diverse Parameter f¨ ur die Wiedergabe des Musikst¨ ucks. Die im ID3v2-Tag enthaltene Zusatzinformation kann eigenst¨ andig komprimiert werden und erm¨ oglicht so eine effiziente Speicherung innerhalb des vorgegebenen MP3Datenformats.

Weiterf¨ uhrende Literatur: International Standard, ISO/IEC/JTC1/SC29 WG11: ISO/IEC 13818-3, Information technology – generic coding of moving pictures and associated audio information – Part 3: Audio. International Organization for Standardization, Geneva, Switzerland (1998)

4.5.4.1 MPEG-2 MPEG-2 stellt eine Erweiterung des MPEG-1 Standards dar, der eine Kompatibilit¨at zu MPEG 1 in beiden Richtungen gew¨ahrleistet, d.h. MPEG-1 und MPEG-2 Dekoder sind in der Lage, jeweils beide Datenformate zu interpretieren. Das MPEG-2 Audio-Komprimierungsverfahren ist als ISO/IEC 13818-3 standardisiert und umfasst zus¨atzlich zu MPEG-1 folgende Erweiterungen: • Bereitstellung zus¨atzlicher Abtastraten von 8 kHz, 11 kHz, 16 kHz, 22.5 kHz und 24 kHz. • 3 zus¨atzliche Audiokan¨ale, die einen 5-Kanal Surround-Sound erlauben (links, mitte, rechts und 2 Raumkan¨ale). • Unterst¨utzung eines eigenen Audiokanals f¨ur Niedrigfrequenz-Effekte (