Das ist Information 9783844055870, 3844055878

Der Begriff Information wurde 1940 von Norbert Wiener mit seiner Kybernetik eingeführt. Wesentlich für seine große Verbr

244 46 39MB

German Pages 382 [386] Year 2017

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Das ist Information
 9783844055870, 3844055878

  • Commentary
  • decrypted from 3F9EDC625EDEBF12B20EAB428F631CC2 source file
  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Horst Völz

Das ist Information

Horst Völz

Das ist Information

Shaker Verlag Aachen 2017

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Copyright Shaker Verlag 2017 Alle Rechte, auch das des auszugsweisen Nachdruckes, der auszugsweisen oder vollständigen Wiedergabe, der Speicherung in Datenverarbeitungsanlagen und der Übersetzung, vorbehalten. Printed in Germany.

ISBN 978-3-8440-5587-0 Shaker Verlag GmbH • Postfach 101818 • 52018 Aachen Telefon: 02407 / 95 96 - 0 • Telefax: 02407 / 95 96 - 9 Internet: www.shaker.de • E-Mail: [email protected]

Vorwort Den Begriff Information führte 1940 Norbert Wiener fast nebensächlich mit seiner Kybernetik ein [Wie48]. Dennoch wurde er in wenigen Jahren in fast allen Wissenschaften zu einem wichtigen Begriff. Dazu trug auch wesentlich die fundamentale Arbeit von Shannon bei [Sha48]. Das gilt sogar, obwohl er in ihr nicht einmal Information, sondern stattdessen ausschließlich Kommunikation benutzte. Außerdem ist diese Arbeit immer noch zentrale Grundlage für die Nachrichtenund Speichertechnik. Mit der Entwicklung der Mikroelektronik und Rechentechnik wurde Information dann so wichtig, dass sich daraus die viel benutzte Aussage unseres heutigen Informationszeitalters ableitet. Daher gibt es seit geraumer Zeit viele Veröffentlichungen und z. T. sogar sehr umfangreiche Bücher zur Information. Dabei ist es vielfach üblich, ohne irgendeine Erklärung individuell-intuitive Vorstellungen über Information zu benutzen. In einigen Fällen wird Information mit Wissen verglichen bis gleichgesetzt. Insgesamt ist mir aber kein Beitrag mit einer wissenschaftlich akzeptablen Definition für Information bekannt geworden. Daher leite ich hier aus einem sehr kurzen aber dennoch wohl grundlegend gemeinten Zitat von Wiener eine exakte Definition der Information ab. Sie unterstütze ich zunächst mit dem anschaulichen Beispiel für die Rezeption einer historisch bedeutsamen Schallplatte. Später leite ich aus unterschiedlichen Teileigenschaften der so definierten Information fünf Varianten (Aspekte) von Information ab. Neben ihren klaren Abgrenzungen belege ich sie mit konkreten, insbesondere technischen Anwendungen und inhaltlichen Beispielen. Der Inhalt des Buches besteht aus vier deutlich unterschiedlichen Teilen. Der Hauptteil mit den Kapiteln 1 bis 7 behandelt die inhaltlichen Aussagen zur Information mit ihren Begründungen. Er ist absichtlich recht ausführlich und soll einigermaßen vollständig und möglichst didaktisch, alle Teilaspekte der Information, einschließlich ihrer verschiedenen Anwendungen, mathematischen Zusammenhänge und Hintergründe erfassen. Dabei habe ich umfangreich von Bildern Gebrauch gemacht. Sie sollen die Zusammenhänge, Wechselwirkungen und geschichtliche Entwicklung möglichst anschaulich und einigermaßen vollständig aufzeigen. Zur schnellen Übersicht der verschiedenen Informationsaspekte, deren Definitionen und Eigenschaften ist das Kapitel 9 entstanden. Wer keine inhaltliche Begründung und Vertiefung benötigt, kann auch hiermit beginnen. Dabei wird zusätzlich begründet, wann der Begriff Information nicht benutzt werden sollte; denn bei einer zu breiten Anwendung besteht die Gefahr, dass der Begriff Information inhaltlich leer wird. Mit dem Kapitel 8 versuche ich zu zeigen, dass die Quantenphysik leider (noch) nicht zum Informationsbegriff kompatibel ist. Auch das QuBit bereitet Probleme. Daher bleibt abzuwarten, ob und wie sich das in der Zukunft, z. B. mit den Quanten-Computern ändern könnte. Schließlich gibt es noch das Kapitel 10 zum „richtigen“ Umgang mit Information. Im Gegensatz zu den anderen Kapiteln ist es zumindest teilweise etwas hypothetisch und von meinem Wunschdenken für die Zukunft beeinflusst. Die sehr breite Anwendung von Information macht es wohl unbedingt notwendig, über einen für die Menschheit vorteilhaften Gebrauch von Information nachzudenken und einiges neu zu regeln. Außerdem gibt es bereits heute vielfältigen Missbrauch, der von zu viel unnötiger Information über absichtliche Falschinformation bis hin zu in Geräten eingebauter Obsoleszens (frühzeitige automatische Selbstzerstörung) reicht. Auch Geheimhaltung, Urheberschutz und Privatsphäre sind kritisch zu betrachten. Viele meiner Aussagen sind dabei gewiss subjektiv oder betreffen Hoffnungen, die sich wohl kaum erfüllen werden lassen. Vor allem möchte ich hiermit ein intensives Nachdenken zu den Problemen bewirken. Als Maßeinheit für die Information hat Shannon das Bit und zu deren Berechnung die EntropieFormel eingeführt. Leider ist sie aber bisher inhaltlich kaum verständlich (einleuchtend) hergeleitet, definiert oder erklärt worden. Ursprünglich wurde der Begriff „Entropie“ von Clausius bezüglich ---- III ---

der Umwandlungsmöglichkeit von Wärmeenergie in mechanische Energie eingeführt und dann von Boltzmann statistisch abgeleitet. Diese thermodynamische Entropie unterscheidet sich jedoch inhaltlich völlig von der shannonschen. Dennoch werden – und das sogar von mehreren, z. T. auch durchaus soliden Fachexperten – seltsame bis total falsche Zusammenhänge behauptet. Deshalb sind im Abschnitt 5.4 die etwa zehn wichtigsten Entropien möglichst verständlich, aber exakt erklärt, abgeleitet und gegeneinander abgegrenzt. Zuweilen wird Information mit Wissen verglichen und nahezu äquivalent bei Medien und Nachrichten benutzt. Um daraus folgende Fehlinterpretationen künftig zu vermeiden, werden diese Begriffe im Abschnitt 6.9.5 möglichst exakt und gegeneinander abgegrenzt eingeführt. Ich habe mich bemüht, die vielen z. T. recht komplexen Inhalte möglichst leicht und gut verständlich darzulegen. Gleichzeitig habe ich aber auch die mathematisch-physikalischen Inhalte möglichst exakt behandelt. Das ist vor allem für die Fachexperten geschehen und kann daher zumindest teilweise mit geringem Verständnisverlust übersprungen werden. Leider wird bei technischen Anwendungen der Begriff „analog“ immer wieder falsch benutzt. Deshalb habe ich im Abschnitt 5.2 die damit zusammenhängenden Begriffe genauer erklärt bzw. definiert. Für die Digitalisierung war es auch noch notwendig, drei unterschiedliche Inhalte für „kontinuierlich“ einzuführen. Im Text erscheinen Personen weitgehend nur mit ihrem Nachnamen. Diese Vereinfachung ist möglich, da im Anhang ein Verzeichnis mit den vollständigen Namen und Lebensdaten vorhanden ist. Nur in Sonderfällen füge ich den Vornamen bzw. seinen ersten Buchstaben hinzu. Zur besseren Lesbarkeit habe ich bei Komposita oft zusätzliche Bindestriche eingefügt. So werden Fehldeutungen wie z. B. Blumento-Pferde und Blumentopf-Erde vermieden. Die Bilder sind wegen ihrer sehr großen Anzahl kapitelweise nummeriert. Nur beim Verweis auf das Bild eines anderen Kapitels wird daher zusätzlich das Kapitel hinzugefügt: Bild 4.3 ist dann das Bild 3 im 4. Kapitel. An der Humboldt-Universität zu Berlin, Bereich Medienwissenschaften hielt ich in den letzten Jahren einführende Vorlesungen zur Information und Speicherung einschließlich ihrer Theorien, sowie spezielle Fachvorträge. Hierbei hatte ich umfangreiche Unterstützung durch Prof. Dr. Ernst und Dr. Höltgen. Dabei entstand schließlich die vertiefte Idee einer umfassenden Informationstheorie, wie sie nun hier vorliegt. Daher gilt mein besonderer Dank beiden Herren. Schließlich möchte ich noch meiner Frau Ruth Roma-Völz und Herrn Stefan Pohle herzlich danken. Sie haben wieder gründlich Korrektur gelesen. Dennoch sind alle jetzt noch vorhandenen Mängel, insbesondere die inhaltlichen meine Schuld. Bei den Lesern bitte ich daher um Nachsicht und bin dankbar, wenn ich dazu Hinweise erhalte. Berlin, im September 2017 H. Völz

--- IV ---

Inhalt Vorwort................................................................................................................................................2 Inhalt.....................................................................................................................................................4 1. Die Information wird neu eingeführt...........................................................................................1 1.1 Beispiel Schallplatte...................................................................................................................2 2 Allgemeine Grundlagen..................................................................................................................4 2.1 Definitionen................................................................................................................................4 2.2 Zur Kybernetik...........................................................................................................................4 2.3 Stoff..........................................................................................................................................10 2.4 Energie.....................................................................................................................................11 2.5 Raum und Zeit..........................................................................................................................13 2.6 Was (keine) Information ist......................................................................................................17 3. W-Information..............................................................................................................................19 3.1 Emotion als Informat................................................................................................................23 3.2 Zum Informationsfeld..............................................................................................................25 4. Z-Information...............................................................................................................................27 4.1 Triadische Relation und Z-Information....................................................................................27 4.2 Kurze Geschichte der Semiotik................................................................................................28 4.3 Zeichen.....................................................................................................................................32 4.4 Begriff und Bedeutung.............................................................................................................37 4.5 Verdichten und Komprimieren.................................................................................................38 4.6 Klassifikation...........................................................................................................................39 4.7 Axiomatik.................................................................................................................................44 5. S-Information...............................................................................................................................46 5.1 Die bestmögliche Übertragung.................................................................................................46 5.1.1 Der Morsecode..................................................................................................................47 5.1.2 Vom Shannon zum Huffman-Code...................................................................................47 5.1.3 Lauflänge und Takt...........................................................................................................53 5.1.4 Die verschiedenen Wahrscheinlichkeiten.........................................................................54 5.2 Begriffe von kontinuierlich bis digital.....................................................................................56 5.2.1 Analog und Analogie........................................................................................................56 5.2.2 Kontinuierlich und stetig...................................................................................................57 5.2.3 Diskret, digital, quantisiert und Bit...................................................................................59 5.2.4 Zusammenhänge................................................................................................................60 5.3 Von kontinuierlich nach diskret (digital).................................................................................62 5.3.1 Zur Korrektheit diskreter und digitaler Werte...................................................................63 5.3.2 Digitalisierung...................................................................................................................64 5.3.3 Kontinuierliche Digitaltechnik..........................................................................................66 5.3.4 Kontinuierliche Entropie und Kanalkapazität...................................................................69 5.3.5 Logarithmische Amplitudenstufen....................................................................................72 5.3.6 Anwendung der kontinuierlichen Entropie.......................................................................74 5.3.7 Energie je Bit.....................................................................................................................76 5.3.8 Vor- und Nachteile von t-kontinuierlich sowie digital......................................................77 5.4 Weitere Entropien....................................................................................................................79 5.4.1 Clausius-Entropie..............................................................................................................79 5.4.2 Boltzmann-Entropie..........................................................................................................81 ---- V ---

5.4.3 Thermodynamische kontra Shannon-Entropie..................................................................83 5.4.4 Bidirektionale Entropie.....................................................................................................85 5.4.5 Bongard-Weiß-Entropie....................................................................................................86 5.5.6 Renyi-Entropie..................................................................................................................87 5.4.7 Deterministische Entropie.................................................................................................88 5.4.8 Kolmogoroff-Entropie.......................................................................................................89 5.4.9 Carnap-Entropie................................................................................................................89 5.4.10 Entropie-Axiomatik nach Feinstein................................................................................90 5.5 Fehlerbehandlung.....................................................................................................................91 5.5.1 Der Hamming-Abstand und seine Nutzung......................................................................92 5.5.2 Einfache Verfahren...........................................................................................................96 5.5.3 Die Polynommethode........................................................................................................96 5.5.4 Anwendungen rückgekoppelter Schieberegister...............................................................97 5.5.5 Matrix-Methode................................................................................................................99 5.5.6 Systematik und Grenzen..................................................................................................100 5.5.7 Spreizung.........................................................................................................................101 5.5.8 Faltungs-Codes................................................................................................................102 5.6 Komprimierungen..................................................................................................................104 5.6.1 Modelle für Hören und Sehen.........................................................................................106 5.6.2 Verlustbehaftete Schall-Komprimierungen.....................................................................112 5.6.3 ASCII- und MIDI-Code..................................................................................................113 5.6.4 Verlustbehaftete Bild- und Video-Komprimierungen.....................................................115 5.6.5 Fehlt ein Grafikcode?......................................................................................................118 5.6.6 Verlustfreie Komprimierungen.......................................................................................120 5.7 Anwendung außerhalb der Nachrichtentechnik.....................................................................124 5.7.1 Auffälligkeit und Goldener Schnitt.................................................................................124 5.7.2 Texteigenschaften............................................................................................................131 5.8 Leistungen von Shannon........................................................................................................136 6. P-Information.............................................................................................................................139 6.1 Grundlagen.............................................................................................................................143 6.1.1 Die Grenzzelle.................................................................................................................144 6.1.2 Vielfalt der Speicher........................................................................................................148 6.1.3 Kenndaten........................................................................................................................151 6.2 Elektronische Speicher...........................................................................................................155 6.2.1 Speicherschaltungen........................................................................................................158 6.2.2 Die dRAM.......................................................................................................................164 6.2.3 ROM- und PROM-Speicher............................................................................................166 6.3 Magnetische Speicher............................................................................................................170 6.3.1 Ursprung des Magnetismus.............................................................................................170 6.3.2 Von den Maßeinheiten zur Hysterese.............................................................................172 6.3.3 Magnetbandaufzeichnungen............................................................................................177 6.3.4 Rotierende Magnetspeicher.............................................................................................187 6.4 Speicherdaten und -grenzen...................................................................................................192 6.5 Eventuell zukünftige Speicher...............................................................................................197 6.5.1 Ferroelektrische RAM.....................................................................................................199 6.5.2 PCRAM und Ovonics......................................................................................................200 6.5.3 Magnetische RAM..........................................................................................................201 6.5.4 Weitere rRAMs...............................................................................................................203 6.6 Räumliche Bilder....................................................................................................................205 6.6.1 Holografie........................................................................................................................206 --- VI ---

6.6.2 Stereobilder.....................................................................................................................214 6.7 Vom Urknall bis zum Menschen............................................................................................220 6.7.1 Abgrenzung.....................................................................................................................220 6.7.2 Vom Kosmos zum Leben................................................................................................221 6.7.3 Genetik............................................................................................................................223 6.7.4 Aktive Eigenschaften von Zellen....................................................................................234 6.7.5 Die Neuronen..................................................................................................................237 6.8 Das menschliches Gedächtnis................................................................................................243 6.8.1 Quantitative Werte..........................................................................................................246 6.8.2 Gedächtnisarten...............................................................................................................251 6.8.3 Gedächtnis und Zeit........................................................................................................254 6.8.4 Gegenwartsgedächtnis und Musik..................................................................................256 6.8.5 Kreativität........................................................................................................................259 6.9 Gesellschaftliche Gedächtnisse..............................................................................................263 6.9.1 Vom Mem zum vereinten Gedächtnis.............................................................................263 6.9.2 Gedächtnisse der Vergangenheit.....................................................................................264 6.9.3 Utilitares Gedächtnis.......................................................................................................266 6.9.4 Die Informationsmenge aller Gedächtnisse....................................................................267 6.9.5 Wissen und Ähnliches.....................................................................................................269 6.10 Zusammenfassung................................................................................................................271 7. V-Information.............................................................................................................................273 7.1 Bezüge zur realen Welt..........................................................................................................273 7.1.1 Modelle............................................................................................................................276 7.2 Die elementaren Funktionen..................................................................................................278 7.3 Verschiedene Zahlenarten......................................................................................................280 7.4 Möglichkeiten und Grenzen der Mathematik.........................................................................283 7.4.1 Rekursion........................................................................................................................283 7.4.2 Turing-Automat und Churchsche These.........................................................................285 7.4.3 Zeitkomplexität...............................................................................................................287 7.4.4 Nichtberechenbares.........................................................................................................290 7.5 Rechentechnik........................................................................................................................291 7.5.1 Der Automat als Vorläufer..............................................................................................291 7.5.2 Virtuelle Realität.............................................................................................................295 7.5.3 Hard- und Software.........................................................................................................297 7.5.4. Software und K-Information..........................................................................................299 7.6. Fraktale..................................................................................................................................301 7.6.1 Das Apfelmännchen........................................................................................................306 7.6.2 Weitere fraktale Methoden..............................................................................................309 7.6.3 Die fraktalen Methoden...................................................................................................310 7.7 Künstliche Intelligenz............................................................................................................312 7.8 Ausgewählte Anwendungen...................................................................................................319 7.8.1 Spiele für künstliches Leben...........................................................................................319 7.8.2 Erzeugung kunstähnlicher Werke...................................................................................321 7.9. Zusammenfassung.................................................................................................................325 8. Quantentheorie...........................................................................................................................326 8.1 Schrödinger-Gleichung..........................................................................................................328 8.2 Dirac-Schreibweise................................................................................................................329 8.3 Veranschaulichung des QuBit................................................................................................330 8.4 Verschränkung und Nichtlokalität.........................................................................................331 8.5 Quantencomputer...................................................................................................................332 ---- VII ---

9. Überblick zu den Informationsarten........................................................................................333 10. Informationskultur...................................................................................................................338 10.1 Datenmenge und -rate..........................................................................................................339 10.2 Für Bildung und Kultur........................................................................................................341 10.3 Datensicherheit.....................................................................................................................342 10.4 Absichtliche Zerstörungen...................................................................................................345 10.5 Geheimhaltung.....................................................................................................................346 10.6 Informationsschwelle...........................................................................................................349 10.7 Rundfunk, Fernsehen, Streaming.........................................................................................352 10.8 Mensch und intelligente Roboter.........................................................................................353 11. Anhang......................................................................................................................................358 11.1 Literaturverzeichnis..............................................................................................................358 11.2 Begriffserklärungen..............................................................................................................365 11.3 Personenverzeichnis.............................................................................................................366 11.4 Sachwort...............................................................................................................................369

--- VIII ---

1. Die Information wird neu eingeführt Der Begriff „Information“ geht auf Griechisch typos, morphe, eidos und idea zurück. Daher bedeutet informare etwas eine Form geben. Später entspricht Information am besten der Bildung mittels Unterrichten, Belehren, Erklären usw., aber auch etwas Gestalten. Ins Deutsche kam das Wort ab dem 15. Jh. Lange Zeit hieß dann der Hauslehrer Informator. Jedoch in den Lexika des 19. Jh. fehlt der Begriff vollständig. Erst Wiener verwendet ihn innerhalb der von ihm begründeten Kybernetik. Aber auch Neumann und einige in diesem Umfeld arbeitende Wissenschaftler benutzen ihn zuweilen. Aber nirgends ist eine brauchbare Definition zu finden. Bestenfalls beziehen sich alle auf die zentrale Arbeit von Shannon [Sha48]. Doch in ihr kommt Information nirgends vor. Stattdessen benutzt er ausschließlich Kommunikation. Leider ist heute kaum noch Genaueres zur Begriffsbildung zu ergründen, denn alle Beteiligten waren im Krieg mit der Kryptographie befasst. Daher zur strengsten Geheimhaltung verpflichtet und sind bereits gestorben. Das am meisten geeignete und immer wieder benutzte Zitat ähnelt nur indirekt einer Definition und stammt von WIENER [Wie48] S. 192: „Das mechanische Gehirn scheidet nicht Gedanken aus »wie die Leber ausscheidet«, wie frühere Materialisten annahmen, noch liefert sie diese in Form von Energie aus, wie die Muskeln ihre Aktivität hervorbringen. Information ist Information, weder Stoff noch Energie (fett H.V.). Kein Materialismus, der dieses nicht berücksichtigt, kann den heutigen Tag überleben.“ Aus dem Kontext im Buch ergibt sich: Information ist neben Stoff und Energie ein dritter zentraler Begriff (Objekt) zur Weltbeschreibung. Während Stoff für die Chemie und Energie für die Physik wesentlich sind, ist Information typisch für die Kybernetik. Die Zusammenhänge weist Bild 1 schematisch aus. Der zweite Teil des Zitats ist eine genial vorausschauende Aussage für die neu entstehende Informationstechnik: Die Möglichkeiten aus Stoff und/oder Energie betreffen die objektiv gegebene reale Welt und nur wenig die Zukunft. Dafür sind Anwendungen der Information als ein Drittes besser geeignet. Ihr damals noch nicht Verstandes, Erklärbares gehören zur Kybernetik und sind kaum durch Stoff oder Energie bestimmt. Im fett Hervorgehobenen habe ich etwa 1990 das Wort Stoff benutzt [Völ91]. Im englischen Original steht dort „matter“. Im Deutschen entspricht es: Gegenstand, Material, Angelegenheit, Sache, von Bedeutung sein, Inhalt, Stoff, Substanz, Satz und Ding. Es wurde jedoch etwas unglücklich als Materie übersetzt, dabei ist zu beachten, dass im Deutschen Materie in etwa drei Varianten benutzt wird: x x x

Philosophie: Bereits bei Aristoteles als Urstoff; im dialektischen Materialismus in Bezug auf die die reale Welt (Stoff plus Energie) mit dem Gegenpol – als zweiter zentraler Begriff – ihrer Widerspiegelung im Bewusstsein. Physik: Z. B. als Materie im Kosmos, auch dunkle Materie usw. also annähernd Stoff (Abschnitt 2.3), auch Substanz und Material. Allgemein: Thematischer Bereich: sich mit neuer Materie befassen.

Im Kalten Krieg ergaben sich daraus beträchtliche politische Folgerungen: Neben der objektiv existierende Welt und dem Bewusstsein gibt es nun noch ein Drittes, die Information. Damit sei der dialektische Materialismus widerlegt. Das bewirkte zumindest im gesamten Ostblock erhebliche negative Einstellungen zur Kybernetik. Erstaunlich ist nur, dass nicht einmal Klaus, der sich sehr gründlich mit der Kybernetik auseinandersetze, diese falsche Interpretation erkannte [Kla63+].

Bild 1. Die sich z.T. überlappenden Modell-Begriffe Stoff, Energie und Information beschreiben Erscheinungen der Welt. Dabei gibt es allgemeine und mathematische Grenzen sowie Überschneidungen.

1.1 Beispiel Schallplatte Die im Bild 2 gezeigte Schallplatte trägt einen Mitschnitt von 1946 der V. Sinfonie op. 67, c-moll von Beethoven aus dem Admiralspalast (Berlin, Friedrichstraße). Sie wurde von dem Jahrhundertdirigenten Furtwängler dirigiert. Unter Kennern gilt sie als die authentische Aufnahme der V. Sinfonie. Hierzu gehören auch noch wichtige Hintergründe. Beethoven hat in ihr das „Klopfen“ des Schicksals verewigt. Während des 2. Weltkrieges war dieses Klopfzeichen das Pausenzeichen des Londoner Rundfunks für seine deutschen Sendungen, deren Abhören in Deutschland unter Todesstrafe stand. Der Buchstabe V wird oft auf Vergeltung und Victory (Sieg) bezogen. Mit dieser Wahl wollte Furtwängler das Wiedererwachen des demokratischen Lebens in Deutschland unterstützen. Furtwängler hatte es jedoch zum Nachteil gereicht, dass er bis 1944 in Deutschland verblieb. Dabei hoffte er immer, kulturell für die Deutschen wirken zu können. Er war kein Mitglied der NSDAP, sondern eher ein Gegner des Regimes. Durch persönlichen Einsatz rettete er u. a. reichlich zweihundert Juden das Leben. Nie hatte er zu Hitlers Geburtstag oder zu Parteitagen dirigiert. Dennoch wurde er im Nürnberger Prozess angeklagt und als Mitläufer eingestuft. Obwohl er bei den Nazis unbeliebt war, nutzten sie ihn als kulturelles Aushängeschild. Jedoch bereits am 21.10.1938 erschien die gelenkte Kritik zum „Wunderdirigenten“ Karajan, der zugleich in Deutschland und Österreich Mitglied der NSDAP war und 1942 Furtwängler ablöste. Dennoch erhielt Karajan, ganz im Gegensatz zu Furtwängler, nach Kriegsende kein Dirigierverbot. Furtwängler konnte aber erst unmittelbar nach seiner Entnazifizierung sein erstes Dirigat mit der genannten Sinfonie durchführen.

Bild 2. Hülle und Schallplatte der besonders authentischen Aufnahme des Dirigats Furtwänglers. ---- 2 ----

Doch wo befindet sich die einmalige Information in/auf der Schallplatte? Für das große Erlebnis muss man sie anhören! Doch nicht jeder kann es dabei erleben. Zunächst gilt: Die Speicherung von Information benötigt einen stofflich-energetischen Informationsträger (hier Rillenverbiegungen Bild 3). Sie müssen in wahrnehmbaren Schall (als weiteren Informationsträger) umgesetzt werden. Aber auch dann ist nur jemand mit hinreichender Musik-Erfahrung imstande, die „gewaltige“ Interpretation zu erleben. Dieses Beispiel soll vor allem als anschauliche Einführung dienen.

Bild 3. Die Rillenverbiegungen bieten die Möglichkeit, hörbaren Schall zu erzeugen. Für das große Erlebnis ist aber eine hinreihende Musik-Erfahrung notwendig.

---- 3 ----

2 Allgemeine Grundlagen 2.1 Definitionen Zu einer soliden wissenschaftlichen Abhandlung gehört eine möglichst exakte Definition der wichtigsten verwendeten Begriffe. Das sind hier die Begriffe des obigen Zitats, also matter (Stoff), Energie und Information. Bei der Information wird das jedoch erst – infolge ihres heute üblichen, recht allgemeinen Gebrauchs – im Kapitel 7 erfolgen. Außerdem muss zuvor einiges zur Kybernetik ausgeführt werden, denn im Gegensatz zu Physik und Chemie gibt es für sie kein allgemein übliches, präzises Wissen. Definieren wird in der Wissenschaftstheorie begründet. Sie geht auf das griechische finis, lateinische definitio Grenze, Bestimmung, sowie lateinische definire abgrenzen zurück. Mittels Definition wird einem Wort, Ausdruck, Begriff oder einer Klasse möglichst genau eine Bedeutung, ein Inhalt zugeordnet. Damit entspricht sie auch weitgehend einer Begriffsbestimmung. Es existieren etwa 30 Arten [Sei72], teilweise auch in [Völ01]. Hier genügen jedoch zwei. Die wichtige ist die schon Aristoteles bekannte Realdefinition. Ein typisches Beispiel dafür ist: Die Birke ist ein Baum mit weißer Rinde und Blättern. Sie besteht immer aus drei Teilen: x Definiendum, das was definiert werden soll (Die Birke). x Definienz sagt aus, was inhaltlich definiert wird (ein Baum mit ...) und benutzt Merkmale, Kennzeichen, Eigenschaften usw. x Identitäts-, Äquivalenzaussage. Sie stellt die Beziehung zwischen beiden her. Statt wie im Beidef , = oder :=“ üblich. spiel „ist“ sind auch „nennt man, hat, o Bei dieser Definition ist ein (allgemein bekannter) Überbegriff (nächsthöhere Gattung: hier Baum, den bereits jedes Kind kennt) notwendig. Er wird dann durch die spezifischen Eigenschaften (artbildender Unterschied) ergänzt; hier weiße Rinde und Blätter. Äquivalent könnte mit einer vorangehenden Definition gearbeitet werden, z. B.: Ein Laubbaum ist ein Baum mit Blättern Dann würde die Definition nur noch lauten: Die Birke ist ein Laubbaum mit weißer Rinde. Bei dieser stufenweisen Definition besteht die Gefahr des Regresses ohne Ende. Für jede Real-Definition sind immer zwei Voraussetzungen zu erfüllen: x Es muss ein Oberbegriff (bzw. eine Hierarchie von Begriffen) existieren. x Der gewählte Oberbegriff muss allgemein so gut bekannt sein, dass keine zusätzlichen Erklärungen notwendig sind. Dabei besteht eine gewisse Analogie zur Axiomatik (Abschnitt 4.7). Für abstrakte, allgemeine Begriffe, wie Sein, Welt, matter (Stoff, Material), Energie und Information ist eine Realdefinition wegen fehlender Oberbegriffe nicht möglich. Dann muss eine andere gewählt werden. Für die hier zu definierenden Begriffe ist die kombinatorische Definition weitgehend brauchbar. Sie zählt möglichst viele, wesentliche Eigenschaften auf, z. B. „Ein Haus hat Dach, Fenster, Türen, Räume, Treppen, ... „ Ihr Problem besteht in der Vollständigkeit der Aufzählung.

2.2 Zur Kybernetik Kybernetik ist teilweise schon durch den Buchtitel von [Wie48] als „Regelung und Nachrichtenübertragung in Lebewesen und in der Maschine“ definiert. Ferner sei auf Schmidt [Sch41] verwiesen. Fast alle vorangegangenen Wissenschaften betrafen spezielle Objektbereiche, wie Physik: ---- 4 ----

die Naturgesetze, Chemie: die Stoffumwandlungen; Mathematik: die Zahlen und Berechnungen; Medizin: den Menschen; Zoologie: die Tiere usw. Die Kybernetik sieht aber gerade hiervon ab und befasst sich mit dem, was allen gemeinsam ist. Beispielhaft und typisch zeigt das Bild 4. Es vergleicht den Abschuss eines Feindflugzeuges mit der Verfolgung eines Wanderers durch seinen Hund. Beide bewegen sich gemäß einer „Nachlaufregelung“ gemäß der jeweiligen aktuellen Sicht. Genau in diesem Sinne sieht die Kybernetik vom jeweiligen Substrat ab.

Bild 4. Prinzip der Nachlaufregelung bei einem feindlichen Flugzeug gemäß Wiener und der Verfolgung des Herrchens durch einen Hund. Formal hervorgehoben wird diese Besonderheit der Kybernetik mit Bild 5: Alle „üblichen, klassischen“ Wissenschaften behandeln einen ausgewählten Bereich der Welt. Für ihn beschreiben sie die Zusammenhänge, entwickeln Theorien, Maße usw. Die Kybernetik versucht dagegen etwas Gemeinsames zu finden und beschränkt sich dabei vor allem auf das Verhalten, d.h. Abläufe in der Zeit, z.T. im Zusammenhang von Ursache und Wirkung. Natürlich hat sie auch eigene Besonderheiten, die noch behandelt werden.

Bild 5. Versuch einer Abgrenzung zwischen den klassischen Wissenschaften und der Kybernetik. Für die Kybernetik ist das System eine wichtige Basis. Es wird aber oft ohne innere Struktur, also ohne konkreten Sachbezug benutzt. Hierfür hat Wiener den Begriff „black box“ eingeführt. Dann ---- 5 ----

ist fast nur noch der Zusammenhang zwischen seinem Input (Ursache) und Output (Wirkung) gemäß Bild 6a zu beachten.

Bild 6. a) Das typische kybernetische System als black box mit ausschließlich Input und Output. b) Vereinfachte Darstellung zur Rückkopplung. Das Schema tritt später ganz ähnlich bei den naturwissenschaftlichen Gesetzmäßigkeiten, auch in Bezug zur Quantenphysik im Kapitel 8 auf. c) Beispiel für eine mögliche innere Struktur der black box mit Betonung der Informationsflüsse und Teilsysteme bei zwei Rückkopplungen. Hieraus wird ersichtlich, dass zwischen mehreren kybernetischen Systemen immer Information fließt. Als eine vorläufige Definition gilt daher: Information fließt zwischen kybernetischen Systemen. Dabei ist die Rückkopplung besonders wichtig geworden (Bild 6b). Ihr Prinzip entstand bereits 1920 mit der Verstärkerröhre. Doch die Kybernetik untersuchte und nutzte sie erstmalig systematisch. Es wurden dabei völlig neue Varianten des Verhaltens gefunden und genutzt. Weiter ist die Regelungs-Steuerungstechnik wesentlich. Beide bewirken das Aufrechterhalten von gewünschten Zuständen gegenüber störenden Einflüssen. Das wohl älteste Beispiel ist der Fliehkraftregler gemäß Bild 7, den bereits 1784 Watt zur Konstanthaltung der Drehzahl bei Dampfmaschinen benutzte. Unter anderem bewirken die Regelung und Steuerung einen weitgehend stabilen Zustand gemäß Bild 8 auf unterschiedliche Weise. Die Steuerung benutzt Messwerte der wichtigsten Störungen, um danach die Heizung passend ein- und auszuschalten. Die Regelungstechnik reagiert dagegen immer erst dann, wenn eine Abweichung auftritt. Dadurch verbleibt grundsätzlich eine, wenn auch meist sehr kleine Regelabweichung bestehen. Sie kann mit einer zugeschalteten Steuerung deutlich weiter verringert oder gar vermieden werden. Bild 7. Prinzip des Fliehkraftreglers. ---- 6 ----

Bild 8. a) Bei der Regelung wird die Zimmertemperatur gemessen und gemäß den Abweichungen die Heizung geschaltet. Daher sind grundsätzlich meist jedoch sehr geringe Abweichungen vorhanden. Sie können jedoch durch Kombination mit der Steuerung weiter gesenkt bis unterdrückt werden. b) Bei einer Steuerung werden äußere Parameter zum Ein-/Ausschalten der Heizung so benutzt, dass die Zimmertemperatur den gewünschten Wert möglichst gut einhält. Weniger gebräuchlich ist die Stabilisierung beim Fließgleichgewicht gemäß Bild 9. In diesem Beispiel bestimmt ein Schwimmer die Sollhöhe des Wasserspiegels. Bild 9. Prinzip des Fließgleichgewichtes, das auch dynamisches Gleichgewicht genannt wird. Inhaltlich gehören Regelung und Verstärkung zusammen. Im Bild 10 wird das durch ein Vertauschen der Anschlüsse gut sichtbar. Beim Regler wird ein Stoff- oder Energiestrom durch die Steuergröße so beeinflusst, dass er am Ausgang einen nahezu konstanten Wert besitzt (a). Es ist aber auch möglich, mittels einer veränderbaren Steuergröße einen gewünschten zeitlichen Verlauf zu erzwingen. Dann folgt der Ausgangswert möglichst genau der Steuergröße. Wird dagegen die Steuergröße als Eingangssignal betrachtet, so ergibt sich der typische Verstärker (b). In beiden Fällen ist deutlich zwischen dem (notwendigen) Stoff-Energie-Strom und dem Informationsfluss zu unterscheiden.

Bild 10. Der Vergleich zwischen einem Regler(a) und dem Verstärker (b). Für Verstärker gibt es mehrere Varianten, die in ihren Wirkungsmechanismen deutlich voneinander abweichen: x Am ältesten sind Verstärker, die zwei oder mehr Kenngrößen gegeneinander ausgleichen. Typisch ist der Hebel: Mit ihm werden der Weg x oder die nutzbare Kraft p den Gegebenheiten ---- 7 ----

x x

angepasst, wobei x˜p bleibt. Hierzu gehören auch schiefe Ebene, Flaschenzug, Schraube, Zahnräder, Transformator, Hydraulik, usw. Mit dem Relais kamen dann vielleicht die ersten Verstärker im obigen Sinn auf, die Hilfsenergien nutzen. Dazu gehören Röhren und Transistoren. Nur sie entsprechen Bild 10b. Schließlich gibt es Verstärker, die innere Energien (Reserven) nutzen. Dazu gehören Katalysatoren, Enzyme, instabile Gleichgewichte usw. Eine wichtige Abart sind die als Auslöseprinzipien benannten Erscheinungen. Sie sind für die Kybernetik besonders wichtig, da dann die meist komplexen Zusammenhänge stark vereinfacht betrachtet werden können. Eine einfache Variante hiervon nutzt die Mimose (Bild 11). Ähnlich löst die Betätigung eines Hebels am Gewehr einen Schuss aus. In diese Kategorie gehören die meisten Katastrophen (Kapitel 3).

Bild 11. Bei kleinster Berührung fallen die Blätter einer Mimose scheinbar welk herunter. Im Laufe der Zeit entstanden mehrere Definitionen der Kybernetik. Recht gut ist die von Förster [Foe93] S. 72/73: "Regelung und Nachrichtenübertragung im Lebewesen und in der Maschine" kann als Definition von Kybernetik fungieren. Wenn auch das Wort Kybernetik vor ungefähr 150 Jahren von André Marie Ampére ... benutzt und dieses Konzept schon vor 1500 Jahren von Heron von Alexandria ... verwendet wurde, so war es der Mathematiker Wiener ..., der diesem Begriff schon im Jahre 1948 Namen und Bedeutung im modernen Kontext verlieh. Der Name „Kybernetik“ leitet sich vom griechischen Wort kybernetes für Steuermann her, woraus im Lateinischen gubernator und im Englischen governor zu Gouverneur, Statthalter, Regler, Chef, Direktor wurde. ... Müsste man ein zentrales Konzept, ein erstes Prinzip der Kybernetik nennen, so wäre es „Zirkularität". ... Heute kann vielleicht „Zirkularität“ durch „Rekursivität“ ersetzt werden.“ Andere heben die Regelungs-Steuerungstechnik, Systemtheorie oder Information hervor. Zusätzlich seien hier die wichtigsten Aspekte zusammengestellt. x x x x x x x

Hervorhebung gleicher Abläufe (Verhalten) in verschiedenen „klassischen“ Wissenschaften (Bild 4 und 5) Regelung und Steuerung, u. a. Konstanthaltung von Werten: Fließgleichgewicht, steady state, Homöostase. Bevorzugung des Funktions- gegenüber dem Strukturkonzept (Analogie-Schlüsse, Optimierung). Systemtheorie mit Betonung von black boxes, die nur Input und Output benutzt, aber keine innere Struktur berücksichtigt. Rückkopplung (feedback): Iteration, Rekursion, Verstärkung, Schwingungserzeugung. Auslöse-Effekt (Ursache-Wirkungs-Gefüge); kleine Ursachen erzeugen große Wirkungen (Kapitel 3). Betonung von Information als neues Modell neben Stoff und Energie.

---- 8 ----

Schließlich sei noch erwähnt, dass Förster eine Kybernetik 2. Ordnung eingeführt hat. Von ihr wird hier nur bei der ZInformation Gebrauch gemacht [För74]. Gemäß Bild 12 wird das Zusammenspiel bei allen Informationsprozessen stets durch einen Beobachter festgestellt. Förster fügt noch einen 2. Beobachter hinzu, der seinerseits den Beobachter kontrolliert. Bild 12. Kybernetik zweiter Ordnung nach Förster mit dem Beobachter des Beobachters. Eine methodische Abgrenzung der Kybernetik in Bezug zur Systematik von P. Oppenheim [Opp29] von 1926, ergänzt durch [Völ01], zeigt Bild 13. Im Vergleich zu den meisten Wissenschaften beansprucht die Kybernetik dabei eine relativ große Fläche. Bild 13. Ungefähre Lage der Kybernetik in dem Schema nach P. Oppenheim gemäß der Klassifikation nach synthetischem und analytischem Denken [Opp29], [Völ01].

---- 9 ----

Die wissenschaftliche Bewertung der Kybernetik verlief ungewöhnlich. Nach einer anfänglichen Euphorie setzte ab Mitte der 1970er Jahre ein deutlicher Verfall ein, der durch mehrere Ursachen bewirkt wurde. Jedoch seit den 1990er Jahren erlebt sie wieder einen geringen Aufschwung. Die lässt sich gut mit Google-Daten gemäß Bild 14 belegen und ist in [Völ04] angesprochen. Das zeitweilig geringe Interesse an der Kybernetik sind einmal die o.g. ideologischen Auswirkungen des falsch übersetzten „matter“. Es zeigte sich aber auch bald: das Gebiet ist für Lehrstühle viel zu komplex. So entstanden viele neue Teildisziplinen. Alphabetisch geordnet gilt etwa: Automaten, Automatisierung, Bionik, Chaos-Theorie, Dissipation, Emergenz, Fraktale Geometrie, Fuzzy-Logik, Informatik, Informationstechnik, Informationstheorie, Kodierung, Kommunikation, Konnektionismus, Kryptographie, Künstliche Intelligenz, Künstliches Leben, Mechatronik, Modellierung, Neuronale Netze, Nichtlineare Optik, Objekterkennung, Operationsforschung, Optimierung, Regelungs- und Steuerungstechnik, Roboter, Selbstorganisation, Selbstregulation, Simulation, Spieltheorie, Synergetik und Systemtheorie. Doch seit etwa 1990 beginnen erneut verstärkte Integrationsbemühungen.

Bild 14. Häufigkeit des Wortes Kybernetik im großen Datenbestand von Google.

2.3 Stoff Er ist ein wesentlicher Bestandteil der realen Welt und der zentrale Begriff der Chemie. Stoff ist praktisch immer körperlich vorhanden und daher meist durch unsere Sinne direkt wahrnehmbar. Er kommt in den Aggregatzuständen fest, flüssig und gasförmig vor. Jedes stoffliche Gebilde hat eine räumliche Größe, deren Größe spätestens bei den Elementarteilchen beginnt. Es folgen die chemischen Elemente, Moleküle, Kristalle usw. Deutlich größere Abmessungen besitzen Gebrauchsgegenstände, Gebäude usw. Schließlich sind Erdteile und kosmische Gebilde zu nennen. Weiter besitzt jeder Stoff mehrere Eigenschaften mit messbaren Ausprägungen wie Masse, Massedichte, Temperatur, Leitfähigkeit, Farbe, Form, Gestalt, Gewicht, Härte, Ausdehnung usw. Ohne Energie-Einwirkung (also im abgeschlossenen System) ist Stoff im Wesentlichen beständig. Zumindest gilt das Gesetz der Masse-Erhaltung. Beeinflusst und verändert wird Stoff (Material) durch Energie. Alle chemischen Prozesse gehen auf energetische Wechselwirkungen von Stoffen zurück. Dabei entstehen meist andere Stoffe. Diese Stoffänderungen können reversibel oder irreversibel erfolgen. Ein stabiler Zustand eines Stoffes kann als Speicherzustand für eine P-Information (Kapitel 6) genutzt werden. Zu Beginn der Welt (beim Urknall) war kein Soff, sondern nur Energie vorhanden (Bild 15). Der Stoff wird in der Evolution schrittweise gebildet: Quarks, Teilchen wie Elektronen, Neutronen, Positronen, Atome, Moleküle usw. Erst danach entstehen komplexe stoffliche Gebilde. Im Sinne der Kybernetik sind hierzu immer irreversible Verstärkereffekte mit Energieumsetzung erforderlich. ---- 10 ----

Bild 15. Stark vereinfachter und zum Teil hypothetischer Verlauf der Umwandlung von Energie in Stoff bei der Evolution der Welt sowie Hinweise auf das Entstehen der Informationsarten.

2.4 Energie Von griechisch enérgeia Tatkraft, Wirkung, Wirksamkeit und érgon Werk, Arbeit, Tat. Sie verfügt über die Fähigkeit etwas in der (stofflichen) Welt zu bewegen, zu verändern. Daher ist sie das wesentliche Prinzip der (dynamischen) Physik. Leider ist sie recht unanschaulich und oft nicht unmittelbar wahrzunehmen. Besonders dann, wenn sie nicht auf unsere Sinne einwirkt. Das veranlasste Hertz ein vollständiges Lehrbuch ohne Kraft (Energie) zu schreiben [Her94]. Dieser Ansatz bewährte sich jedoch nicht. Dennoch wurde leider die Energie im SI (System International) nicht als Basis-Einheit eingeführt! Energien treten in drei Varianten in Erscheinung: x Aktive Energie wirkt sich vor allem an stofflichen Gebilden aus, z. B. als Bewegung, Verformung, Änderung der Temperatur oder des Aggregatzustandes. x Gespeicherte (= potentielle) Energie ist an einen stofflichen Energieträger (System) gebunden, existiert z. B. in einer Batterie, im Speichersee oder in einer gespannten Feder. Von dort ist sie zu entnehmen und dann nutzbar. Sie ist auch die Grundlage der Informationsspeicherung (P-Information). x Mittelbare Energie existiert in Feldern: elektromagnetisch, Gravitation, kernphysikalisch, Schall usw. Sie ist nur durch speziell eintretende Wirkungen, u. a. mittels Messungen nachweisbar. Zwischen Energie und Stoff bestehen vielfach Möglichkeiten zur Umwandlung, die allerdings praktisch nie vollständig erfolgt. In der Evolution verlief sie und z.T. verläuft sie noch heute bevorzugt von der Energie zum Stoff (vgl. Bild 15). Sie kann besonders übersichtlich am Beispiel des Benzinmotors gezeigt werden (Bild 16). Die gewinnbare Energie ist im Stoff, dem Benzin gespeichert. Ein darauf abgestimmtes System ist der Motor. Er verbrennt das Benzin teilweise und erzeugt dabei Energie und als Abfall Abgase. Die Energie bewegt den Motor und bewirkt so schließlich die Fortbewegung des Autos.

---- 11 ----

Bild 16. Beispiel des Benzinmotors für die teilweise Umwandlung von Stoff in Energie. Bei der Welt-Evolution (Bild 15) gab es zunächst eine einzige Kraft, aus der sich schrittweise die einzelnen Kräfte abspalteten. Die experimentelle Physik musste dagegen von einzelnen Kräften ausgehen, die sich schrittweise zu den vier Grundkräften vereinigten (Tabelle und Bild 17). In der großen Vereinigung wird rückwirkend versucht, sie wieder zusammenzufassen. Experimentell wird dazu jedoch sehr hohe Energie benötigt Kraft, Wechselwirkung Gravitation elektromagnetische Kraft schwache entdeckt |1930 starke entdeckt |1970

Reichweite f

relative wirkt auf Austausch Ruhemasse Stärke -teilchen 10-39 jede Materie Gravitonen 0 geladene 1/137 Photonen 0 f Teilchen (Chemie) alles außer < 10-18 m 10-5 W- und Z- 1,5˜10-25 kg Photonen Bosonen (E-Zerfall) Hadronen, < 10-15 m 1 Gluon 1,5˜10-27 kg Quarks, Kernreaktion

Ruheenergie 0 0

100 GeV

1 GeV

Bild 17. Im Laufe der Geschichte wurden zunächst einzelne Kräfte bestimmt. Schrittweise wurden Zusammenhänge gefunden. So ergaben sich um 1900 die vier Grundkräfte. Experimente mit sehr großen Untersuchungsenergien versuchen die große Vereinigung rückwirkend zu finden. ---- 12 ----

Zu den Kräften gehören statische (Gleich-) und veränderliche (Wechsel-) Felder (Wellen). Sie gehen von Quellen (Teilchen) aus und breiten sich mit einer endlichen Geschwindigkeit aus. Erst wenn sie ein entsprechendes Ziel erreichen, tritt ihre (Fern-) Wirkung ein. Neben den genannten gibt es auch noch Schallfelder. Im Laufe der Geschichte wurden zunächst einzelne Kräfte bestimmt. Schrittweise wurden Zusammenhänge gefunden. So ergaben sich um 1900 die vier Grundkräfte. Experimente mit sehr großen Untersuchungsenergien versuchen die große Vereinigung zu finden. Verallgemeinert sind für das Erzeugen von Energie fast immer ein Energieträger und ein darauf angepasstes System erforderlich. Die Umwandlung zwischen Energie und Stoff geschieht fast nie vollständig. Die Grenze hierfür ist die Einsteingleichung E = m˜c2. Der bei der Umwandlung genutzte Teil wird Energieträger genannt. Schematisch fasst das Bild 18 zusammen.

Bild 18. Zur Umwandlung zwischen Energie und Stoff, sowohl was die Maßeinheiten gemäß SI (System International) betrifft (links), als auch für den damit zusammenhängenden Umwandlungsgrad, der durch den gemeinsamen Energieträger (gelb) gekennzeichnet ist (rechts) Vgl. mit Bild 1.

2.5 Raum und Zeit Alles was geschieht, erfolgt in Raum und Zeit. Daher sind seit jeher beide Begriffe grundlegend und fundamental. Deshalb ist es erstaunlich, dass beide in mehreren Sprachen – wie die Tabelle zeigt – eigenen Ursprung besitzen Sprache Griechisch Latein Englisch Französisch Italienisch Spanisch

Raum xoros spatium, spatii room, space, volume espace, place ambiente, camera, locale buque, cuarto, espacio, margen

Zeit kjeros, xroniko aetas, tempus, hora time, times, terms, age temps epoca, eta, ora, tempo dia, hora, temporada, tiempo

Ins Deutsche kam Raum im 8. Jh. als Adjektiv rum(e) geräumig. Im 11. Jh. war dann rum, run, roum der Raum, der Platz zu freier Bewegung, zum Aufenthalt. Zeit kam ebenfalls im 8. Jh. ins Deutsche als zit für Zeit, Zeit-/Lebensalter, Lebens-/Jahres-/Tageszeit und Stunde. Oft stand sie dabei im Zusammenhang mit Stunde (für Arbeit) und Gebet (Pause, Andacht). Sie wurde aber auch als tide für die Gezeit(en) von Ebbe und Flut benutzt. Die Erklärungen für Raum und Zeit verändern sich im Laufe der Geschichte gewaltig: Heraklit hält sie für eine gezählte Bewegung. Für Demokrit existieren beide objektiv-real. Der Raum ist dabei für die freie Bewegung der Körper notwendig und folglich unendlich und leer. Platon meint, das Reich ---- 13 ----

der Ideen ist zeit- und raumlos. Aristoteles behauptet: Der Raum ist das Gefäß für materielle Körper; ihre Ordnung bestimmt den Raum. Bei Galilei und Newton sind Raum und Zeit absolut, leer und nicht an Materie gebunden, erst ihre Wirkung auf Stoff macht sie „sichtbar“. Descartes und Huygens lehnen den absoluten Raum und die absolute Zeit ab, beide sind an Materie gebunden. Leibniz betrachtet beide ausschließlich bezüglich der Materie. Kant stellt dagegen fest, dass Raum und Zeit dem Menschen angeborene Formen der sinnlichen Anschauung sind. 1908 nennt Minkowski erstmalig den Begriff Raumzeit. Einstein gibt beiden mit seiner allgemeinen Relativitätstheorie eine mathematische Fassung. Danach bilden Raum, Zeit und Materie eine Einheit und bestimmen sich gegenseitig. Sie besitzen nichts Absolutes mehr. Jedes materielle System hat seine eigene Raum-Zeit-Struktur. Das Weltall ist unbegrenzt, aber endlich. In der Mathematik existieren verschiedene Räume: x Vektor-Raum.: Er ist linear, es gilt z. B.: f (x, y, z) = a˜x + b˜y + c˜z und zwar bzgl. der Elemente (Punkte) und Koordinaten (Richtungen). Als Operationen existieren Addition und Vielfachbildung mit Koeffizienten. x Metrische Raum.: Er fügt den Abstand A hinzu, verlangt Symmetrie, Nichtnegativität und Abstandsmaß. Für eine euklidische Geometrie gilt dann: n

A

¦ x

k

 ak . 2

k 1

x

Nichteuklidische Raum: Ein Beispiel ist der Riemann-Raum, der für den Kosmos gilt. Er ähnelt einem gekrümmten Raum Bei geringen Abmessungen stimmt er jedoch weitgehend mit dem euklidischen Raum überein. x Topologische Raum: Er kennzeichnet die Umgebung und deren Zusammenhänge, führt den Begriff der Figur ein, die für alle Dimensionen existiert. x Abstrakter Raum: Er besitzt mehr als 3 bis zu f vielen Dimensionen (Hilbert-Raum) und hat keinen Bezug zum anschaulichen Raum. Mit den Räumen sind unterschiedliche Geometrien verbunden (griechisch geo Erde, Land und geometres Land-, Feldmesser). Sie betreffen die Punkte, Geraden, Ebenen und Ordnungsrelationen. Es werden hauptsächlich euklidische, sphärische, analytische, darstellende, nichteuklidische und fraktale Geometrie unterschieden (s. Kapitel 7). Infolge unserer Wahrnehmungsmöglichkeiten erleben wir unsere Welt in drei Raumdimensionen und einer Zeitdimension. (lateinisch dimensio Aus- und Abmessung, Ausdehnung; entspricht der Anzahl der gültigen Variablen). Das es auch anders sein könnte, demonstriert Bild 19. Die Ameise auf der glatten Orange erlebt eine nur 2-dimensionale Fläche, während die Beobachterin sieht, dass es ein dreidimensionaler Raum ist. Daher könnte es fraglich sein, ob unsere Wahrnehmung mit der Realität übereinstimmt. Bild 19. Die Ameise erlebt nur 2 Raumdimensionen, die Beobachterin sieht, dass es drei sind. Die Diskussion um zulässige Dimensionen beginnt spätestens bei Aristoteles in „De caelo“ (Über den Himmel). Danach sind nur drei Richtungen möglich. Das hängt auch mit der pythagoreischen Lehre zusammen, in der die Zahl drei besonders vollkommen ist. Hierzu übte Galilei Kritik: Warum ---- 14 ----

soll drei vollkommener sein als vier oder zwei? Für Kant besteht ein Zusammenhang mit der Abnahme der Gravitation gemäß 1/r2. 1884 schrieb Edwin A. Abbott „Flatland“ (2D) und Charles Howard Hinton „A Plane World“ (4D). Neue Ansätze kamen u. a. von Poincaré, Carnap, Eddington. 1917 gewann Ehrenfest erste analytische Lösungen des Zwei-Körper-Problems für unterschiedliche Dimensionen. Ab 1980 entsteht die Superstring-Theorie, welche 10 bis 12 Dimensionen fordert, die zusätzlich im Pm-Bereich aufgerollt sein sollen. 1997 zeigt Max Tegmark, dass bei weniger als 3 Dimensionen keine Gravitation auftreten kann, aber dennoch stabile Bahnen – jedoch mit extrem geringer Komplexität – möglich sind. Betont anthropisch (griechisch anthropos Mensch und logos Vernunft, Denkvermögen) ist die Frage, bei welchen Raum-Zeit-Dimensionen intelligentes Leben in einem Universum möglich ist. Dabei sind u. a. die physikalische Stabilität und die notwendigen Kreuzungen z. B. bei den Nervenleitungen zu beachten. Für die Evolution ist auch ein Ursache-Wirkungs-Zusammenhang wichtig. 1955 zeigt Gerald Whitrow, dass für Leben ein 2D-Raum nicht genügt: Zwischen der Verbindungen der Nervenzellen würden Kurzschlüsse entstehen. Auf vielfältige Probleme (s. Bild 20) mit „vernünftigen Forderungen für die Informationsverarbeitung und ein funktionierendes Gedächtnis, also für die Existenz von Leben“ geht Barrow [Bar06] auf S. 209 ein: „Wenn wir wollen, dass die Zukunft durch die Vergangenheit bestimmt wird, müssen wir alle Felder auf dem Schachbrett entfernen, in denen „unvorhersagbar“ steht. Wenn wir wollen, dass stabile Atome und Planetenbahnen existieren, fallen alle Felder mit >instabil< weg. Scheiden wir dann noch Welten aus, in denen es nur Signale gibt, die sich schneller als das Licht ausbreiten, bleibt allein unsere Welt mit ihren 3+1 Raum- und Zeitdimensionen übrig. Darüber hinaus blieben noch einige allzu einfache Welten mit 2+1, 1+1 und 1+2 Dimensionen, von denen man annimmt, dass in ihnen kein Leben existieren kann. So gibt es beispielsweise in 2+1-Welten keine Schwerkraft, und es sind nur äußerst einfache Strukturen möglich, die jede Herausbildung von Komplexität ausschließen.“ Damit dürfte einzig die 3+1-Welt möglich sein. Für die hier zu behandelnde Information genügt dann praktisch immer ein metrischer R. mit euklidischer 3D-Geometrie. Im Raum können wir uns vielfältig bewegen, in der Zeit aber überhaupt nicht. Wir sind ihr ausgeliefert und erleben sie daher betont passiv, bis zur Langeweile. Die Vergangenheit existiert nicht mehr. Über sie wissen wir nur das, was gespeichert wurde (Kapitel 6: PInformation). Die Zukunft existiert noch nicht. Obwohl alle physikalischen Gesetze in Raum und Zeit voll symmetrisch sind, läuft zumindest die wahrgenommene Zeit einseitig gerichtet ab. Eine Ursache dafür ist, dass viele Geschehnisse irreversibel sind. Doch noch wichtiger ist die statistische Thermodynamik (vgl. Abschnitt 5.4). Bild 20. Schema zur Einteilung und der Eigenschaften von beliebig vielen Raum-Zeit-Dimensionen. ---- 15 ----

Heute werden meist diskrete Elementar-Zeit, -Länge und -Masse angenommen. Sie lassen sich aus Naturkonstanten ableiten Als erster realisierte das wahrscheinlich Eddington. Für sie hat sich vor allem Planck eingesetzt. Eine zweite Variante stammt von Bohr, Schrödinger und Dirac. Die gewählten Naturkonstanten und die dazu gehörenden Größe sind: Planck’sches Wirkungsquantum ........ h.........6,62607554 ˜ 10-34........ J˜s Lichtgeschwindigkeit (im Vakuum)... c0........2,99792457 ˜ 108 .......... m˜s-1 Gravitationskonstante......................... f..........6,6725985 ˜ 10-5 ........... N˜m2˜g-2 Ruhmasse des Elektrons..................... me.......9,10938975 ˜ 10-28........ g Größe Länge

Planck

Bohr, Schrödinger, Dirac

h ˜ f ˜ c 3 | 4,051˜10-35

m Zeit Masse

h ˜ f ˜ c 5 | 1,35˜10-43 s h˜c / f

| 5,46˜10-8 kg

h me ˜ c h me ˜ c 2

| 2,43˜10-12 m | 8,09˜10-21 s

me | 9,11˜10-31 kg

Infolge immer vorhandener Wärme bewegen sich Teilchen statistisch im Raum. Sie treffen teilweise aufeinander, tauschen dabei Bewegungsenergie aus und fliegen in veränderter Richtung weiter. In einem abgeschlossenen System streben sie dadurch zur Gleichverteilung und füllen möglichst gleichmäßig den gesamten zur Verfügung stehenden Raum. Gemäß Bild 21a) befinden sich zwei Teilchenarten in eigenen Räumen, die nur durch eine Wand getrennt sind. Wird die Wand entfernt, so füllen beide Arten relativ schnell gleichmäßig den gesamten Raum (b). Bild 21. Zwei Molekülsorten in einem Gefäß mit Trennwand. a) In jedem Teil nur eine Sorte. Nach dem Entfernen der Trennwand (b) verteilen sich beide Sorten gleichmäßig im gesamten Raum. Ohne Trennwand kann sehr selten und kurzfristig wieder mal der Zustand a) auftreten. Mit abnehmender Temperatur strebt jedes abgeschlossene System dem Wärmetod zu. Bei ihm existieren keine Temperaturunterschiede und damit auch keine Änderungen mehr. Es ist so, als ob es keine Zeit mehr gäbe. Das System hat dann sogar seine gesamte Vergangenheit vollständig vergessen. Diese Erscheinung untersuchte 1872 Boltzmann genauer. Dabei stellte er Widersprüche zu den üblichen physikalischen Gesetzen fest. Nach ihnen gilt generell, dass alle physikalischen Gesetze bei der Zeitumkehr t œ -t voll gültig bleiben. Deshalb schufen 1907 Tatiana und Paul Ehrenfest ein Gedankenexperiment. Es kann als Spiel durchgeführt werden, verlangt zwei Urnen, viele dazugehörende, nummerierte Kugeln und eine passende Spielregel. Es wurde damals rein mechanisch von fast allen Physikern erprobt. Später wurde es als Hund-Flöhe-Spiel bekannt. Die Kugeln sind dabei durch z. B. 100 nummerierte Flöhe zu ersetzen. Die Spielregel lautet: Mittels eines Zufallsgenerators wird eine Zahl zwischen 1 und 100 „erwürfelt“. Dann hat der so nummerierte Floh den Hund zu wechseln. Der Spielverlauf zeigt zwei deutlich unterschiedliche Tendenzen gemäß dem simulierten Spielverlauf von Bild 22:

---- 16 ----

1.

2.

Beim hinreichend langen zeitlichen Mittel befinden sich auf jedem Hund die Hälfte der Flöhe. Je größer die Zugzahl ist, desto geringer ist die maximal mögliche Abweichung von diesem Gleichgewicht. Beispiele für diese Tendenz sind rot gekennzeichnet. Es gibt aber immer wieder kleine Zeitabschnitte, die von der Gleichverteilung wegstreben (grün gekennzeichnet). Sie können als raum-zeitliche Oase aufgefasst werden, in denen eine Höher-Entwicklung, Evolution erfolgen kann. Dabei können stabile und wachsende Strukturen entstehen. Hier könnte im Bild 21 auch eine Rückkehr zum Zustand a) ohne Trennwand auftreten. Entscheidend ist jedoch, dass so erstmalig und prinzipiell eine Zeitrichtung erklärt werden kann.

Bild 22. Simulation des Hund-Flöhe-Spiels mit unterschiedlich vielen Spielzügen. Die Histogramme demonstrieren deutlich, die Entwicklung gemäß dem 1. Fall

2.6 Was (keine) Information ist Bei der Kybernetik (Abschnitt 2.2) und der Schallplatte (Bild 1.2 und 1.3) wurde gezeigt, dass Information zwischen kybernetischen Systemen auftritt. Dennoch steht eine Definition immer noch aus. Dagegen ist es relativ einfach zu formulieren, wann keine Information erforderlich ist. Nämlich genau dann, wenn Beschreibungen mit anderen Modellen/Theorien, wie Physik oder Chemie einigermaßen einfach und gut nachvollziehbar sind. Doch leider wird in der Literatur zuweilen auch dann völlig unnötig Information benutzt. Das kann schnell zu einer Leere des Begriffs führen. So ist es z. B. unsinnig bei einem Elektromotor davon zu reden, dass der Einschalter die Information für die Rotation des Motors gibt. Berechtigt wäre dagegen Information, wenn so eine hochkomplexe Anlage gesteuert wird. Sie würde dann quasi nur als black box in Erscheinung treten und die vielen notwendigen energetischen, chemischen, mechanischen und sonstigen Zwischenstufen müssten dann nicht weiter analysiert und beschrieben werden. Genau in diesem Sinn hängt Information auch ---- 17 ----

immer etwas mit Stoff und Energie zusammen. Zumindest betrifft es den Informationsträger (s. u.). In den folgenden Kapiteln 3 bis 7 werden einzelne, unterschiedliche, aber speziell gestaltete Varianten der Information behandelt. Dabei werden ihre jeweils typischen Besonderheiten hervorgehoben. Stark verkürzt werden sie dabei durch einen vorangestellten Buchstaben gekennzeichnet. Erst danach ist im Kapitel 9 eine umfassende Definition von Information möglich. Bereits hier sei aber betont, dass die Information im Gegensatz zur Kybernetik ständig an Bedeutung gewann. Das demonstriert deutlich Bild 23 (vgl. Bild 14).

Bild 23. Zum Auftreten von Kybernetik und Information nach Google. Der geringe Abfall zwischen 1970 und 2000 wird im Abschnitt 5.4 erklärt.

---- 18 ----

3. W-Information Die Information wurde mit der Kybernetik eingeführt. Daher ist es angebracht, sie zunächst von hier aus zu begründen. Wesentlich ist dann der Unterschied zu den Wissenschaften, die für einen jeweils festgelegten Objektbereich gelten. Für die Information wird so das Verhalten, die Funktion eines black-box-Systems entscheidend. So ensteht das Bild 1. Auf das Sytem wirkt als Ursache ein Input, der Informationsträger, und ruft eine Wirkung als Output hervor. Dabei können auch Veränderungen im System eintreten. Alle so verursachten Wirkungen werden zusammen – wie noch genauer begründet wird – Informat genannt. Wegen der betonten Wirkung und dem Begründer Wiener wird hier die Bezeichnung W-Information eingeführt. Der Ursache-Wirkungs-Zusammenhang steht dabei aber im deutlichen Widerspruch zum Newtonschen Axiom “actio gleich reaktio”. Denn in vielen kybernetischen Systemen gibt es nur sehr geringe oder sogar keine Rückwirkung auf die Usache, dem Informationsträger. Außerdem ist die Zeitumkehr der physikalischen Gesetze t1 l t2 und die in der Chemie übliche Stoff1 + Stoff2 l Stoff3 bei der W-Information nicht möglich. Bild 1. Ein kybernetisches System mit black box zur Beschreibung der W-Information. In der üblichen Literatur wurden Information und ihr Träger üblich. Dabei wurden fast immer zwei unmittelbar benachbarte Sätze benutzt: 1. Information besitzt einen Träger und 2. Information wechselt (oft und leicht) den Träger. Wie Bild 2 deutlich zeigt, sind beide Aussagen aber widersprüchlich. So habe ich zunächst Information1 und Information2 unterschieden, wählte 1980 für Information2 zunächst unglücklich das Getragene [Völ82], aber um 2000 richtiger Informat [Völ01]. In Bezug auf Bild 1 und dem Wirkmodell des Stoffes gemäß Bild 2.16 ergibt sich nun das Bild 3.

Bild 2. Zur Einführung des Begriffs Informat. ---- 19 ----

Bild 3. Zur Abgrenzung von Informat und Informationsträger auch im Vergleich zur Energie und dem Energieträger. Insgesamt gehört daher zur W-Information immer Dreierlei (Bild 1): 1. 2. 3.

Der stofflich energetische Informationsträger als Input. Das spezifische System, meist genügt für die weitere Betrachtung eine black box. Das Informat als ausgelöste Wirkung im System und/oder in seiner Umgebung.

Zur Definition des Informats muss aber noch, wie oben erwähnt, die vom Informationsträger ausgelöste Wirkung im „richtigen“ System und in dessen Umgebung zusammengefasst werden. Damit wird unmittelbar deutlich, dass hierbei die Eigenschaften des Systems wichtig sind. Das wurde bereits am Anfang im Kontext von Bild 1.2 und 1.3 bezüglich der Schallplatte hervorgehoben. Mehr schematisch ist es in Bild 4 gezeigt. Ein besonders typisches Beispiel zeigt Bild 5. In den meisten Fällen ist der Zusammenhang zwischen Informationsträger und Informat hoch komplex. Dann liegt ein für die Kybernetik typischer Auslöseeffekt vor. Vielfach wird er nur vereinfacht, und ohne Erklärung kurz beschrieben. Fast nie wird darauf eingegangen, woher die Ursache, der Informationsträger kommt. Er tritt (zufällig) einfach auf oder läuft ab. Nur ein Empfänger (System), also ein Mensch mit der „richtigen“ Musik-Erfahrung hört die Schallplatte als großes Erlebnis. Bild 4. (oben) Ein Informationsträger bewirkt bei unterschiedlichen Empfangssystemen auch unterschiedliche Informate. Bild 5 Das gleiche binäre Signal löst je nach Prozessortyp eine, keine oder eine andere Wirkung aus.

---- 20 ----

Die vielleicht älteste Behandlung eines Auslöseeffektes – allerdings noch unter anderem Namen – geht auf ein Preisausschreiben von 1887 des Königs Oskar II. von Schweden zurück. Es sollte die Frage beantwortet werden, warum unser Planetensystem stabil ist. Er schrieb dafür einen Preis von 2500 Goldkronen aus. Trotz seiner Negativaussage gewann ihn 1903 Poincaré. Er stellte fest: „Die kanonischen Gleichungen der Himmelsmechanik besitzen kein (außer bei speziellen Anfangsbedingungen) geschlossenes analytisches Lösungsintegral außer dem Energieintegral.“ ... „Eine sehr kleine Ursache, die wir nicht bemerken, bewirkt einen beachtlichen Effekt, den wir nicht übersehen können, und dann sagen wir, der Effekt sei zufällig. Wenn die Naturgesetze und der Zustand des Universums zum Anfangszeitpunkt exakt bekannt wären, könnten wir den Zustand dieses Universums zu einem späteren Moment exakt bestimmen. Aber selbst wenn es kein Geheimnis in den Naturgesetzen mehr gäbe, so könnten wir die Anfangsbedingungen doch nur annähernd bestimmen. Wenn uns dies ermöglichen würde, die spätere Situation in der gleichen Näherung vorherzusagen – dies ist alles, was wir verlangen –, so würden wir sagen, daß das Phänomen vorhergesagt worden ist und daß es Gesetzmäßigkeiten folgt. Aber es ist nicht immer so; es kann vorkommen, daß kleine Abweichungen in den Anfangsbedingungen schließlich große Unterschiede in den Phänomenen erzeugen. Ein kleiner Fehler zu Anfang wird später einen großen Fehler zur Folge haben. Vorhersagen werden unmöglich, und wir haben ein zufälliges Ereignis.“ Diese Aussagen gewann er bereits am Dreikörperproblem. Als Ursache für völlig unvorhersehbare Bahnen genügen kleinste Änderungen der Parameter. Infolge des 1. Weltkrieges ging dieses Wissen jedoch weitgehend verloren. Erst 1961 fand der Meteorologe Lorenz bei den Wettergleichungen ähnliche Effekte. Daraufhin stellte er fest, dass der heutige Flügelschlag eines Schmetterlings in China morgen in den USA einen Orkan bewirken kann. In relativ schneller Folge wurden dann immer mehr solche Auslöseeffekte bekannt. Daher entwickelte 1972 R. Thom die (mathematisch begründete) Katastrophentheorie. Relativ einfache Differentialgleichungen zeigen an einigen Stellen unvermittelt Verzweigungen. Kybernetisch wird dann auch von Instabilitäten und Multivariabilität gesprochen. Schematisch gilt hierfür Bild 6 für zunehmenden Abstand vom thermodynamischen Gleichgewicht als Folge von Energiezufuhr. Bild 6. Beispiel für Verzweigungen bei Energiezufuhr. Weitgehend stabile physikalische, chemische oder biologische Strukturen besitzen zum Teil dissipative Abschnitte mit beachtlichen Nichtlinearitäten und Nichtgleichgewichtsvorgängen. In der Folgezeit wurden immer mehr gefährliche Auslöseffekte bekannt; typische Beispiele sind: 1986: Tschernobyl: Ein Notfallknopf, der den Reaktor des Atomkraftwerkes eigentlich abschalten soll, bewirkt das Gegenteil: Der Reaktor überhitzt und es kommt zur Explosion. 2008: Formel-1-Panne: Ein Mechaniker drückt zu früh auf die Startampel beim Boxenstopp: Fahrer Felipe Massa zieht beim Losfahren einen Tankschlauch hinter sich her, das kostet ihm den Sieg.

---- 21 ----

2008: Nerpa-Unfall: Testfahrt des Atom-U-Boots "Nerpa". Ein Matrose spielt an den Temperaturreglern. Durch Knopfdruck aktiviert er die Feuerlöschanlage. Das austretende Gas erstickt 20 Menschen. 2011: Ein Erdbeben löst einen Tsunami (japanisch hohe Wellen im Hafen) aus und zerstört ein Kernkraftwerke in Japan. Vorwiegend funktionieren Auslöse-Effekte folgendermaßen: Das System kann Energie und teilweise auch Stoff so speichern, dass sie durch eine „Sperre“ festgehalten werden. Mittels eines passenden Informationsträgers wird die Sperre nur aufgehoben. Das lässt sich besonders anschaulich für die Katalyse mit Bild 7 erklären. Bild 7. Die chemische Reaktion der grünen mit den roten Teilchen führen zu den blauen. Für beide Teile gibt es typische Energiemulden, die durch einen „Berg“ getrennt sind. Ein hinzugefügter Katalysator senkt ihn ab und beschleunigt so die chemische Reaktion, bei der er eigentlich chemisch gar nicht mitwirkt. Ganz ähnlich wirkt auch die geringe Bewegung am Abzug eines Gewehrs, die den Schuss auslöst. Weitaus gefährlicher ist die entsprechende Auslösung eines Atomschlags. Etwas anders funktioniert der Einsturz einer Brücke. Wenn über sie eine Kolonne im Gleichschritt darüber marschiert. So kann sich eine Resonanz stark aufschaukeln. Verallgemeinert kann in allen Fällen auch von einem Verstärkerprinzip gesprochen werden. In den meisten Fällen ist dabei auch eine Rückkopplung mit Verstärkerwirkung erforderlich. Auslöseeffekte sind jedoch nicht immer schädlich. In der Evolution (in einer raumzeitlichen Oase nach Bild 2.22) können sie auch eine Entwicklung zu höherer Komplexität bewirken. Für eine Evolution zu Höherem sind sie sogar grundsätzlich erforderlich. Dabei können auch die o.g. Energiesperren aufgebaut werden. Dann liegt Emergenz (lateinisch emergentia das Hervorkommende) oder Synergetik (griechisch synergetikós zusammen, mitwirkend) vor. Typisch dafür ist zum Beispiel das Entstehen von Bérnard-Zellen (Bild 8): In einem Gefäß wird eine Flüssigkeitssäule von unten mit der Temperatur T1 erhitzt. Oben ist die Temperatur T2 < T1 deutlich geringer. Wenn dabei der unmittelbare Wärmetransport zwischen den Molekülen nicht mehr ausreicht, bilden sich die Bérnard-Zellen. Hierbei rotieren kleine Gebiete der Flüssigkeit abwechselnd links und rechts herum. Ihr Durchmesser liegt bei 10-3 m, ist damit deutlich größer als die Reichweite der intermolekularen Kräfte mit etwa l0-10 m. So besteht eine einzige Bénard-Zelle aus ca. 1021 Molekülen. Die Ursache für die komplexe Wechselwirkung ist kaum erklärbar. Das scheinbar unvermittelte Entstehen derartig komplexer Strukturen quasi aus dem Nichts wird seit geraumer Zeit Dissipation und/oder Emergenz genannt. Erst wenn der Temperaturunterschied noch weiter erhöht wird, entstehen schließlich die mehr auffälligen Dampfblasen.

Bild 8. Schema des Entstehens und der typischen Struktur von Bérnard-Zellen.

---- 22 ----

3.1 Emotion als Informat Lateinisch motio, movere, motum bewegen, erregen, erschüttern sowie emovere hinaus, wegschaffen, entfernen, erschüttern. Der Begriff wurde vor allem von Bleuler geprägt. Emotionen sind Grundphänomene des individuellen, subjektiven und zwar inneren und äußeren Erlebens. Sie betreffen einen komplexen Befindlichkeitszustand des Menschen. Weitgehend synonym dazu ist Gefühl. Im Gegensatz zu den Emotionen wird es aber meist positiv bewertet. Umgangssprachlich wird es häufig auch im Sinne von Empfindung, Empfinden, Feeling, Flair, Gespür, Instinkt, Spürsinn und salopp als „einen Riecher für etwas“ oder „eine Ahnung von etwas haben“ benutzt. Typische Varianten von Gefühl und Emotion sind Aggression, Angst, Antipathie, Ärger, Besorgnis, Freude, Liebe, Trauer, Wut und Zorn. Im Gegensatz zu einigen Auffassungen sind Emotionen keine Information, sondern nur deren subjektiv wahrnehmbare Auswirkung. Aus Sicht der Information wurden sie erstmalig in [Völ76] behandelt. Ihr Erleben entspricht dem wahrgenommenen Informat. Für das Schema der W-Information scheint also zunächst der auslösende Informationsträger zu fehlen. Er ist nämlich nur teilweise durch reine Sinneswahrnehmungen bestimmt. Fast immer ist zusätzlich eine hoch komplexe (geistige) Verarbeitung erforderlich. Dennoch sind Emotionen nicht absichtlich hervorzurufen. Weitgehend treten sie sogar gegen den eigenen Willen einfach ein. Teilweise sind sie bei anderen erkennbar z. B. über Mimik und Gestik. Messwerte sind durch Änderungen von Blutdruck, Pulsfrequenz, Pupillenweite, Atmung, Körpertemperatur, Hautwiderstand (Schweißausscheidungen) und mittels EEG zu gewinnen. Die vielen Versuche hierauf „Lügendetektoren“ aufzubauen sind jedoch weitgehend gescheitert. Emotionen haben vielfältige Ausprägungen. Die wichtigsten listet die Tabelle in jeweils gegensätzlichen Eigenschaften auf. In der Wirkung werden positive und negative Gefühle als Lust bzw. Unlust, als Hochgefühl oder Niedergeschlagenheit empfunden. Dem liegt eine Wertung des Ichs gegenüber Erlebnissen oder Erwartungen für subjektiv wichtige Bedürfnisse zugrunde. Unlust ist meist belastend und wirkt sich häufig gesundheitsschädlich aus. Das gilt besonders dann, wenn jemand seine Unlust (z. B. Wut) nicht abreagieren kann oder will. Positive Emotionen bewirken u. a. aktives Suchen nach unbefriedigten Bedürfnissen und tragen so auch zur Evolution des Verhaltens bei. Wenig verstanden ist, warum positive und negative Gefühle fast gleichartige Messwerte hervorrufen. Während des Erlebens erscheinen dem Betroffenen seine Emotionen immer adäquat. Für andere und später kann es durchaus anders sein. In [Völ76] wurde ein 3-Ebenen-Modell gemäß Bild 9 eingeführt. Erst um 2000 wurde es zusätzlich mit den Ebenen von Freud (Ich, Über-Ich und Es) sowie den verschiedenen Gedächtnissen (Abschnitt 6.8) verknüpft [Fre30], [Völ03]. Die Ebene 1 entspricht der objektiv zugänglichen Umwelt. Sie wird vorwiegend bewusst wahrgenommen und erkannt. In ihr werden Handlungen für Veränderungen vorgenommen. Zur Ebene 2 gehören die durch Emotionen geförderten oder gebremsten Handlungen. Mittelbar betrifft sie auch die von außen am Menschen beobachtbaren Erscheinungen der Emotionen, wie Tränen und Freude, Erröten und Erblassen sowie die Ausdrucksbewegungen (u. a. Minen, Gesten) und die genannten messbaren Größen. Sie berücksichtigt weitgehend das Vorbewusste. Die Ebene 3 enthält ein mögliches inneres Modell für das Entstehen und Wirken der Emotionen. Hierbei erfolgt bezüglich eines Zieles ein hochkomplexer Vergleich des Aufwandes in der Welt mit dem Aufwand beim inneren Weltmodell. Das so gewonnene Ergebnis erzeugt die aktuelle Emotion und fördert oder bremst so das Handeln. Diese Ebene ist bestenfalls durch Selbstbeobachtung oder Generalisierung zu ergründen. In ihr existiert und wirkt viel Unbewusstes.

---- 23 ----

Bild 9. Ein 3-Ebenen- Funktionsmodell für Emotionen verbunden mit den Freudschen Ebenen und den Stufen des Gedächtnisses. Bereits an diesem einfachen Modell lassen sich viele Ursachen für Emotionen erkennen: x Differenz zwischen subjektivem Ziel und objektiven Gegebenheiten. x Unterschied zwischen Forderungen aus der Umwelt/Gesellschaft und den eigenen, internen Zielvorstellungen. x Abweichungen vom Verhalten des inneren Modells gegenüber dem Umweltverhalten. Hier lassen sich z. B. gut die Freudschen Ansätze zum Witz und zur Tragik einordnen [Fre85]. x Zieldifferenzen beim gedanklichen Handeln und Denken, verstärkt beim Planen (Antizipieren), besonders positiv bei einer neuen Einsicht als Aha-Moment. x Bei der subjektiven Identifizierung mit einer handelnden Person sind zwei Fälle zu unterscheiden: a) Durch Identifizierung oder Hineindenken in Personen können wir „mitfühlen“. b) Durch Vergleich zwischen der handelnden Person und unserem wahrscheinlichen Handeln entsteht eine Bewertung der Person. x Zur Übertragung von Emotionen gibt es verschiedene Auffassungen. Es wird sogar gefragt, ob das überhaupt möglich ist. Bei der Kunst besitzt das eine hohe Brisanz: z. B. übermittelt oder erzeugt Musik Emotionen? Bezug Gegensätze, Extreme Richtung positiv: Lust, Behagen, Freude negativ: Unlust, Angst Intensität stark schwach Dauer anhaltend: Leidenschaft, Stimmung vergänglich: Affekt, Aggression Objekt gerichtet: moralisch, ästhetisch usw. neutral: Stimmung Werte höhere, geistige niedere, leibliche Relation adäquat, angemessen inadäquat Handeln aktiv: fördernd, hemmend passiv: Erleben ---- 24 ----

3.2 Zum Informationsfeld Ob Informationsfelder so real wie physikalische Felder (Abschnitt 2.4) sind, ist zumindest fraglich. In praktisch allen Beschreibungen gibt es für sie so gut wie keine Quellen, die sie hervorrufen und noch weniger Ausbreitungsgeschwindigkeiten. Sie werden nur als Wirkung so beschrieben, als ob sie irgendwie mit Information zusammenhängen. Eigentlich wären dann ein Informationsträger und ein System, auf das er einwirkt, notwendig. Trotz dieser Schwierigkeiten können Informationsfelder irgendwie der W-Information zugeordnet und sollen daher hier kurz behandelt werden. Die wahrscheinlich älteste Arbeit stammt 1963 vom Soziologen Lewin [Lew63]. In Anlehnung an die Kybernetik war ihm der betont strukturelle Aspekt der Soziologie zu statisch und zu eng. Für ihn stand das zu erreichende Ziel im Vordergrund. Dabei versuchte er zu zeigen, dass nicht immer der kürzeste Weg optimal ist. Längere Wege um Hindernisse herum können durchaus vorteilhafter sein (Bild 10). Bild 10. Ein scheinbarer Umweg kann die beste Lösung sein. Ein weitaus älterer Hinweis für derartige Zusammenhänge könnte ein Gleichnis von Schopenhauer sein: „Eine Gesellschaft Stachelschweine drängte sich an einem kalten Wintertag recht nahe zusammen, um, durch die gegenseitige Wärme, sich vor dem Erfrieren zu schützen. Jedoch bald empfanden sie die gegenseitigen Stacheln; welches sie dann wieder voneinander entfernte. Wann nun das Bedürfnis der Erwärmung sie wieder näher zusammenbrachte, wiederholte sich jenes zweite Übel, so daß sie zwischen beiden Leiden hin- und hergeworfen wurden, bis sie eine mäßige Entfernung voneinander herausgefunden hatten, in der sie es am besten aushalten konnten. So treibt das Bedürfnis der Gesellschaft, aus der Leere und Monotonie des eigenen Innern entsprungen, die Menschen zueinander; aber ihre vielen widerwärtigen Eigenschaften und unerträglichen Fehler stoßen sie wieder voneinander ab. Die mittlere Entfernung, die sie endlich herausfinden, und bei welcher ein Beisammensein bestehen kann, ist die Höflichkeit und feine Sitte. Dem, der sich nicht in dieser Entfernung hält, ruft man in England zu: keep your distance! - Vermöge derselben wird zwar das Bedürfnis gegenseitiger Erwärmung nur unvollkommen befriedigt, dafür aber der Stich der Stacheln nicht empfunden.“ Meist wird es Brecht, und dann sogar fälschlich für Igel, die das nie tun, zugeschrieben. Physikalisch stellt sich ähnlich ein Gleichgewicht für den Atomabstand bei Kristallen mittels Anziehung und Abstoßung ein. Experimentell wurden so optimale interpersonale Abstände zwischen Besuchern im Zoo beobachtet (Bild 11). Auswirkungen hierzu sind auf internationalem Stehbankett gut zu beobachten. Zwei Personen aus unterschiedlichen Kulturkreisen diskutieren und tanzen dabei quasi umeinander herum. Der eine will so den Abstand verkleinern, der andere vergrößern (keep your distance!). Ähnliche Erscheinungen treten beim Zu- und Abströmen von Menschen zu Bahnhöfen, Supermärkten, Sportplätzen usw. auf. Auch das Übergreifen von Stimmungen, Emotionen usw. auf andere kann so erklärt werden. Ähnlich könnten Charisma und Ausstrahlung von Personen und deren Wirkung auf andere – einschließlich Ablehnung und Widerwillen – aufgefasst werden. ---- 25 ----

Bild 11. Der interpersonale Abstand ist erheblich vom Kulturkreis abhängig.

Mehrfach versucht Fischer die biologisch individuelle Entwicklung durch ein Informationsfeld zu erfassen [Fis87]. Sheldrake behauptet teilweise ein Informationsfeld, geht aber mehrfach auf ein morphogenetisches (morphisches) Feld mit statistischer Erfahrungsspeicherung ein [She88]. Steinbuchs Behauptung „Information ist ein Kitt, der die Gesellschaft zusammenhält“ kann auf ein denkbares Informationsfeld hinweisen. Recht häufig nutzen mehrere Wissenschaftler einen ähnlich erweiterten Feldbegriff. Bereits 1974 stellen James Lovelock und Lynn Margulis die Gaia-Hypothese auf, nach der die gesamte Biosphäre mit der Atmosphäre ein einheitlich selbstregulierendes System sein soll. Bonitz fand bei Wissenschaftlern das Holographie- und Geschwindigkeits-Prinzip. Danach bemühen sie sich mit allen zugänglichen Mitteln, ihre neuen Erkenntnisse so schnell wie möglich und gleichzeitig überall hin auszubreiten [Bon87]. Gurwitsch weist auf ein biologisch miotisches Feld zur Initialzündung der Zellteilung hin [Bis95]. Auch der subjektive Zielabstand bei komplexen Spielen nach Klix ließe sich so deuten [Kli71]. Einen erweiterten Überblick zu diesen Aussagen gibt [Völ00]. Zusammengefasst gilt: In Präzisierung des Wiener-Zitats von Seite 1 und dem Bild 1.1 kann insgesamt gelten: Information ist kein Objekt (wie ein Apfel) und kein Fakt (wie E = mc2) sondern ein hoch komplexer Prozess mit drei zusammenwirkenden Komponenten: Ein stofflicher Informationsträger wirkt auf ein angepasstes, typisch kybernetisches System und realisiert dabei im System und dessen Umgebung das Informat. Dieser Zusammenhang ist bei der W-Information besonders deutlich ausgeprägt. Dabei ist der Informationsträger teilweise zeitabhängig und kann als Ursache für das Informat angesehen werden. Der Zusammenhang zwischen der Dreiheit (Informationsträger, System und Informat) ist hoch komplex und braucht nicht in den Einzelheiten (black box) behandelt zu werden. Wichtig ist dabei der allgemeine Verstärker, der auch als Regler auftreten kann. W-Information ist die älteste Informationsart, denn sie tritt bereits in der unbelebten, also rein physikalisch-chemischen Natur auf. Sie ist aktiv und handelt. Jedoch die übersichtlichen physikalischen und chemischen Prozesse sind meist deshalb keine Information, weil sie unmittelbar gut und vollständig behandelt werden können.

---- 26 ----

4. Z-Information Z ist hierbei von Zeichen (Z-Objekt, s. Abschnitt 4.3) abgeleitet und steht immer für etwas Anderes, dem Bezeichneten, Vorhandenem, Geschehendem bis hin zum Gedanken. Es wird hier allgemein B-Objekt genannt. Der Zusammenhang zwischen Z- und B-Objekt muss von einem Lebewesen mittels Wahrnehmung (und Bewusstsein) realisiert, nachvollzogen werden. Das ist dann eine erhebliche Erweiterung vom einfachen (mit dem Finger) Hinzeigen auf das B-Objekt. Besonders wirksam ist ein Zeichen jedoch dadurch, dass es erstmals so etwas wie eine „Kommunikation“ zwischen mehreren Lebewesen ermöglicht. Dazu gehört schließlich eine leistungsfähige Sprache. Selbst Vorformen der typisch menschlichen Sprache führen kaum zu einem Zeichengebrauch. So weist der Schwänzeltanz der Bienen nur auf die Richtung und Entfernung einer guten Nektarquelle hin. Bei den Primaten gibt es zwar eine leidlich entwickelte Gebärdensprache. Doch auch bei ihr werden kaum zusätzliche Zeichen benutzt. Viele weitere Beispiele lassen sich anführen. Dennoch dürften Zeichen nicht der Anlass für das Entstehen von Sprache gewesen sein. Die Kommunikation in Gruppen von Primaten erfolgt vor allem durch das Grooming. Diese gegenseitige Fellpflege bestimmt u. a. die Rangordnung und das gegenseitiges Kennen. Im Mittel verwenden die einzelnen Arten hierfür höchstens 20 % ihrer Zeit. Die andere Zeit benötigen sie für viele andere Aktivitäten, wie gegenseitige Kommunikation, Verhalten gegenüber anderen Arten und Nahrungssuche. So können sich maximal fünfzig Tiere ausreichend gut kennenlernen. Die typische Gruppengröße beträgt z. B. bei Pavianen 50 oder bei Nasenaffen 14. Jedoch je größer eine Gruppe ist, desto leistungsfähiger ist ihre Gesamtleistung. Für die Frühmenschen beträgt die nachgewiesene typische Klan- und frühe Dorfgröße etwa 150 Mitglieder. Für ihren Zusammenhalt würde Grooming nicht ausreichen, denn es würde 40 % aller verfügbaren Zeit verbrauchen. Mit einer akustischen Sprache ergaben sich jedoch völlig neue Möglichkeiten. Sie ermöglicht hohe Parallelität und vielfältige Nebentätigkeiten. Diese Aussage lässt sich gut mit dem Neokortexindex (=Volumenverhältnis vom Neokortex zum restlichen Gehirn) belegen. Er übertraf damals erstmals vier (Bild 1). So kann der Sprachbeginn vor reichlich 100 000 Jahren begonnen haben. Nur nebenbei sei hier bemerkt, dass auch heute noch die Sprache recht umfangreich zum gegenseitigen Kennenlernen (alla Grooming, small talk) benutzt wird. Weitere Details im Abschnitt 4.3 und [Völ03], S. 369 ff.

Bild 1. Zur möglichen Gruppengröße, bei der Menschwerdung und dem Entstehen der Sprache.

4.1 Triadische Relation und Z-Information Mit dem Entstehen der Sprache entstand eigentlich sofort die Semiotik (s. u.). Ihr Inhalt erhielt aber zunächst und über lange Zeit keinen Namen, keine Benennung. Ihre Dreierbeziehung kann gemäß Bild 2a dargestellt werden. Es gibt z. B. als B-Objekt den „Apfel“. Der Interpretant bzw. die Sprachgruppe wählten und benutzen statt seiner das gesprochene Wort Apfel oder sein Bild als Zeichen. Folglich besteht die triadische Relation aus dem B-Objekt, dem Interpretanten und dem Zeichen. In ein Modell der Information übertragen, ergibt sich dann Bild 2b. Das Wort Apfel wirkt ---- 27 ----

dabei als Informationsträger auf den Interpretanten, der dann System, black box ist. Hierbei erscheint in seinem Bewusstsein als Informat ein gedankliches Bild des Apfels. Dann ist in vielen Fällen keine Benutzung des eigentlichen B-Objekts Apfel mehr notwendig, kann aber dennoch zuweilen erfolgen. In jedem Fall kann sie jedoch ein externer Beobachter im Sinne der Kybernetik 2. Ordnung (Bild 2.12) nachvollziehen.

Bild 2. a) Das prinzipielle, triadische Dreieck der Semiotik und b) seine Übertragung in die Besonderheit der Z-Information. Verallgemeinert folgt für die Z-Information, dass die Zeichen immer stofflich-energetische Zeichenträger sind und deshalb hier Z-Objekte genannt werden. Sie müssen zumindest mit einem der vorhandenen Sinne wahrgenommen werden können und so ins Bewusstsein gelangen, um dort das Informat zu bewirken. Das ermöglicht eine riesige Vielfalt sprachlicher, bildlicher und sonstiger Zeichen (s. Bild 8). Sie können vom Interpretanten oder dessen Gruppe für irgendein, nahezu beliebiges B-Objekt, etwas real Existierendes bis hin zum Abstrakten und Gedachten festgelegt und benutzt werden. Damit ist die Z-Information nur eine abgewandelte Betrachtungsweise der Semiotik, die sich erst mit der Kybernetik und deren Information entwickelt hat und dabei neue Schwerpunkte setzt. Deshalb werden zunächst kurz die Geschichte der Semiotik und ihre wichtigsten Ergebnisse aufgezeigt.

4.2 Kurze Geschichte der Semiotik Von griechisch sema; semeion Zeichen, Lehre von den Zeichen. Bereits in der Antike analysieren u. a. Protagoras, Platon und Aristoteles hierzu vielfältige Details. Teilweise wurde dabei auch die Medizin einbezogen, nämlich die Krankheitsanzeichen. Bereits bei Platon besteht das dreiteilige Schema, allerdings mit der zusätzlichen Zweiteilung in Begriff und Idee. Die Idee weist dabei auf die Seele mit dem idealen Inhalt hin, der bereits vor der Geburt besteht (Bild 3). Als mögliche Komponenten unterschied er: x Dinge, die sprachunabhängig erkennbar sind und objektiv existieren, x Wörter, die als Namen und Zeichen zur Kennzeichnung von Dingen und als Werkzeug der Erkenntnis dienen, x Ideen als Urbilder, zeitlose Begriffe, die empirisch nicht zugänglich sind, und Sinnliches betreffen. Bedeutung kommt bei ihm nur mittelbar vor und hängt dann mit der idealen, konstanten Wahrheit, der Idee zusammen. Sie besteht aber unabhängig von ihr. Schriftliche Zeichen sind für ihn sekundär, da sie nur auf die mündlichen Zeichen, die Wörter verweisen. Aristoteles vereinfachte das ---- 28 ----

Schema zur später üblichen Dreiteilung. An der Stelle des Interpretanten benutzt er aber Vorstellung und Gedanke.

Bild 3. Die Entwicklung der Semiotik. Den Begriff Semiotik hat erstmals Locke 1689 verwendet (griechisch semeion Zeichen, Lehre von den Zeichen). Als Begründer (auch wenn er das Wort kaum verwendete) gilt Peirce [Pei31], kürzer in [Völ83], S. 217ff. Von ihm stammt auch die erste Theorie der Zeichen. Sie ist hierarchisch dreigliedrig (Bild 4). Dabei werden unterschieden: das Zeichen (Z) als materieller Informationsträger, das Objekt (O) auf das sich das Zeichen bezieht und der Interpretant (I), der die Beziehung zwischen Objekt und Zeichen herstellt. Für diese drei Begriffe unterscheidet er dann wiederum jeweils drei Gruppen.

Bild 4. a) Hierarchische Einteilung der Semiotik nach Peirce; b) als 3D-Bild geteilt nach den Richtungen: Zeichen (Z), Objekt (O) und Interpretant (I) [Völ83], S. 218. Bei den Zeichen (Systematik in Abschnitt 3.3) sind es: ---- 29 ----

x Quali-Zeichen, die eine Qualität oder Erscheinung betreffen x Sinn-Zeichen, die auf ein individuelles Objekt oder ein Ergebnis verweisen x Legi-Zeichen, die für einen generellen Typ oder ein Gesetz stehen. Bezüglich des Objektes werden unterschieden x Ikon: Zeichen und Objekt besitzen Gemeinsamkeiten, z. B. lautmalerisch Kuckuck, Uhu oder Gestalt S-Kurve, T-Träger usw. x Index: reale Beziehung zum Objekt, z. B. Rauch ein Zeichen für das verursachende Feuer. x Symbol: ohne Überreinstimmung, Ähnlichkeit oder realen Bezug zwischen Zeichen und Bedeutung. Der Verweis ist konventionell durch Gewohnheit festgelegt Für den Interpretenbezug gilt: x Rhema ist weder falsch noch richtig oder eine Möglichkeit. x Dicent ist eine Tatsache oder Behauptung. x Argument verweist auf ein Gesetz, eine Ursache usw. also auf etwas, was nicht beim Interpreten vorhanden ist. Für das Argument gibt es drei Hauptsysteme: x Kunst benutzt nur Möglichkeiten mit individuellen Interpretationen, aber ohne feststehende Bedeutungen. x Alltag: Hier wird angenommen, dass ein Anderer das Gemeinte versteht. x Wissenschaft verlangt Notwendigkeiten und fachspezifische Regeln; die verwendeten Begriffe müssen definiert, Aussagen belegt und Schlussfolgerungen bewiesen werden. Die Aussagen zur Wissenschaft gelten heute wohl nur für Naturwissenschaften, für Geisteswissenschaften gelten eher jene der Kunst. Naturwissenschaft und Technik gestatten außerdem Experimente zur Überprüfung. Lediglich die Soziologie ermöglicht per Statistik Ähnliches. Für Zeichen, Objekte und Interpreten kann ein 3D-Raum aufgespannt werden. Dann ergeben sich 27 Kombinationen, von denen aber nur 10 Zeichen sind. Sie sind aber nicht vollständig disjunkt. Das ist die gelbe Fläche in Bild 4b [Völ83], S. 218. Die Hierarchie von Peirce hat Bense ohne wesentlichen Erfolg noch um eine Ebene erweitert. Auf die Prozesse um die Zeichen konzentrierte sich Morris und schuf dabei die noch heute weitgehend gültige hierarchische Dreiteilung gemäß Bild 3 [Mor46]: x Syntax betrifft die Beziehung zwischen Zeichen (griechisch syntaxis Zusammenstellung, syntassein zusammensetzen, -stellen, anordnen, einrichten) und hat sich innerhalb der Semiotik für alle strukturellen Zeichenaspekte durchgesetzt. Benutzt wird sie heute u. a. in Medizin, Psychologie, Mathematik, Rechentechnik, Physik, Verhaltenswissenschaft, Dokumentation, Ökonomie, Betriebswirtschaft, Werbung, Kultur, Ästhetik, Kunst, Musik, Literatur, Computergraphik, Reine Mime, Oper, Film und Theater. Die alte Bezeichnung Syntaktik wird heute ausnahmsweise nur noch in der Sprachwissenschaft für den Satzbau benutzt. x Semantik betrifft die Bedeutung, den Sinn der Zeichen (Bedeutungslehre) und ist das Zentrum der Semiotik (griechisch sema Zeichen, tassein auf-, feststellen, -setzen, (ver-)ordnen, semantikos, semainein zum Zeichen gehörend, semasia Bezeichnen, Bezeichnung). Sie ist besonders umfangreich. Durch das Sprachverstehen hat sie Einfluss auf das Denken und Handeln. Wegen mangelnder Exaktheit gibt es viel Kritik. Seit geraumer Zeit wird die Semantik auch für nichtsprachliche Zeichen, wie Musik, Bilder, Filme, Skulpturen und Architektur, ja selbst bei Programmiersprachen untersucht. x Pragmatik (griechisch pragmatikos zweckmäßig, in Geschäften tüchtig, erfahren, geschickt, pragmatos durchgeführte Tat, das Handeln, Tätigkeit und pragmatike Kunst richtig zu handeln) betrifft Zeichen, die auslösbare Handlungen, erreichbare Wirkungen auslösen können. ---- 30 ----

Das Zeichen wird in ihr als stofflich-energetischer Informationsträger in der Zeit wirksam. So wird das Abbild (im Original die Widerspiegelung) für Objekte, der Zeichenträger betont. Ursprünglich betrifft sie die Beziehungen zwischen der Sprache und dessen Benutzer. Wichtiger ist jedoch die Auswirkung der Sprache auf das (soziale) Verhalten und Handeln geworden. Da dies aber nicht von den Aspekten der Syntax und Semantik hinreichend scharf zu trennen ist, werden die Grenzen unterschiedlich gezogen. In der Semiotik ist es oft üblich, die Reihenfolge Syntax, Semantik, Pragmatik zu benutzen. Das erweckt fälschlich den Eindruck (Bild 5), als ob mengentheoretisch der inhaltliche Umfang in dieser Reihenfolge zunimmt. Mit zunehmendem Wissen bei der Syntax sollte dann die Semantik besser verstanden, und wenn sie ausreichend geklärt ist, auch die Pragmatik klarer werden. Ein Beispiel ist das Vorwort von Weaver in [Sha48], das zudem Shannons Auffassung total widerspricht teilweise sogar plagiathaft ist. Die Strukturen bei den Zeichen werden meist Semiotik und die dazu gehörenden Prozesse Semiose genannt. So ergibt sich gemäß Morris Bild 5.

Bild 5. Zusammenhänge bei Semantik und Semiose in Bezug auf Syntax, Semantik und Pragmatik. Für den Sonderfall der sprachlichen Zeichen der menschlichen Kommunikation (Linguistik) schuf Saussure wesentliche Grundlagen [Sau67]. Dabei verwendete er ein zweigliedriges Modell aus Laut-/Schriftbild (Signifikant) und zugehörendem Inhalt, das Bezeichnete (Signifikat). Er schuf hierfür den Begriff Semeologie. Dem allgemein akzeptierten Semiotik-Modell fügte 1963 Klaus – damals leider politisch überbetont – als vierten Aspekt die Sigmatik hinzu (Bild 3). Weil auf der Syntax-Ebene nur eine Kodierung von Zeichen stattfindet, soll die Sigmatik eine reine Abbildung (Referenz im Sinne eines Etiketts) in Form von Daten sein, die dann ihre Bedeutung in der Semantik-Ebene erhalten, wo sie als Nachrichten bezeichnet werden [Kla63+]. Lange Zeit galten die semiotischen Modelle als abgeschlossen. Die Bedeutung und Auswirkung standen fest. Erst spätere Arbeiten, u. a. von Eco bezogen zeitliche Veränderungen mit ein und zeigten so, dass die Prozesse offen, unabgeschlossen sind [Eco76]. Ursprünglich wurde es dem Interpreten überlassen, denn Sinn der sprachlichen Zeichen zu deuten. dadurch ergaben sich Bezüge zur Hermeneutik. Heute gibt es viele Gebiete der Semiotik, u. a. Anthropo-, Sozio-, Zoo- und Endo---- 31 ----

Semiotik, bzgl. des Menschen, der Gesellschaft, aller Lebewesen und der Kybernetik. Ferner gibt es immer noch etwas unterschiedliche Ansätze.

4.3 Zeichen Indogermanisch dei hell glänzen, schimmern, scheinen, althochdeutsch zeihhan, Wunder, Wunderzeichen, ursprünglich liegt ihm die irdische Erscheinung einer höheren Macht zugrunde, verwandt mit zihan zeigen, ursprünglich anzeigen, kundtun. Wegen der fundamentalen Bedeutung des Zeichens, auch in Bezug auf die Z-Information, muss es möglichst exakt definiert werden. Es ist ein beliebig raum-zeitlich klar abgegrenzter, stofflich-energetischer Bereich der Realität. Deshalb wurde bereits oben der Begriff Z-Objekt eingeführt. Es wird unter den folgenden drei Bedingung zu einem Zeichen: x Das Z-Objekt muss sich eindeutig von der Umgebung unterscheiden lassen. x Zumindest muss es von einem Sinnesorgan möglichst gut (wieder-) erkannt werden. Dabei sind Verstärkungen, z. B. per Fernrohr, Lupe, Mikrofon usw. zulässig. So wird es zu einem Informationsträger, der so auch für technische Prozesse anwendbar ist (Bild 3b). x Vom Interpreten (als System) muss ihm das B-Objekt zugeordnet werden, es muss sich darauf beziehen, dahin verweisen. Damit kann das Bild 2 der Semiotik in das Bild 6 umgewandelt werden. Der Apfel ist dann das primäre B-Objekt und sein Bild sowie das Wort „Apfel“ je ein Z-Objekt (Zeichen). Z- und BObjekt besitzen viele gleiche Eigenschaften, können teilweise sogar identisch sein. Jedoch nicht alle B-Objekte sind stofflich-energetisch, existieren also nicht in der Realität. Für sie sind auch Gedanken, Begriffe usw. zugelassen, ja wichtig. Hieraus ergeben sich zwei Konsequenzen: 1. 2.

Die Menge der B-Objekte ist größer als die der Z-Objekte. Es sind inhaltlich übereinstimmende Z- und B-Objekte möglich, was zu Antinomien und Widersprüchen führen kann.

Bild 6. Zur Definition des Zeichens. Häufig befinden sich das Zeichen (Z-Objekt) und B-Objekt in der Realität (Welt). Nur abstrakte B-Objekte, z. B. Gedanken sind dort nicht vorhanden. ---- 32 ----

In der Semiotik gibt es keine vollständige systematische Einteilung der Zeichen. Die nach Peirce gemäß Bild 4 betrifft nicht alle wichtigen Aspekte. Für die Z-Information ist einigermaßen nur die Einteilung nach Resnikow geeignet (Bild 7), [Res68]. Dennoch fehlen hier zumindest bei den künstlichen Zeichen vor allem räumliche, bildhafte und zeitliche Zeichen. Für die Z-Information ist es daher zumindest notwendig, die Zeichen neu und deutlich anders einzuteilen.

Bild 7. Wenig befriedigende Zeicheneinteilung nach Resnikow [Res68]. Die neue Haupteinteilung beginnt mit vier Hauptklassen 1. Herkunft: natürlich, künstlich, 2. Auftreten: vorhanden, geschehend, 3. Wahrnehmung: beteiligte Sinne und Hilfsmittel, also direkt und mit Verstärkung sowie 4. Anwendungen, z. B. Kunst und Wissenschaft. Bei technischen Anwendungen in 3. entspricht der Wahrnehmung eine Zeichenerkennung. Insgesamt entsteht so Bild 8. Ein Vergleich mit Resnikow (lila unterlegt) zeigt wie viel auch hier unberücksichtigt blieb. Absichtlich wurde die Einteilung nach Morris nicht eingefügt (Bild 4). Sie betrifft ja nicht das Zeichen allein, sondern u. a. auch Bezüge zum B-Objekt. Sie sind aber fast nur für speziell bezeichnete Zeichenarten wie Symbol, Signal, Ikon usw. erforderlich. Mit ihnen wäre das Bild zu unübersichtlich geworden.

Bild 8. Versuch einer weitgehend vollständigen Einteilung der Zeichen, aber ohne Bezug zu den damit bezeichneten B-Objekten, z. B. Gedanken. ---- 33 ----

Das Entstehen der Sprache verlangte nicht nur einen deutlich erhöhten Neokortexindex (Bild 1), sondern zusätzlich anatomisch-physiologische und wortbildende Entwicklungen. Für das Sprechen betreffen sie Stimmbänder, Kehlkopf, Kopf- und Nasenhohlräume [Völ99], S. 73 ff., für das Wahrnehmen das Ohr [Völ99] S. 45ff. Die entstandene Wortbildung wird heute mit mehreren Begriffen beschrieben: Ein relativ kurzer von einem Menschen oder Tier erzeugter hörbarer Schall wird Laut genannt. In der Sprache werden viele Laute, insbesondere die Mit- und Selbstlaute unterschieden. Die kleinste phonetische (sprachliche) Einheit ist ein Sprachlaut bzw. Phon1. Ihre schriftliche Darstellung erfolgt durch die Lautschrift mit dem internationalen phonetischen Alphabet. Das Phonem (altgriechisch, phn Laut, Ton, Stimme, Sprache) fasst alle Laute einer Sprache mit gleicher Bedeutung zusammen. Ein Beispiel sind die unterschiedlich gerollten Aussprachen des „r“. Daher kann ein Phonem als die kleinste Einheit für eine Bedeutung gelten. Ihre schriftliche Fassung heißt Graphem. Beide zusammen heißen Distingem. Die Silbe (lateinisch syllaba Zusammenfassung) ist eine Einheit aus einem oder mehreren aufeinander folgenden Lauten (Phonemen), die sich zusammenhängend aussprechen lassen. Sie wird unabhängig von einer Bedeutung gebildet. Die Einteilung eines Wortes in Silben weicht daher häufig von der Einteilung in bedeutungstragende Einheiten (Morpheme) ab. In der Schrift ist die Silbe eine wichtige Grundlage für die Worttrennung. Für die Poesie und Lyrik (Verslehre) ist der Unterschied von betonten und unbetonten Silben wichtig. Im Gegensatz zu Laut und Silbe ist das Wort immer eine sprachliche Einheit mit eigenständiger Bedeutung und dürfte die älteste abstrahierende symbolische Form der Menschheit und auch das Grundelement der sprachlichen Kommunikation sein. Da es schwer zu definieren ist, benutzte Saussure ausschließlich Zeichen. Teilweise ist es sogar umstritten, ob Wörter eine brauchbare sprachwissenschaftliche Kategorie sind. Ob Bilder älter sind, ist ungeklärt. Meist wird die ZehnWortarten-Lehre mit den folgenden Bezeichnungen benutzt: Substantiv (Haupt- oder Dingwort), Adjektiv (Eigenschafts- oder Beiwort), Pronomen (Fürwort), Konjunktion (Bindewort), Artikel (Geschlechtswort, Begleiter),

Verb (Zeit- oder Tätigkeitswort), Adverb (Umstands- oder Nebenwort), Präposition (Verhältnis- oder Vorwort), Numerale (Zahlwort), Interjektion (Ausrufe- oder Empfindungswort).

Während Wörter oft ohne Pausen, also verbunden werden, sind sie in der Schrift durch Leer- und/ oder Satzzeichen begrenzt. Gesprochene Wörter bestehen aus Silben mit einem oder mehreren Phonemen (Lauten). Geschriebene Wörter bestehen aus Buchstaben, Schriftzeichen oder Symbolen. Sie können u. a.: x im Sinne der Semiotik Bezeichnungen für Z-Objekte sein, die auf B-Objekte hinweisen, sie vertreten, x innere Zustände und Gefühle eines Menschen, wie Angst, Freude usw. ausdrücken, x Floskeln für Höflichkeit, Ironie, Zweifel usw. sein. Der Plural Worte fast mehrere inhaltlich zusammen, wie in Dankes- oder Grußworte; bei Wörtern sind sie dagegen ohne inhaltlichen Gewinn, häufig mit Angabe der Anzahl einfach zusammengestellt. Leider wird diese Unterscheidung nicht konsequent eingehalten, z. B. Sprichwörter. Ein Satz besteht meist aus mehreren Wörtern, jedoch kann bereits ein einzelnes Wort inhaltlich einem Satz entsprechen. Nachdem die Sprache entstanden war, muss jeder Einzelne sie erst lernen und beherrschen, um sie zu nutzen. Erst dadurch erlangt er Sprachkompetenz für einen inhaltlichen Umgang mit der Sprache. Daher müssen Sprachfähigkeit und Sprachkompetenz unterschieden werden. So wurde auch für Gehörlose mit der Gebärdensprache sowie mit dem Schreiben und Lesen nachträglich eine weitgehende Sprachkompetenz möglich. Sprache ist das wesentliche Mittel des Menschen, seinem Bewusstsein Ausdruck zu geben. Es ist sogar eine wichtige Voraussetzung für den Spracherwerb. 1

Nicht verwechseln mit dem phon als akustische Maßeinheit der Lautheit.

---- 34 ----

Aber fehlende Sprachfähigkeit ist kein Hinweis auf fehlendes Bewusstsein. Andererseits ändert sich mit dem Erlernen einer neuen Sprache nicht das Bewusstsein. Mit der Sprache entsteht auch das vereinte Gedächtnis (Abschnitt 6.8). Seit geraumer Zeit wird der Sprachbegriff recht weit gefasst. Die vier wichtigsten Spracharten fasst dafür die folgende Tabelle zusammen: Art, Typ Natürliche Sprache

Grundelemente Regeln Beispiele Wörter Grammatik Literatur, Theater Formeln, Symbole, Noten, Mathematik, Averbale Sprachen Bilder Plastiken, Musik, recht verschieden Gesten, Gebärden, Mimik, Musik, Kunst Laute, Lachen, Weinen ProgrammierBefehle, Vereinbarungen, Syntax (Semantik) BASIC, C, Prolog, sprachen Sprünge, Entscheidungen LISP usw. Formale Sprachen Elemente Regeln Chomsky Für die Kommunikation entstehen die ersten „Zeichen“ (Z-Objekte) bereits in der Frühgeschichte der Menschheit. Eine vergleichende zeitliche Abfolge zeigt Bild 9. Es zeigt, dass die Entwicklung der Sprache im Vergleich zur Schrift und teilweise auch zu Bildern, 3D-Gebilden und Zahlen relativ lange dauerte. Für sie musste zunächst ein bewusstes, geistiges Verstehen des abbildenden Zusammenhangs zwischen Z- und B-Objekt entstehen. Bei Bildern, Plastiken usw. ist er fast immer unmittelbarer einsichtig.

Bild 9. Frühmenschliche Geschichte von Sprache, Schrift, Bildern und 3D-Gebilden. Es gib mehrere Bezeichnungen für speziell Zeichen: Das Symbol (griechisch, lateinisch symbolon Merkmal, Kenn-, Wahrzeichen, symbolikos sinnbildlich, figürlich und symballein zusammenfügen, -werfen und -legen) war ursprünglich das Anfangsstück, was zusammengelegt und das Gebrochene, das zusammengefügt werden muss. Es soll häufig Unanschauliches oder Abstraktes, mit den Sinnen nicht Wahrnehmbares, insbesondere Gedachtes oder Geglaubtes kennzeichnen. Beispiele der Religion sind: Teufel, Kreuz der Christen, und siebenarmiger Leuchter der Juden. Für Psychologie/Soziologie: Versöhnungskuss, Palmenzweig und I Ging; für Kultur: Köperbemalungen, Masken und Totem. Für Wissenschaft/Technik: Symbole, Ziffern, Buchstaben, chemische Zeichen und Schaltbilder. Weitere Beispiele sind die Sanduhr für Tod und Vergänglichkeit, das Haus für Geborgenheit sowie der Fuchs für Verschlagenheit. ---- 35 ----

Weitgehend synonym wird auch das Symptom (griechisch symptoma Zusammenfallen, Zufall, Begebenheit) benutzt. Nur teilweise ähnlich ist das Piktogramm als ganz einfache Zeichnung (z, B. auf Bahnhöfen, Flughäfen und bei Sportveranstaltungen). Es wird vor allem als Wegweiser benutzt. Ein Ikon benutzt Ähnlichkeiten mit dem B-Objekt, z. B. lautmalerisch: Kuckuck, Uhu, wiehern, wauwau und muh, zur Gestalt: S-Kurve, T-Träger usw. Ein Index entspricht weitgehend dem Anzeichen mit ursächlichem Zusammenhang, z. B. Rauch als Hinweis (Zeichen) für das verursachende Feuer. Ein Indiz wird dann verwendet, wenn keine Kommunikationsabsicht besteht. Signale besitzen einen zeitlichen Ablauf und haben meist einen technischen Bezug. Häufig werden Zeichen/Symbole zusammengefasst und ergeben dann Daten und Wörter. Noch weitere Zusammenfassungen führen zu Dateien, Texten, Nachrichten und Mitteilungen. Unter gewissen Bedingungen werden auch Ahnungen, Frisuren, Gebärden, Gesten, Kleidung, Körperbemalungen, -haltungen, Laute, Mahnmale, Markierungen, Mimik, Träume, Winke und Wohnungseinrichtungen als Zeichen für etwas interpretiert. Physikalische Größen (Messwerte) werden als Zusammensetzung aus Zahlenwert (Ausprägung) und Maßeinheit mit international festgelegten Einheitenzeichen angegeben (DIN 1301). Die riesige Fülle der verschiedenen Zeichen demonstriert die folgende alphabetische Aufzählung. Im rückläufigen Wörterbuch von Mater sind viel mehr aufgelistet [Mat00]. Fast nur das Schriftzeichen (Letter) ist daher kein B-Objekt, es verweist nicht auf Anderes: Ab-, Abfahrts-, Additions-, Akten-, Alarm-, An-, Anführungs-, Atom-, Auslassungs-, Ausruf-, Autokenn-, Besetzt-, Betonungs-, Binär-, Brand-, Dollar-, Ehren-, Einsatz-, Erkennungs-, Euro-, Feuer-, Firmen-, Formel-, Frage-, Frei-, Friedens-, Funk-, Gebots-, Geheim-, Geschäfts-, Gleichheits-, Güte-, Hand-, Hilfs-, Hoheits-, Integral-, Interpunktions-, Kains-, Kenn-, Klingel-, Klopf-, Korrektur-, Laut-, Lebens-, Lese-, Licht-, Mahn-, Marken-, Merk-, Minus-, Morse-, Namens-, numerische, Oktav-, Orientierungs-, Paragraph, Pause-, Plus-, Postwert-, Rauch-, religiöse, Ruf-, Satz-, Schalt-, Schrift- See-, Sonder-, spirituelle, Start-, Summen-, Super-, Teilungs-, Tierkreis-, Unglücks-, Verbots-, Verkehrs-, Vor-, Vorfahrts-, Wahr-, Waren-, Warn-, Wasser-, Wink-, Wort-, Wurzel-, Zahl- und Zeit-Zeichen. Wegen des einfacheren Zusammenhangs begann die Schriftentwicklung mit tokens (Bild 10) sowie Bildern auf Steinen. Erst als die Klangstrukturen der Sprache (Phoneme) klar erkannt waren, konnte die „alphabetische“ Schrift als gültige Sprachnachbildung entstehen. Einen stark verdichteten Ablauf hierzu zeigt auf der nächsten Seite Bild 11. Weitere Details und Literaturhinweise hierzu enthält [Völ05] S. 38 ff. Letztlich ist daher die akustische Sprache Ausgangspunkt für alle sprachlichen Zeichen. Viele weitere Zeichensysteme entwickelten sich erst später.

Bild 10. Beispiele für tokens: a) typische Formen, b) Zahlenwerte, c) komplexe tokens, d) Übergang zur Keilschrift. Viele ergänzende Details in [Völ05], S. 19ff. und für Schrift S. 76ff. ---- 36 ----

Bild 11. Stark verdichtete Schriftentwicklung u. a. bis zur lateinischen Schrift [Cry98].

4.4 Begriff und Bedeutung Die Bedeutung eines Zeichens (Z-Objektes) ist im Prinzip durch die Semantik festgelegt, indem es auf ein Anderes, auf das Bezeichnete, das B-Objekt verweist und zuweilen auch an seine Stelle tritt. Der Begriff ist dagegen eine der ältesten Kennzeichnungen und geht dabei auf sinnliches Be-greifen und Er-fassen zurück. Er betrifft aber im Gegensatz zur Bedeutung nur Wörter. „Einen Begriff von etwas haben“ bedeutet dessen Zweck, Wesen oder Bedeutung zu kennen und abzugrenzen. Daher ist er weitgehend semantisch. Eine Begriffsbestimmung macht mittels Entscheidungen die zugehörige Aussage möglichst eindeutig. Dabei wird entschieden, welche Objekte, Ereignisse, Eigenschaften usw. zum Begriff gehören bzw. welche ausgeschieden werden müssen. Dadurch entsteht eine Ähnlichkeit zur Definition (Abschnitt 2.1). Typisch für die Begriffsbestimmung sind Verallgemeinerungen, Klassifizierungen (Abschnitte 4.6 + 4.7), Clusterbildungen, Vergleichsoperationen, metrische Werte und logische Entscheidungen. Insgesamt ergibt sich hieraus Bild 12. Während auf der Zeichenebene die Gebiete für Bedeutung und Begriff deutlich gegeneinander abgegrenzt sind, überlappen sie sich auf Anwendungsebene weitgehend. Dadurch werden beide oft fälschlich fast synonym verwendet. Dann ergeben sich für beide leicht Ungenauigkeiten und zuweilen sogar Widersprüche. Einen erweiterten Vergleich zeigt die Tabelle. Weitere Details u. a. in [Völ83], S. 251 ff. Bedeutung x Für alle Zeichen verfügbar. x Zur Verständigung notwendig. x Das Zeichen wird sinnlich wahrgenommen und oft durch Einflüsse verändert. x Wird individuell unterschiedlich erlernt, jedoch im Zusammenhang und nicht einzeln. x Gehört der Sprachgeschichte an und kann daher in jeder Sprache anders sein. x Erfasst auch voluntative und emotionelle Komponenten.

Begriff x Nur für ausgewählte Wörter möglich x Zum Denken als Gedanken notwendig. x Der Präzisierung dienen Begriffsexplikation, Klassenbildung, Abstraktion usw. x Ähnelt der rein sprachlichen Definition. x Bleibt im Wesentlichen unveränderlich, es sei denn durch fortschreitende Erkenntnis. x Weitgehend unabhängig von der Sprache. x Sollte immer wissenschaftlich, exakt sein.

---- 37 ----

Bild 12. Zum Vergleich von Bedeutung und Begriff. Siehe auch Bild 2 und 6. Die große Vielfalt der Begriffe wird oft in drei größere Klassen eingeteilt: 1. Art- und Gattungsbegriffe, 2. Individual- und Allgemeinbegriffe und 3. konkrete und abstrakte Begriffe. Zwischen mehreren Begriffen bestehen (u. a. hierarchische) Zusammenhänge, z. B. über- und untergeordnet. Für den Vergleich von Begriffen und Wörtern gibt es spezielle Bezeichnungen. So sind Polynyme Wörter, die mehrere Bedeutungen besitzen; Homonyme haben wie mahlen und malen, Waagen und Wagen den gleichen Klang; Synonyme sind verschiedene Wörter gleichen oder ähnlichen Inhalts, wie Buch | Band | Foliant | Werk oder Haus | Bleibe | Unterkunft; Antonyme sind Wörter mit entgegengesetzter Bedeutung wie hoch - tief, schwer - leicht. Verschiedene Begriffe können gleiche Objekte enthalten, sonst sind sie unvereinbar. Mit der Fuzzy-Logik wurden auch unscharfe Begriffe eingeführt. Schließlich gibt es sinnlose Wörter, die keinen Begriff beinhalten. So verwendet Tucholsky in einer Satire „repunsieren“. Prinzipiell gibt es auch averbale Begriffe, die aber fast nur bildhaft und deshalb nur individuell verwendbar sind.

4.5 Verdichten und Komprimieren Die Realität enthält extrem viele B-Objekte, dabei sind mehrere nicht (einfach) zugänglich oder beschreibbar. Zum vollständigen Erfassen/Bezeichnen aller Objekte der Welt und auch noch unserer Gedanken, Ideen usw. wären daher ähnlich viele Zeichen erforderlich. Doch diesen gewaltigen Umfang kann unser Gedächtnis (Abschnitt 6.8) nicht einmal näherungsweise bewältigen. Das erzwingt Vereinfachungen, Verdichtungen und Komprimierungen. Hierfür entstanden viele Methoden und Verfahren. Auch so gelangten Teile der Semiotik als typische Informationsprozesse in die Informationstheorie. Ergänzend zu den folgenden primär sprachlichen Verfahren enthält Abschnitt 5.6 betont technische Varianten, insbesondere für Dateien. ---- 38 ----

Zur notwendigen Senkung der Komplexität muss immer einiges ausgewählt, weggelassen, getrennt, isolieret und/oder zusammengefasst werden. Besonders einfach leistet das der Plural z. B. Gemüse, Gesang, Musik, Obst und Schall. Er fasst mehrere möglichst ähnliche Objekte zu einer Einheit zusammen. Bei ihnen ist der Übergang zu einem Einzelstück schwierig. Vorteilhaft ist dann eine Aufzählung, etwa so: Obst besteht aus Birnen, Kirschen, Äpfeln usw. Ähnliches geschieht, wenn in einer Aussage der Artikel weggelassen wird. (Ein) „Haus“ ohne Artikel entspricht etwa der Klasse „Häuser“. Das Haus ist dagegen ein spezielles, genau ausgewähltes. Eine mögliche Variante heißt ein Haus. Ähnlich gilt: Ein oder der Mensch ärgert sich gegenüber „Mensch ärgere dich nicht“. Noch deutlicher ist: die Menschen sind so (= alle) gegenüber Menschen sind so (= es gibt einige). Die Reduktion2 (lateinisch reductio Zurückführung) senkt die Komplexität durch einfaches Weglassen von Unwesentlichem. Die Auswahl dafür ist allerdings schwierig und fast nur im Zusammenhang festzulegen. Das Verfahren wurde bereits im Mittelalter zielstrebig von Ockham (als Ockham’schen Rasiermesser) eingeführt. Durch sie wird das Unwesentliche quasi abgeschnitten. Daher ist es später nicht mehr verfügbar und auch nicht wieder hinzuzufügen. Daher besteht gewisse Ähnlichkeit zur verlustbehafteten technischen Komprimierung (Abschnitt 5.6.4). Bei der Abstraktion (lateinisch abstractus abgezogen) wird ebenfalls Unwesentliches weggelassen, jedoch zugleich Wesentliches hervorgehoben und Übergeordnetes gebildet. Beim Stuhl ist es z. B. unwesentlich, ob er vier oder drei Beine besitzt oder ob er aus Holz oder Metall besteht. Wesentlich ist dagegen, dass er zum Sitzen geeignet ist. Wird von einem Stück roten Papiers mit Text ausgegangen, so besitzt es Eigenschaften wie Farbe, Text, Dicke, Masse usw. Sie führen aber nicht zu der Abstraktion Fläche. Durch eine weitere Abstraktion kann auch die Linie erhalten werden. Jedoch gibt es Flächen und Linien in der Realität nicht. Dennoch sind beide Abstraktionen sehr nützlich. Gegenüber der Reduktion besteht bei ihnen der Vorteil, dass Weggelassenes nachträglich wieder hinzugefügt werden kann. Ähnliches ist möglich, wenn Zeichen auf die Zusammenfassung von Zeichen verweisen.

4.6 Klassifikation Lateinisch classis Klasse und facere machen. Der Begriff classis Volksklasse wurde bereits 550 v. Chr. von Tullies eingeführt. Er teilte die römischen Bürger je nach ihrem Besitz in sechs Klassen ein. Wesentlich vertieft wurde der Begriff von Marx. So wird er heute noch weitgehend verwendet. Im 18. Jh. entstand daneben im Französischen classification im Sinne einer allgemeingültigen Einteilung. Das führte schließlich zur Klassifizierung (Klassenbildung, Zusammenfassung) von B-Objekten usw. mittels Begriffen, die dann durch Wörter bezeichnet werden. Für eine Klasse werden sie mittels ausgewählter Eigenschaften über Ja/Nein-Entscheidungen zusammengefasst und als Begriff mit einem Wort benannt. Dabei entstehen die Klassengrenzen. Sie bewirken eine Ganzheit, entsprechend einem Cluster (englisch cluster anhäufen, Gruppe). So wird Wesentliches hervorgehoben und gleichzeitig Irrelevanz, Redundanz, Unwesentliches ausgeschieden. Ein typisches Beispiel ist die Erkennung einzelner Ziffern bei verschieden gekrümmten Strichlinien (Bild 13). Dabei entstehen Gebiete (Cluster) mit jeweils zugelassenen Abweichungen (Grenzen) bezüglich der eigentlichen „idealen“ Gestalten. Eine Klassifikation ist hauptsächlich durch die folgenden Eigenschaften gekennzeichnet: x x x

Eine Klassifikation besteht aus mehreren Klassen, die z. T. gleiche B-Objekte enthalten können. Eine Klasse (Kategorie) fasst dabei ausgewählte Objekte zu einem Ganzen zusammen, und wird mit einem Wort (Begriff) bezeichnet. Sie betrifft mehrere B-Objekte, die Dinge, Fakten, Geschehen, Begriffe, Inhalte, Gedanken usw. sein können.

2 Im Gegensatz hierzu betrifft die chemische Reduktion chemische Verbindungen. Dabei erfolgt der Entzug von Sauerstoff. In der Biologie wird auch die Rückbildung eines Organs so genannt.

---- 39 ----

x x x x

Für jede Klasse müssen (mehrere) genau definierte) Bedingungen, Merkmale oder Eigenschaften festgelegt werden. Dabei gibt es Toleranzbereiche, die auch Klassen- oder Entscheidungsgrenzen heißen. Diese Zusammenfassung wird auch Clustering genannt und führt zu Merkmalsräumen (-flächen) Die Güte einer Klassifikation wird durch einen Klassifikator meist mittels statischer Verfahren beurteilt.

Bild 13. Beispiel für eine Klassifikation von Strichlinien zu Ziffern. Das Prinzip der typischen Klassifikation zeigt (Bild 14). Primär erfolgt sie durch die Auswahl und Festlegung der die Klasse bestimmenden Eigenschaften. Das ist die entscheidende Grundlage. Weitere Schritte sind Merkmale auswählen und Klassengrenzen ziehen. Durch eine Klassifikation werden wichtige Eigenschaften hervorgehoben und andere, dann individuelle Eigenschaften, unwesentlich.

Bild 14. Schema der typischen topdown-Klassenbildung. Die Definition (Abschnitt 2.1) ähnelt der Klassifikation, erfolgt aber umgekehrt. Die Anzahl der ausgewählten Eigenschaften kann nachträglich eingeengt oder erweitert werden. Dabei entstehen durch Spezialisierung bzw. Reduzierung oder Verallgemeinerung bzw. Abstraktion veränderte Klassen, die so weniger oder mehr B-Objekte enthalten. So kann ein System von Klassen entstehen. Insbesondere können so auch abstrakte Begriffe, z. B. Gedanken gebildet werden. Häufig verwendete, spezielle Klassifikationen tragen oft eigene Namen wie Thesaurus, Ontologie, Verzeichnis, Systematik, Taxonomie oder Typologie. Zuweilen kann durch Klassifikation die Realität verfehlt werden. Dennoch kann sie nützlich (quasi wahr) sein. Deswegen ist der Sonderfall der unscharfen Fuzzi-Entscheidungen auf der Grundlage von Wahrscheinlichkeiten entstanden. Klassifizieren erfolgt häufig in Mathematik, Naturwissenschaft und Technik und kommt in allen Bereichen des Denkens vor. Neben dem dargestellten top-down für die Klassifizierung gibt es auch eine gemäß bottom-up. In der Philosophie, Psychologie, Ethnologie und anderen anthropologischen Wissenschaften wird für ---- 40 ----

sie häufig der Begriff „Kategorisierung“ benutzt. Er bezeichnet die elementare Fähigkeit, unterschiedliche B-Objekte (Gegenstände, Lebewesen, Vorgänge, Abstrakta) unmittelbar intuitiv zu sortieren und in entsprechende Sammelbegriffe (Kategorien) einzuordnen. So kann nahezu unmittelbar Wichtiges von Unwichtigem unterschieden werden. Derartige „mehr intuitiv“ gebildete Klassen können bereits einfachste Organismen bezüglich Außenweltreizen deutlich unterscheiden z. B. „gefährlich“ und „ungefährlich“ oder „essbar“ und „nicht essbar“. Kinder, die in der Nähe von Flugplätzen wohnen, fassen ähnlich Flugzeuge, Fliegen, Wespen usw. zu „Flieger“ zusammen. In der Technik kommt auch eine automatische Klassifizierung zum Einsatz. Typisch ist die automatische Schrifterkennung (OCR optical character recognition). Weniger gut gelingen die Erkennung von Sprache- und Musik (Noten). Die automatische Bild-Erkennnung kann fast nur bei Fingerabdrücken und Gesichtern Erfolge nachweisen. Bei vielen Anwendungen genügt es aber, einfach zwischen akzeptabel und mangelhaft oder bei der Computer-Tomografie zwischen „Tumor“ und „unbedenklich“ zu unterscheiden. Abstrakte Begriffe sind in einzelnen Kulturen unterschiedlich häufig, z. B: ist die deutsche Sprache besonders reich an Abstrakta, die chinesische ist dagegen betont konkret. Das Prinzip eines Systems von Klassen demonstriert am Beispiel der Blätter, Bäume, Pflanzen usw. Bild 15. Dabei ist die hierarchische Unterordnung zu den Blättern betont. Die Nebenordnungen sind nur durch Pfeile zu ausgewählten Begriffen angedeutet. Bei den Blättern und Bäumen sind jeweils individuelle Beispiele eingetragen. Insbesondere könnten bei den Blättern als individuelle Eigenschaften noch grün, braun, verwelkt usw. ergänzt werden.

Bild 15. Beispiel für ein System von Klassen. ---- 41 ----

Einzelne Klassen können sich teilweise überlappen, also z. T. gleiche Objekte enthalten. Ein Beispiel dafür zeigt Bild 16a; die Teilbilder b) und c) weisen dagegen aus, wie Klassen miteinander zusammenhängen.

Bild 16. a) Beispiel für die Überlappung bei Klassen, b) und c) zu den Beziehungen zwischen Klassen. Zur Bedeutung der Abkürzungen siehe unten. Eine Zusammenstellung der wichtigsten Begriffe von Verwandtschaften zeigt Bild 17. Einige wie Schwager, Schwägerin, Cousine, Base, Vetter, Cousin, Neffe und Nichte sind heute kaum noch Allgemeingut. Andererseits müssten seit geraumer Zeit auch bereits Urgroßeltern und Urenkel ergänzt werden.

Bild 17. Die Zusammenhänge bei den wichtigsten Begriffen der Verwandtschaftsverhältnisse. Wie komplex die Zusammenhänge zwischen Begriffen üblicherweise sind, demonstriert Bild 18. Darin sind Adjektive, Verben und Substantive hervorgehoben. Darin betreffen Überordnung (sup) ---- 42 ----

und Unterordnung (sub) die Richtung der Abhängigkeit der Klassen. Ein Teilaspekt als Unterordnung ist mit teil gekennzeichnet. Weiter stehen vs für Gegensatz, kompl für Kompliment, simil für Spezifikation, etwa | ähnlich, syn für Synonym. Relativ leicht ließen sich weitere Zusammenhänge hinzufügen.

Bild 18. Demonstration der hohen Komplexität von Zusammenhängen bei Begriffen. Für eine bestimmte (größere) Anzahl von Objekten sind viele Klassifikationen möglich. Die jeweilige Auswahl wird vor allem durch Menschen und für bestimmte Anwendungen oder Theorien vorgenommen. Eine Klassifikation existiert nicht primär, sondern muss erst erzeugt werden. Dabei ist zu beachten, dass sich Klassen oft teilweise überschneiden und daher nicht immer eindeutig zu trennen sind (s. o.). Die für eine Klasse ausgewählten Kennzeichen werden als „wesentlich“ bezeichnet. Für ihre Auswahl gibt es jedoch kaum objektive Gründe, zumindest ist sie daher teilweise subjektiv. Dennoch sind Klassifikationen nicht völlig beliebig, sondern nur eingeschränkt wählbar. Sie sind mit der Begriffsbildung verbunden, die dann durch ein Wort ausgedrückt wird. Leider gibt es kaum eine Möglichkeit, den richtigen (sinnvollen) Grad einer Abstraktheit zu prüfen. Er liegt zwischen zwei Extremen. x Die Wirklichkeit ist uns durch ihre zu große Komplexität zumindest teilweise unzugänglich. x Wir „zerstören“ die Wirklichkeit, indem wir zu viele, dann wiederum unüberblickbare Klassen erzeugen. Schließlich seien noch einige Probleme (Paradoxien) für (unscharfe) Klassenbildung genannt. Sie wurden in der Scholastik des Mittelalters sehr wichtig genommen: Wann wird aus einer Anzahl von Körnern ein Haufen? Wann macht ein zusätzlicher Pfennig einen armen Mann zu einem reichen? Bei welchem Filmbild wird aus einer Kaulquappe ein Frosch?

---- 43 ----

4.7 Axiomatik Von griechisch axíma lateinisch axioma Wertschätzung Würdigung; Würde, Ansehen, Forderung. Die Axiomatik ist eine Komprimierung, die aus zwei Teilen (s. u.)besteht, den Axiomen und den dazu gehörenden Regeln. Mit ihnen wird ein deutlich umfangreicheres, überwiegend in der Realität, Wirklichkeit liegendes Gebiet logisch abgeleitet, erfasst, bestimmt und beschrieben. Schematisch zeigt das Bild 19. Damit ergänzt die Axiomatik auf deutlich andere Weise vor allem die Klassifikation und Definition (vgl. Abschnitt 4.6 und Bild 14).

Bild 19. Die Methode der Axiomatik beschreibt ein meist recht umfangreiches Gebiet vorwiegend der Realität, Wirklichkeit. Bereits für Platon war es oft schwierig, die Natur oder Bereiche davon, z. B. den Weltbeginn oder die Götter zu beschreiben, zu erklären. Deshalb zitiert er in seinem Theaithetos „Was ist Erkenntnis?“ schließlich Sokrates: „Wir kommen an einen Punkt, wo wir nicht weiter machen können, also werde ich eine Geschichte erzählen“. Damals wurde vieles mit Geschichten dargelegt, ähnlich der Schöpfungslegende in der Bibel. Doch zur Vereinfachung des Geschichtenerzählens erfanden die Griechen bereits eine Vorstufe der Axiomatik: Aus unmittelbar einsichtigen Axiomen und Regeln lassen sich nämlich leicht folgerichtig abgeleitete Geschichten erzeugen. Daraus entwickelt sich dann das zu Erklärende relativ selbstständig und bündig. Außerdem werden dann weniger Phantasie und neue Einfälle benötigt. Bald wurde weiter klar, dass eine Axiomatik dann als besonders wertvoll oder gar als wahr gelten kann, wenn aus ihr möglichst vollständig und genau die Wirklichkeit folgt. Für eine gute Axiomatik müssen 1. die Axiome unmittelbar so einleuchtend sein, dass kein Hinterfragen oder gar Beweisen erforderlich erscheint. Sie müssen logisch unabhängig sein. 2. die Regeln möglichst einfach sein und dürfen zu keinen Widersprüchen führen. Die Axiome entsprechen dabei statischen Festlegungen „‰“, die Regeln sind dagegen dynamisch (zeitlich) „4“. Gewünscht sind Minimalität (möglichst wenig Ausgangsdaten, geringe Komplexität) und Vollständigkeit bzgl. aller bekannten und eventuell zusätzlicher wahrscheinlich auch gültiger, wahrer Folgerungen. Das Axiom-System muss insgesamt widerspruchsfrei, unabhängig; vollständig und minimal sein. Infolge der meist sehr hohen Verdichtung und den vielfältigen oft komplexen Ableitungen erfasst und beschreibt dann das Axiom-System „B“ viel mehr als ein Mensch direkt erkennen kann (Bild 20). Die in ihm enthaltenen Fakten müssen daher für ein menschliches Verstehen erst berechnet, „ausgewickelt“ werden. Daher ersetzen wenige Axiome und Regeln viele einzelne, auch abstrakte Zeichen-Objekt-Beziehungen. Die Anwendung der Axiomatik ist dabei meist relativ einfach, kann aber sehr aufwändig werden. Dagegen sind die Axiome und Regeln meist nur sehr schwer zu finden. Deshalb gelten solche Ergebnisse als besonders große wissenschaftliche Leistungen und tragen daher die Namen der Wissenschaftler. ---- 44 ----

Typische Beispiele sind die Euklid’sche Geometrie (um 300 v. Chr.), und für die Bewegung einschließlich der Gravitation die Newton’schen Axiome (s. u.) sowie die Allgemeine Relativitätstheorie Einsteins (1915).

Bild 20. a) Auswicklung, Anwendung einer Axiomatik. b) Zum Unterschied vom Finden einer Axiomatik und deren Anwendung. Wegen ihrer relativen Übersichtlichkeit seien hier nur die Newtonschen Gesetze kurz beschrieben Sie erschienen 1687 im Werk „Philosophiae Naturalis Principia Mathematica“ Die Grundlage bilden drei Axiome, die auch Prinzip heißen: 1. Trägheitsprinzip für die Bewegung von Körpern bei Abwesenheit von äußeren Kräften: Ein Körper verharrt dann im Zustand der Ruhe oder der gleichförmig geradlinigen Translation. 2. Aktionsprinzip als Grundlage für fast alle Bewegungsgleichungen der Mechanik: Die Änderung der Bewegung ist der Einwirkung der Kraft proportional und erfolgt geradlinig. 3. Actio und Reactio als Wechselwirkungsprinzip: Kräfte treten immer paarweise auf: Übt ein Körper A auf einen anderen Körper B eine Kraft aus (actio), so wirkt eine gleich große, aber entgegen gerichtete Kraft von Körper B auf Körper A (reactio). Aus ihnen lassen sich praktisch alle mechanischen Bewegungen herleiten. Zuweilen wird allerdings noch die Superposition als ungestörte Überlagerung der Kräfte hinzugefügt. Das Prinzip der Axiomatik ist, wie die folgende Tabelle zeigt, äußerst vielfältig anwendbar. Statische Festlegung ‰ Axiome Personen, Wesen Schachfiguren Urgründe Alphabet Daten Eingaben

Dynamische Festlegung 4 Gesetze, Regeln zulässige Handlungen Schachregeln zulässiges Geschehen Regeln, Syntax Methoden Algorithmen

Gefolgertes B Theorie, Fachgebiet Geschichten, Erzählungen Partien Ablauf, Entwicklung Sprache Wissen, Modell Ergebnisse

Zusammengefasst gilt für die Z-Information Ein Zeichen gelangt als stofflich-energetischer Informationsträger (Z-Objekt) auf menschliche Sinne und ermöglicht, bewirkt so als Informat im Menschen einen indirekten Umgang mit den B-Objekten, auf die das Zeichen verweist, für die es steht. B-Objekte können dabei der Wirklichkeit (Realität) angehören oder abstrakt als Gedanke, Vorstellung, Idee, Antizipation usw. vorhanden sein.

---- 45 ----

5. S-Information Das S steht hier für Shannon. Seine grundlegende Arbeit [Sha48] ist, noch mehr als die von Wiener [Wie48], entscheidende Basis der Informationstheorie. Insbesondere ist sie die theoretische Grundlage der gesamten Nachrichtentechnik. Mit ihr wird der Raum für die Kommunikation fast bis ins Unendliche erweitert. Die entsprechenden Zeichen werden dabei bevorzugt elektromagnetisch, aber immer nur stofflich-energetisch weitergegeben und können erst am Empfangsort auf das „richtige“ System so einwirken, dass ein Informat entsteht. So ergibt sich die paradoxe Folgerung, dass bei der Übertragung der Zeichen/Signale nicht ihr Inhalt, die Bedeutung der Information wichtig ist, denn hier ist das Informat überhaupt noch nicht zu erzeugen, sondern eben nur das Zeichen, also der Informationsträger. So wird auch verständlich, dass die Wahrscheinlichkeiten aller Zeichen zur wesentlichen Bezugsgröße werden. Es ist nicht sicher geklärt, wie Shannon zu diesem Ergebnis kam. So schreibt Wiener 1947 in seinem Vorwort zu [Wie48], dass bezüglich einer Theorie des Informationsgehaltes die Herren R. Fischer, C. Shannon und er ungefähr zur gleichen Zeit auf die Idee der statistischen Beschreibung der Information gekommen seien. An anderer Stelle verweist er auch auf J. V. Neumann. Genaueres dürfte kaum noch zu erfahren sein, denn alle vier waren im Krieg mit der Kryptographie befasst und daher zur strengsten Geheimhaltung auch nach dem Krieg verpflichtet. Ohne den obigen Hintergrund ergibt sich folglich der scheinbare Widerspruch: x x

Die Nachrichtentechnik dient primär der Übermittlung von Aussagen, Fakten, Inhalten, Wissen usw. Ihre (informations-) theoretische Beschreibung sieht jedoch hiervon völlig ab, sondern benutzt ausschließlich die Statistik der Zeichen.

Das wird noch erstaunlicher, weil Weaver im Vorwort zu [Sha48] genau das Gegenteil zu zeigen versucht3 und damit sogar im deutlichen Widerspruch zu allen entsprechenden Aussagen von Shannon steht. Wegen der Statistik war es notwendig, von endlich vielen, also n diskreten Zeichen zi auszugehen, deren Wahrscheinlichkeiten als pi gegeben sind. Diese Kennwerte der n zu übertragenden Zeichen (zi und pi) werden dann (Zeichen-) Alphabet genannt. Das verlangt automatisch die damals noch nicht existierende Digitaltechnik als wesentliche Grundlage für die Informationstheorie. Allein die Summe der für die damalige Zeit ungewöhnlichen Annahmen, ist ein deutlicher Beweis für Shannons Weitblick.

5.1 Die bestmögliche Übertragung Wenn eine Nachricht aus einzelnen diskreten Zeichen über den technischen Kanal übertragen wird, müssen die Zeichen auf der Empfangsseite eindeutig wiedererkannt werden. Dazu müssen sie vereinzelt auftreten und folglich durch Pausen oder Sonderzeichen voneinander getrennt werden. In der Schrift gibt es hierzu die Leer- und Interpunktszeichen. Bei einer technischen Übertragung verlängern sie aber beträchtlich die Übertragungszeit. Um das zu vermeiden erfand Shannon eine neuartige Zeichendarstellung, den Präfix-Code4, der auch irreduzibel, kommafrei und natürlich heißt und ohne diese „Hilfs-“ Zeichen auskommt. Bei ihm folgen die Zeichen unmittelbar dicht aufeinander. Doch wie kann dann der Empfänger die einzelnen Zeichen zuverlässig erkennen? Shannon fand, dass ist dann möglich, wenn die Zeichen einer zusätzlichen Regel genügen: Kein Zeichen darf der Anfang eines anderen sein.

3 Leider ist das Vorwort auch sonst wissenschaftlich weitgehend unsolide. Da z. B. jede Literaturangabe fehlt, kann es bestenfalls als sehr mittelmäßiger Essay betrachtet werden. Weiter sei erwähnt, dass Shannon sogar einen Streit mit seiner Frau hatte, weil sie als Programmiererin seine Arbeit für die Generierung von Musik benutzen wollte. 4

Code lateinisch cauda Schwanz, Schleppe und caudex Baumstamm, Strafblock, Buch, Bibel. Dazu gehört auch Coda = musikalischer Schluss.

---- 46 ----

Z. B. dürfen beim vorhandenen Zeichen „Haus“ nicht mehr „Haushalt“, „Hausordnung“, „Hause“ usw. als Zeichen benutzt werden. Das widerspricht zwar weitgehend unserem Sprachgebrauch, ist aber technisch relativ gut zu verwirklichen. Besonders gut ist es zu realisieren, wenn für die Übertragung die ursprünglichen Zeichen auf so ausgewählte Zeichen, die Codewörter umgesetzt werden. Dafür muss eine Methode entwickelt werden, welche die neuen Zeichen (Codes) systematisch und dabei auch noch möglichst kurz erzeugt. Das ermöglichen digitale Codebäume, bei denen aber nur an den Endknoten gültige Codewörter stehen dürfen.

5.1.1 Der Morse-Code Der Morse-Code ist zwar kein Präfixcode, er ermöglicht aber besonders gut die Forderung für einen Präfixcode zu erkennen. Er ist auch nicht – wie fälschlich zuweilen angenommen wird – ein binärer Code aus Punkten und Strichen. Er benötigt sogar drei zusätzliche Trennzeichen: zunächst eine Pause von Punktlänge um die Punkte und Striche gegeneinander abzutrennen, dann eine Pause von dreifacher Länge, die anzeigt, dass eine so abgegrenzte Punkt-Strich-Folge ein einzelnes Originalzeichen (Buchstabe, Zahl usw.) codiert und schließlich eine deutlich noch längere Pause, die dann anzeigt, dass ein neues Wort (wie gut, alt, Haus usw.) beginnt. Den größten Teil (bis zur Tiefe 5) des Codebaumes für den Morsecode zeigt Bild 1.

Bild 1. Binärer Baum für den Morse-Code bis zur Tiefe 5. Die linken Verzweigungen bewirken Punkte, die rechten Striche. Es wird jetzt eine Punkt-Strich-Folge angenommen, die nur die ganz kurze Pause, also bereits einen 3-Zeichencode benutzt:

......-..-..--....-.. Gemäß den ausgewählten Zeichen der folgenden Tabelle kann sie decodiert werden a

d

e

h

i

l

n

r

s

w

.-

-..

.

....

..

.-..

-.

.-.

...

.--

Dabei sind u. a. die drei folgenden Decodierungen möglich: „seinen adel“ oder „herr weil“ oder „ies nah d“ Die Ursache dieser Unbestimmtheit besteht einigermaßen einsichtig darin, dass beim Morse-Code nicht nur die Endknoten, sondern auch andere des Baumes für Zeichen benutzt werden.

5.1.2. Vom Shannon zum Huffman-Code Shannon geht von einem vollständigen binären Codebaum aus. Bei einer Tiefen m entstehen dann 2m Endknoten. Da aber oft n z2m Zeichen vorliegen, verkürzt er den zu großen vollständigen Baum dadurch, dass er einige Endknoten zusammenlegt und so weniger Endknoten zur Verfügung hat. Einige typische Beisiele für diese Reduzierung der 16 möglichen Endknoten für die z. B. vorhanden 11 Zeichen demonstriert Bild 2. Wenn dabei die nach oben zeigenden Verzweigungen eine 1 und ---- 47 ----

die nach unten eine 0 codieren, ergeben sich die eingetragen 0/1Codes. Wie durch Kontrolle leicht festzustellen ist, besitzt kein Codewort den Anfang eines anderen. Die Zeichen genügen also der Forderung des Präfixcodes. Außerdem ist leicht zu kontrollieren, dass bei einer unmittelbaren Aufeinanderfolge der Codewörter problemlos ihre richtige Erkennung möglich ist. Zur besseren Übersicht ist im folgenden Beispiel das Ende jeden Codewortes fett gedruckt. In Wirklichkeit sind aber alle 0/1-Zeichen gleich und es fehlen alle Trennzeichen. 1010101001100011010000 Bild 2. Mögliche Codebaumverkürzungen bei der Tiefe 4, mit 16 eigentlichen Endknoten aber auf 11 zu codierende Zeichen verkürzt. Nachdem der Codebaum aufgestellt ist, können den einzelnen 0/1-Wörten die eigentlich zu übertragenden Zeichen zugeordnet werden. Ein Beispiel hierzu zeigt Bild 3. Die zu übertragende Datei möge aus den 7 Zeichen zi = A bis G (links in der Tabelle) bestehen. Sie kommen mit den Häufigkeiten (Wahrscheinlichkeiten) pi rechts in der Tabelle vor. Beim dafür geeigneten vollständigen Codebaum der Tiefe 3 sind 8 Endknoten möglich, deshalb werden zwei zusammengelegt. Dann liefert der Baum die 7 Codewörter von 11 über 101 bis 000. Es ist günstig, der kürzesten Bitfolge 11 das häufigste Zeichen A zuzuordnen. Die Zuordnung der anderen ist wegen ihrer gleichen Codelänge 3 ohne Einfluss auf die Übertragungsdauer. Das Summen-Produkt aus der jeweiligen Häufigkeit pi mit der Codelänge cLi bestimmt die mittlere Übertragungszeit für ein Zeichen, die Codeaufwand genannt wird n

CA

¦ p ˜c i

Li

.

i 1

Er beträgt 2,7 Bit/Zeichen. Zur Bestimmung der wirklichen Übertragungszeit ist er nur noch mit der Anzahl der zu übertragenden Zeichen zu multiplizieren. Bild 3. Beispiel einer Codetabelle und dem dazugehörende Code-Baum. Es ist schnell zu überprüfen, dass jede andere Zuordnung zu 11 zu einem größeren Codeaufwand führt. Doch Shannon stellte auch die Frage nach dem theoretisch kleinstmöglichen Codeaufwand. ---- 48 ----

Wie er sein Ergebnis fand, ist leider nicht bekannt. Auch gibt es für sein richtiges Ergebnis keinen einsichtigen Beweis. Deshalb wird es meist einfach ohne Erklärung übernommen. Hier sei nach vielen wenig befriedigenden (auch eigenen) Versuchen z. B. [Völ17] angenommen, dass es zumindest theoretisch eine nichtganzzahlige Codebaumtiefe ctif gibt, die genau die erforderliche Zahl n an Endknoten erzeugt. Dazu müsste gelten ctif = ld (n)5. Wird dieses auf die Einzelzeichen mit ihren Wahrscheinlichkeiten pi übertragen, so folgt für sie ebenfalls eine nichtganzzahlige Codelänge mit dem einzelnen (idealen) Codeaufwand hi = CAi = pi˜ld(1/pi) = –pi˜ld(pi). Durch Summierung ergibt sich die Shannonsche Entropieformel: n

H

 ¦ pi ˜ ld ( pi ) . 1 1

Das vielfach hervorgehobene negative Vorzeichen folgt zwangsläufig. Es muss nicht mehr dadurch erklärt werden. dass es für eine positive Entropie notwendig ist, weil der Logarithmus einer Zahl kleiner als 1 (wie pi) negativ ist. Der Name Entropie wurde Shannon von Wiener vorgeschlagen und wird im Abschnitt 5.4.1 erklärt. Für den Zeichenvorrat nach Bild 3 beträgt die Entropie H = 2,52 Bit/Zeichen. Bezüglich des obigen Codeaufwandes mit 2.7 Bit/Zeichen besteht hier noch Verbesserungsbedarf. Hierfür mussten aber erst andere Verfahren zur Erzeugung anderer Codebäume entstehen. Zunächst fand 1849 Fano dafür den folgenden Algorithmus [Fan61]: 1. Die Zeichen sind nach fallenden Wahrscheinlichkeiten zu sortieren. 2. Es werden zwei Gruppen (als gedankliches Superzeichen) mit möglichst gleicher Wahrscheinlichkeit gebildet. 3. Alle Zeichen der „oberen“ Teilgruppe werden mit 1 codiert, alle der unteren mit 0. 4. Für jede Teilgruppe ist nach 2. fortzufahren, dabei werden die 1 bzw. 0 jeweils hinten ergänzend angefügt. 5. Es ist solange mit jeder entstandenen Teilgruppe fortzufahren, bis jeweils ein einzelnes Zeichen erreicht ist. So ergibt sich für das obige Beispiel Bild 4. Auffällig ist, dass hier die Zeichen mit kleiner Wahrscheinlichkeit eine größere Tiefe des Codebaumes besitzen. Dafür beträgt der Codeaufwand nur noch 2,58 Bit/Zeichen, erreicht aber trotzdem noch nicht das theoretische Limit. Bild 4. Zur Erzeugung des Codebaumes nach Fano für das obige Beispiel mit der zugehörenden Tabelle. 5

ld ist der Logarithmus zur Basis 2. Er kann mit einem beliebigen Logarithmus gemäß ld(x) = ln(x)/ln(2).

---- 49 ----

Den nächsten Algorithmus schuf Huffman 1952 [Huf52]: 1. 2. 3. 4.

Die Zeichen werden nach fallender Wahrscheinlichkeit sortiert. Die beiden Zeichen mit kleinster Wahrscheinlichkeit werden mit 0 bzw. 1 codiert. Bei Wiederkehr hierher wird der zu ergänzende Code immer vor dem schon vorhandenen eingefügt. Beide Zeichen sind aus dem Symbolvorrat zu entfernen und als ein neues Hilfszeichen (Superzeichen) mit den addierten Wahrscheinlichkeiten eingefügt. Bei 1. ist solange fortzufahren, bis nur zwei Hilfssymbole existieren.

Das führt zu einem kompliziert zusammenhängenden und damit weniger übersichtlichen Ablauf. Für das obige Beispiel ergibt sich so Bild 5. Der Codeaufwand ist damit auf 2,56 Bit/Zeichen weiter gesunken, aber immer noch deutlich von der Entropie 2,52 entfernt. Es liegt also noch immer keine ideale Codierung vor. Seit Huffman ist aber kein besserer Algorithmus mehr gefunden worden. Vielleicht existiert er auch nicht. So gibt es nicht voll überzeugende Versuche, das zu beweisen [Fan66].

Bild 5. Die Huffman-Codierung für das oben benutzte Beispiel. Der obere Teil ist auf den Ablauf des Algorithmus ausgerichtet, der untere zeigt den entstandenen Codebaum. Die Farben sind bezüglich der Schrittfolge gleich benutzt. Allgemein gilt H d CA. Deshalb wird die Redundanz einer Codierung R = CA - H eingeführt. Doch nützlicher, wichtiger ist meist die relative Redundanz r

Ca  H . H

Bereits Shannon zeigte, dass es immer möglich ist, die Redundanz beliebig dicht an Null zu bringen (r o 0), d. h, den Codeaufwand fast gleich der Entropie zu machen. Zum Beweis verwendet er dabei eine Codekombination mit Gedächtnis. Hier sei von einer Datei mit den beiden Zeichen A und B und den dazugehörenden Wahrscheinlichkeiten pA= 0,75 und pB = 0,25 ausgegangen. Gemäß der Tabelle beträgt dann der minimal mögliche Codieraufwand CA = 1 und die Redundanz r | 23 %. Für eine abgewandelte Datei werden nun die vier Kombinationszeichen AA, AB, BA und BB eingeführt. Für sie lassen sich die dazugehörenden Wahrscheinlichkeiten durch entsprechende ---- 50 ----

Multiplikationen berechnen. Das weist auch die Tabelle aus und bei der bestmöglichen Codierung sinkt die Redundanz auf r | 4 %. Mit den 8 Dreierkombinationen von AAA bis BBB wird bereits |1,4 % erreicht. Weil dadurch die Codewörter deutlich länger (theoretisch sogar unendlich) werden, benötigen hierbei die Codierung und Decodierung zusätzlichen Speicherplatz. Außerdem verzögert sich dadurch die Übertragung, denn die Decodierung kann erst dann erfolgen, wenn ein vollständiges Kombinationszeichen vorliegt. Daher wird dieses Prinzip nur selten und immer begrenzt auf wenige Kombinationen benutzt. Das kann auch als zusätzliches Argument für die Entropieformel gelten.

Zeichen

A B AA AB BA BB AAA AAB ABA BAA BBA BAB ABB BBB

WahrscheinCodes lichkeiten Einzelzeichen 0,75 0 0,25 1 Zweierzeichen 0,5625 0 0,1875 11 0,1875 100 0,0625 101 Dreierzeichen 0,421875 1 0,140625 001 0,140625 010 0,140625 011 0,046875 00000 0,046875 00001 0,046875 00010 0,015625 00011

Aufwand, Redundanz

1 |23 % 0,84375u2 |4 %

0,82292u3 |1,4 %

Es gibt auch Dateien, die unmittelbar eine redundanzfreie Codierung erlauben. Dazu wird ein Beispiel benutzt, dass auch zur Erklärung des Bit geeignet ist. Die Zufallswahrscheinlichkeiten werden mit einem Skatspiel hergestellt, indem vier Zeichen-, Karten-Klassen gebildet werden (Bild 6). Bild 6. Mit einem Skatblatt werden 4 Zeichen-, KartenKlassen mit dazugehörenden Wahrscheinlichkeiten gebildet. Nach dem Mischen wird eine Karte (zufällig) herausgezogen und der Spielpartner muss mit Ja/Nein-Fragen bestimmen, zu welcher Klasse (Zeichen) die Karte gehört. Bei der optimalen Fragestrategie entsteht der Codebaum nach Bild 7. Der Codeaufwand berechnet sich daraus zu 1,75 Bit/Zeichen (für zufällig aus dem immer vollständigen Kartenstapel gezogene Karten). Aber auch die Berechnung der Entropie für die vier Klassen mit den Wahrscheinlichkeiten ergibt dasselbe Ergebnis. Es liegt dann eine bestmögliche Fragstrategie und Codierung vor. Es kann zwar noch andere, aber keine bessere Codierung geben. Aus diesem Bild folgt so auch unmittelbar, dass 1 Bit genau der Antwort auf eine Ja/Nein-Frage entspricht. Bild 7. Optimaler Codebaum für die Wahrscheinlichkeitsverteilung nach Bild 6. Weitere Details lassen sich aus den kontinuierlich veränderlichen Wahrscheinlichkeiten für 1, 2 und 3 Zeichen bestimmen. Sie sind in Bild 8 grafisch dargestellt. Besonders auffällig ist der Verlauf für den Einzelwert h = –p˜ld(p). Er besitzt ein ausgeprägtes Maximum bei p = 1/e | 0,368. Zeichen mit dieser Wahrscheinlichkeit tragen daher besonders viel zur Gesamtentropie H einer Datei bei. ---- 51 ----

Subjektiv wirkt es sich so aus, dass zu ihrer Wahrnehmung (Übertragung) der größte Aufwand erforderlich ist. Sie fallen daher subjektiv besonders auf. Das entdeckte als erster Helmar Frank und benannte daher diesen Wert „Auffälligkeit“ [Fra69]. Auf ihn wird noch genauer im Abschnitt 5.7 eingegangen. Bild 8. Verlauf der Entropiewerte als Funktion der Wahrscheinlichkeit für 1, 2 und 3 Zeichen. Die maximale Entropie Hmax einer Datei aus n Zeichen tritt bei der Gleichverteilung, also für alle Zeichen mit pi =1/n ein. Es gilt dann Hmax = ld(n) t CA. und die folgende Tabelle: n Hmax

2 1

3 1,585

4 2

8 3

1024 10

1048576 20

Für eine Datei aus n Zeichen sind daher diese Werte zur Abschätzung als Obergrenze des Codeaufwandes bzw. der Entropie zu benutzen. Bei kleiner Zeichenanzahl führen die drei Codierverfahren vielfach zum gleichen Codeaufwand. Für Unterschiede ist dann der Codebaum nicht tief genug. Daher ist es in der Literatur üblich, den Vorteil der Huffman-Codierung für Dateien aus 7 Zeichen zu demonstrieren. Bei einem Vortag in der Heinrich-Hertz-Oberschule Berlin wies ich etwa 1985 auf die unbekannte, weil praktisch unwesentliche Grenze hin, ab der HHuffman < HFano ist. Daraufhin bestimmten zwei Oberschüler sie exakt mit den dazugehörenden Wahrscheinlichkeitsverteilungen bei bereits 6 Zeichen [Bal89]. Wird der Fortschritt der Codierung von Shannon über Fano bis Huffman bei den Bildern 56 bis 58 betrachtet, so kann der Eindruck entstehen, dass mit zunehmender Codetiefe die Codierung auch effektiver wird. Das gilt aber nicht allgemein und wird durch die Codierung der Buchstabenhäufigkeit der deutschen Sprache mit Bild 9 (nächste Seite) belegt. Die Kodierung mit Kombinationszeichen (Tabelle oben) besitzt auch für unsere Wahrnehmung Vorteile. Das hat u. a. Cube untersucht und damit das Superzeichen eingeführt [Cub65]. Ein Text bestehe dazu aus k Wörtern mit je n Zeichen, also insgesamt m = k˜n Zeichen. Zur Vereinfachung wird von den Ziffernhäufigkeiten gemäß dem Newcombschen Gesetz, sowie der bei Preisen üblichen Überhöhung von p(9) abgesehen. Ziffern 1 2 3 4 5 6 7 8 9 Häufigkeit 30,1 17,6 12,5 9,7 7,9 6,7 5,8 5,1 4,6 Die Wörter bzw. Ziffern werden also näherungsweise gleich häufig angenommen. Für die Einzelentropie eines Wortes gilt dann H1 |n˜ld(n). Folglich liefern alle Wörter H2 |m˜ld(n). Zusammengefasst gilt H3 |k˜ld(k). Wegen k = m/n gilt folgt schließlich ---- 52 ----

H total | m ˜ ld(n) 

m §m· ˜ ld ¨ ¸ . n ©n¹

Ihr Minimum liegt bei m = n˜en-1. Daraus leiten sich die folgenden Werte ab: optimale Gruppengröße k bei maximaler Wortlänge m

2 3 5,44|6 22,2|23

4 80,3|81

5 273

6 891

7 2824

8 8773

So sind die typischen Trennungen bei Telefonnummern z. B. 289 517 091, bei Bankkonten als IBAN z. B. DE77 1018 0000 0916 6311 03 usw. gut erklärbar. Ähnliches gilt auch für die Bildung von Wörtern aus Buchstabenkombinationen. Auch deshalb sind Silbenwiederholungen (und Ohrwürmer) oft so einprägsam.

Bild 9. Die Codebäume der Buchstabenhäufigkeiten der deutschen Sprache nach den drei Codierverfahren. Im „*“ sind alle Leer- und Interpunktionszeichen zusammengefasst. Auf den gestrichelten Zweigen wird immer 0 codiert, ansonsten 1.

5.1.3 Lauflänge und Takt Durch die Präfixcodierung können die einzelnen Bitkombinationen der Zeichen ohne zusätzliche Trennzeichen unmittelbar aneinander gehängt werden. Das zeigt am Beispiel der einfachen Shannoncodierung von Bild 3 das Bild 10. Es können so zuweilen mehrere bis viele 0- bzw. 1-Werte unmittelbar aufeinander folgen. Dann sind aber im Rechtecksignal die einzelnen Bit nicht mehr zu erkennen. Daher müssen aus den noch auftretenden vorhandenen 0/1-Übergängen alle notwendigen Taktsignale für die klare Abtrennung erzeugt werden. Nur so sind die einzelnen 0 und 1 eindeutig ---- 53 ----

zurückzugewinnen. Erst danach lassen sich dann gemäß der Präfixcodierung auch die ursprünglichen Zeichen wieder zurückgewinnen. Damit die Taktzurückgewinnung gut funktioniert, ist die Lauflänge (maximale Zahl der unmittelbar aufeinander folgenden 0- und auch 1-Werte) infolge von Zeitfehlern bei der Übertragung begrenzt. Sie ist bei der Speicherung (Kapitel 6) wegen der größeren Zeitfehler noch kritischer.

Bild 10. Bei der unmittelbaren Aufeinanderfolge von Zeichen sind zuweilen die 0- und 1-Werte nicht mehr zu erkennen. Hierzu muss aus dem übertragenen Rechtecksignal nachträglich ein strengperiodischer Takt erzeugt werden. Die nachträgliche Takterzeugung, erfolgt mit einer in der Phase gesteuerten Schaltung (PLL phase locked loop). Ein Phasengleichrichter erkennt die noch vorhandenen 0/1-Übergänge. Ein spannungsgesteuerter Oszillator (VCO voltage controlled oscillator) erzeugt dann mit einer über einen Frequenzteiler rückgekoppelten Schaltung das richtige Taktsignal. Hierbei ist für den VCO zwischen den Fang- und Mitnahmebereich zu unterscheiden (Bild 11).

Bild 11. Typische Schaltung zur Erzeugung der fortlaufenden Takte aus den im Rechtecksignal noch vorhanden 0/1-Übergängen.

5.1.4 Die verschiedenen Wahrscheinlichkeiten In der Entropieformel und für deren Anwendung sind neben der Zeichenzahl n die Wahrscheinlichkeiten pi entscheidend. Sie entstehen auf recht unterschiedliche Weise und besitzen teilweise auch ---- 54 ----

verschiedene Eigenschaften. Die wichtigsten Fakten dazu zeigt die folgende Zusammenstellung. Sie ist in Bild 12 übersichtlich grafisch zusammengefasst. Eine vertiefte Einordnung zeigt Bild 14. Die kontinuierliche Wahrscheinlichkeitsdichte wird im Abschnitt 5.3.6 behandelt.

Bild 12. Die wichtigsten Zusammenhänge für die Entropie und den dafür notwendigen Wahrscheinlichkeiten. 1. Objektiv vorhandene Wahrscheinlichkeiten entstehen u. a. thermisch infolge der Wärmebewegung von Teilchen. Hierzu gehört meist die Maxwell-Verteilung. Ähnliches tritt auch bei vielen komplexen Ursachen (Erscheinungen), z. B.: Katastrophen, Wirbelbildung, Reibung und Wetter sowie Werte der Soziometrie usw. auf. Dann sind meist die Ursachen und damit ihre Gesetze und Wahrscheinlichkeitsverteilungen kaum ausreichend geklärt. Häufig wirken sogar viele unabhängige Störungen zusammen. Dann tritt vorwiegend die Gauß- bzw. Normalverteilung auf. Viele Zeichen mit Wahrscheinlichkeiten schafft auch der Mensch mit seiner Sprache und seinen Handlungen, letztere treten auch bei Tieren auf. 2. Zuweilen erzeugt der Mensch absichtlich Zufallswerte mit besonderen Techniken, z. B. Würfel, Urne, Münzwurf, Kartenspiel, Los, Knobeln. Sie werden insbesondere bei der Lotterie; für Risiken, Spiele und Versicherungen benutzt. Dann sind häufig die Zufallsgesetze und damit Wahrscheinlichkeiten gut und im Voraus bekannt. 3. Für Simulationen (s. Kapitel 7) wird auch der Rechner zur Erzeugung von Zufallswerten benutzt. Oft erfolgt dabei im benötigten Zeitpunkt einfach ein Zugriff auf die 1/100-tel-Sekunde der Systemuhr. Es gibt aber auch langperiodische Algorithmen mit Pseudozufall. Das komplexe Prinzip ist schematisch im Kontext von Bild 7.24 beschrieben. Früher gab es hierfür Zufallstabellen. 4. Bei vielen Anwendungen werden bereits vorhandene Werte einfach gemessen oder abgezählt. Da sie existieren liegt eigentlich kein Zufall und damit keine Wahrscheinlichkeit mehr vor. Sie war bestenfalls beim Entstehen der Werte wirksam. Deshalb wird hiefür auch der Begriff a posteriori Wahrscheinlichkeit oder besser Häufigkeit benutzt. Bei einer sehr großen Anzahl von Werten kon---- 55 ----

vergiert der Zufallswert meist (jedoch nicht sicher) gegen die ursachengemäße a priori-Wahrscheinlichkeit. Hierfür gilt das Gesetz der großen Zahl. Doch wie groß der vorhandene Restfehler noch ist, ist mit Sicherheit nicht zu bestimmen. Für die repräsentative Menge gibt es jedoch meist brauchbare Abschätzungen. Sie sind besonders schwierig bei gesellschaftlichen Untersuchungen. Hierbei ist der Ergodensatz (s. u.) zu beachten. 5. Jeder Mensch hat persönliche Einschätzungen für mögliches, künftiges Geschehen. Sie sind betont subjektiv und damit meist recht unsicher. Zuweilen wird hierbei auch von geschätzten Werten gesprochen. Hierfür existiert die besondere Bongard-Weiß-Entropie, die im Abschnitt 5.4.5 behandelt wird. 6. Eine weitere, besondere Art sind die bedingten Wahrscheinlichkeiten. Sie treten erst dann auf, wenn eine Voraussetzung für sie erfüllt wurde. Die Wahrscheinlichkeit für die Voraussetzung sei pV und die dann wirksam werdende Wahrscheinlichkeit für das erwartete Ereignis sei pE. Aus beiden folgt dann die gesamte (bedingte) Wahrscheinlichkeit pB = pV˜pE. Diese Werte werden in der Informationstheorie nur sehr selten benutzt. 7. Sehr ungewöhnlich ist der quantenphysikalische Zufall, der auch oft absolut genannt wird. Für ihn gibt es keine ergründbare Ursache. Er tritt auf, es ist aber grundsätzlich unbekannt, warum und wann (Atomzerfall). 1926 wurde er von Born mittels der Wahrscheinlichkeitsamplitude des \ der Wellenfunktion eingeführt (vgl. Kapitel 8). Sie besitzt keine physikalische Realität und bedeutet auch kein Nichtwissen, sondern stellt alles dar, was wir je über das Quantensystem wissen können. Neuere Auffassungen versuchen sie subjektiv zu interpretieren. Diese Werte sind für die klassische Entropie irrelevant. Der Ergodensatz (lateinische Vorsilbe erg Tat, Werk Vorfall) sagt etwas über Bedingungen beim Gewinn von Wahrscheinlichkeiten aus. Bei einer Urne können z. B. die Kugeln nacheinander oder mit einem Mal herausgenommen werden. Das macht für ihre Wahrscheinlichkeiten keinen Unterschied Diese Quelle ist dann ergodisch. Jedoch bei der Sprache können sich solche Werte unterscheiden: Jeder Sprecher ändert immer etwas seinen Wortschatz und seine Wortwahl. In diesem Fall ist die Quelle nicht ergodisch, deshalb unterscheiden sich gestrige von heutigen Texten. Hiermit hängen aus Kreisprozesse bei Markow-Prozessen zusammen.

5.2 Begriffe von kontinuierlich bis digital Die Shannontheorie beginnt bereits in der zentralen Originalarbeit von Shannon [Sha48] mit diskreten (digitalen) Werten und das, obwohl es damals noch gar keine Digitaltechnik gab. Aber nur so ist die hocheffektive Übertragung mit dem Präfixcode und den sich anschließenden Folgerungen zu begründen. Doch heute erfolgen fast alle Signalübertragungen, -speicherungen, -bearbeitungen usw. digital. Aber ganz im Gegensatz dazu funktionieren (immer noch) fast alle Sensoren und Aktoren, insbesondere aber die menschlichen Sinne und Muskeln kontinuierlich. Daher müssen sehr oft die digitalen Signale wieder in kontinuierliche zurückgewandelt werden. Aus dieser Sicht ist die Digitaltechnik eigentlich ein „Umweg“ mit zwei zusätzlichen komplizierten Wandlungen (ADU und DAU s. u.). Doch es gibt viele Gründe für die Digitaltechnik, vor allem sind nur mit ihr verlustloses Kopieren, Fehlerkorrektur und Anwendungen der Rechentechnik möglich. Bevor hierauf eingegangen wird, sind zunächst die Begriffe im Umfeld von analog und digital inhaltlich zu klären [Völ79].

5.2.1 Analog und Analogie Griechisch logos Vernunft, lateinisch ana auf, wieder, aufwärts, nach oben. analogia mit der Vernunft übereinstimmend, Gleichmäßigkeit auch Entsprechung, Ähnlichkeit, Gleichwertigkeit, Übereinstimmung. Der Begriff wird etwas unterschiedlich in einzelnen Anwendungen benutzt: x Platon: Die menschliche Seele ist dreigeteilt: Vernunft, Wille, Begierden. Daher kontrolliert gerechter Mensch auch seine Begierden durch Vernunft und mit Unterstützung des Willens. ---- 56 ----

x x x x x x x x

Weiter gibt es die Analogie zum Dreiständeaufbau des Staates: Ein erleuchteter Philosoph/König regiert die Gesellschaft mit Kriegern. Biologie/Medizin: Analoge Organe bzgl. Morphologie/Struktur, z. B. Augen vom Wirbeltier, Tintenfisch und Insekt. Psychologie: Analogien sind grundlegend für das Denken, z. B. bei Maxwell: Wasserströmung œ elektromagnetische Felder und bei Kekule: Affen œ Benzol-Ring. Literatur: Nutzung für Fabeln, Parabeln, Märchen, Gleichnisse usw. Kybernetik: Technisch Systeme werden analog zu lebenden Organismen betrachtet. Achtung! Eine angenommene konsequente Analogie zwischen Technik und Mensch (harte KI) führt fast immer zu Fehlschlüssen. Bionik, Z. B.: Analogie der Haut von Delphinen für die Optimierung von Schiffsrümpfen, Lotus-Effekt bzgl. nicht auftretender Verschmutzungen, usw. Technik: Z. B. benutzt ein Analogrechner nur Differentialgleichungen, ferner elektromechanische Analogien sowie Analoguhr mit drehenden Zeigern. Logik: Induktive Beweisführung: Wenn Größen in einigen Fällen ähnlich sind, dann eventuell auch in anderen. Rechtsprechung: Einen juristischen Tatbestand auf einen etwa wesensgleichen übertragen ist in Deutschland unzulässig.

Analog und Analogie betreffen also immer einen Vergleich mit deutlichen Übereinstimmungen bzgl. der Funktion oder Struktur. Sie können daher nicht auf ein einzelnes System angewendet werden. Deswegen ist analoges Signal usw. eigentlich falsch, denn es fehlt der Bezug zum zu Vergleichenden. Für den Gegensatz zu analog (Analogie) existiert kein eigenständiger Begriff. Es muss nicht-analog (ohne Analogie) benutzt werden. Die folgenden Begriffe sind dagegen auch immer auf einzelne Systeme/Signale anwendbar.

5.2.2 Kontinuierlich und stetig Lateinisch continens, continuus: zusammenhängend, angrenzend an, unmittelbar folgend, ununterbrochen, jemand zunächst stehend. Continuare | aneinanderfügen, verbinden, fortsetzen verlängern, gleich darauf, ohne weiteres. Contingere | berühren, kosten, streuen, jemandem nahe sein, beeinflussen. x Umgangssprache etwa beharrlich, ununterbrochen, ständig, verwandt mit stet, stets von stehen; Gegenteil ist unstet (s. u.). x Mathematik: Kontinuum der reellen Zahlen zwischen zwei Zahlen gibt es immer eine weitere. Das gilt bei den reellen Zahlen mit unendlich vielen Ziffern. Es sind beliebig kleine Grenzwerte möglich: lim f (x) für x o 0; es besteht Verwandtschaft zu mathematisch stetig und betrifft auch die Umgebung von Grenzwerten. x Physik: Als Kontinuumsmechanik; berücksichtigt vereinfachend nicht die Mikrostruktur der Materie, insbesondere die Teilchen. x Signale: Es besteht zwar auch die Möglichkeit zu beliebigen Zwischenwerten bei Zeit und Amplitude (Energie). Im Gegensatz zur Mathematik besitzen ihre Werte aber infolge von Störungen immer einen Fehlerbereich. Damit hängt die endliche Stellenzahl der gemessenen Ausprägungen und deren Streubereich zusammen Nur bei einer rückwirkenden Abbildung auf Ähnliches entstehen analoge Signale als Teilmenge der kontinuierlichen Signale. Die Einführung des Kontinuums erfolgte durch Aristoteles in Bezug auf die Paradoxien von Zenon (=Xenon). Danach könnte z. B. der sehr schnelle Achilles die äußerst langsame Schildkröte nicht ---- 57 ----

einholen, geschweige denn überholen. (Bild 13). Zuweilen sind 3 Arten von kontinuierlich zu unterscheiden.

Bild 13. Für den Wettlauf des schnellen Achilles erhält die sehr langsame Schildkröte zunächst einen Vorsprung. Archilles kann sie nicht einholen, geschweige denn überholen. Immer wenn er bei der Schildkröte anlangt, ist sie bereits ein Stück weiter. m-kontinuierlich (Mathematik): Es gibt immer eine Zahl x3 zwischen zwei Zahlen x1 und x2, z. B. x3 = ½(x1 + x2). Das kann per Iteration beliebig oft fortgesetzt werden: x4 = ½(x2+ x3) usw. Daher gibt es überabzählbar viele derartige Zahlen. In der Dezimalschreibweise besitzen rationale Zahlen oft wenige Stellen, wie ½ = 0,5. Sie können aber auch unendlich periodisch sein, wie 1/3 = 0,3333.... Irrationale Zahlen, wie S oder —2 besitzen oft unendlich viele Stellen. Sie sind dann nicht mehr exakt aufzuschreiben, also fehlerfrei nutzbar. Deshalb besitzen m-kontinuierliche Zahlen oft keine sinnvolle praktische Anwendung. Zu m-kontinuierlich gehört auch, dass der Grenzwert lim f (x) für x o 0 bzw. x o f existiert. Alle Digitalrechner arbeiten mit endlich vielen Stellen. Ihnen ist daher m-kontinuierlich nicht zugänglich. Im Bild 14 ist schematisiert, dass hierbei die einzelnen Zahlenwerte immer getrennt sind. t-kontinuierlich (Technik, Physik): Jeder gemessene oder technisch gewonnene Wert x0 besitzt eine endliche Stellenzahl. Durch vielfältige Störungen und Messfehler besitzt er (bei Wiederholung der Messung) eine statistische Streuung V (Toleranz). Deshalb kann man zwar 3 Äpfel kaufen, aber nicht exakt 3 kg. Es ist eine Toleranz, vielleicht r30 g |1 % Genauigkeit erforderlich. Insbesondere bei vielen unabhängigen Störeinflüssen tritt eine Gauß-Verteilung der Messwerte xi auf. Doch mit beachtlicher Wahrscheinlichkeit treten zuweilen Werte außerhalb des Streubereiches x0 r V auf (Bild 15). Durch eine Mittelung über viele Messungen kann jedoch mit der Fehlerrechnung der Fehler gesenkt werden. Doch letztlich besitzt aber jeder so bestimmte Messwert nur endlich viele gültige Stellen. Maximal sollte immer nur eine mehr als für das gültige Messergebnis benutzt werden. Praktisch alle Sensoren und Aktoren, die eigentlichen Nachrichtenkanäle (Leitungen, Funk, Lichtleiter usw.) aber auch Digitalrechner rechnen t-kontinuierlich. Leider sind bei t-kontinuierlich mehrere Werte nie total zu trennen, Sie überlappen sich immer mehr oder weniger (Bild 14). Darauf wird noch genauer im Abschnitt 5.3.1 eingegangen. p-kontinuierlich (Physiologie, Prozent) Unsere Sinne und Muskeln registrieren gewisse Intensitätsänderungen nicht. Ein Schalldruck der Intensität x0 kann sich um etwa r 10 % ändern, ohne dass wir es wahrnehmen können. Wird diese Grenze aber etwas überschritten, so nehmen wir es sofort wahr. Ähnliche Toleranzbereiche gibt es für alle Sinne (und Muskeln). Bei aller Ähnlichkeit ist das ---- 58 ----

deutlich anders als bei t-kontinuierlich. Dieser Effekt wird vielfach bei der verlustbehafteten Komprimierung genutzt (Abschnitt 5.6.2, s. auch Weber-FechnerGesetz (Abschnitt 5.3.5). Ähnliche Fakten gibt es auch bei einigen Paradoxien: Beim wievielten Cent wird aus einem armen Mann ein reicher? Bei einem Film besteht die Frage: Ab dem wievielten Bild ist aus der Kaulquappe ein Frosch geworden? Bild 14. Typische Eigenschaften der drei Arten von kontinuierlich.

Bild 15. Die Gauß-Verteilung mit dem Erwartungswert x0 und der Streuung V. Es ist zu beachten, dass ein nicht zu vernachlässigender Teil der möglichen Werte auch außerhalb der Streuung, ja sogar bei 2- und 3-facher Streuung auftreten kann. Kontinuierlich ist verwandt mit stetig, deutsch von stehen, verwandt mit stet, stets; das Gegenteil von unstet; umgangssprachlich: beharrlich, ununterbrochen, ständig. In der Mathematik betrifft es u. a. den Grenzwert lim f(x) für xo0. So bietet es die Möglichkeit zur Differentialrechnung.

5.2.3 Diskret, digital, quantisiert und Bit Diskret: Lateinisch discretion Unterscheidungsvermögen, Urteil und Entscheid. Discretus abgesondert, getrennt; discernere: scheiden, trennen, unterscheiden, beurteilen, entscheiden. Es kommt in vier Varianten vor: ---- 59 ----

x x x x

Umgangssprachlich: taktvoll, rücksichtsvoll, zurückhaltend, unauffällig, unaufdringlich, vertrauensvoll, geheim, verschwiegen. Mathematisch: etwas zerfällt oder gliedert sich in einzelne (abzählbare viele) Punkte oder Elemente. Physikalisch betrifft es Größen, die sich nur in endlichen Schrittweiten ändern (vgl. unten spezieller Quant). Signal: Es besitzt nur endlich viele t-kontinuierliche Werte mit Toleranzbereichen, die eigentlich streng gegeneinander abgegrenzt sein sollten. Wegen der weitreichenden „Ausläufe“ (Bild 14) besteht aber immer die Gefahr einer – wenn auch nur geringfügigen – Überschneidung, die dann zu Fehlern führt (Abschnitt 5.3.1). Den einzelnen diskreten Werten können im Sinne der Z-Information Zahlen oder Zeichen zu ihrer Kennzeichnung zugeordnet werden.

Digital: lateinisch digitus Finger; zählen, ziffernmäßig, in Zahlen angeben. Es betrifft: x England: Eine alte Maßeinheit etwa Fingerbreite mit 18,5 mm x Biologie: Eine Blütenpflanze heißt digitalis, deutsch Fingerhut x Signalwerte mit einer Zahlendarstellung (-abbildung), wobei auch unterschiedliche Zahlenbasen verwendet werden: binär = 2, oktal = 8, dezimal = 10, hexadezimal = 16. Die Anzahl der Abstufungen (Speicherzustände) kann aber infolge von Codierungen abweichen: Z. B.: dual bei zwei physikalische Zuständen oder BCD für binär codiertes Dezimal. Echt digitale Signale sind im Gegensatz zu den diskreten bezüglich Amplitude und Zeit diskret. Digitale Werte entsprechen der Beantwortung einer Ja/Nein-Frage (beseitigte Unsicherheit) und damit dem Bit (s. u.) Quantisiert: Lateinisch quantitas Größe, Anzahl; quantum wie viel, so viel wie, inwieweit, irgendwie. usw. Es betrifft: x Philosophie: Zusammenhang und Unterschied von Quantität (| Menge) l Qualität (| Güte). x Physik: Das Quant wurde 1900 durch Planck eingeführt; Beginn der Quantentheorie. x Messwerte bestehen quantitativ aus einem t-kontinuierlichen Messwert bezüglich der Ausprägung für die qualitativ dazugehörende Maßeinheit (m, kg, s usw.). x Technisch bedeutet quantisieren diskrete Werte erzeugen. Quantisierte Signale besitzen diskrete Amplituden (-stufen) und/oder diskrete Zeitpunkte (Takte). Bit geht auf binary digit zurück, englisch digit Zahl, Ziffer, Finger. Es wurde als Begriff 1948 von J. W. Tukey eingeführt. In der üblichen Betrachtungsweise kann es einen der beiden Werte 0 oder 1, wahr oder falsch annehmen. Es entspricht der Beantwortung einer Ja/Nein-Frage (Abschnitt 5.1). Daher wird in seinem Zusammenhang auch oft (eigentlich nicht ganz richtig) von „beseitigter Unsicherheit“ gesprochen.

5.2.4 Zusammenhänge Üblich ist es, von der Wandlung zwischen analogen und digitalen Signalen zu sprechen. Doch praktisch besitzen die meisten Signale keine Analogie zu etwas Anderen und sind dann t-kontinuierlich. Die digitalen Signale sind vielfach, zumindest zunächst diskret. Digital werden sie erst durch eine Codierung auf Zahlen. Doch der falsche Sprachgebrauch lässt sich nur schwer ändern. Einen Überblick zum Zusammenhang der Begriffe zeigt Bild 16. Analogie und analog betreffen immer einen Vergleich, meist bezüglich der Funktion oder Struktur. Für nicht analog gibt es keinen eigenen Begriff. Die anderen Begriffe betreffen hauptsächlich einzelne Signale oder Werte und können die Eigenschaft dann bzgl. ihrer Amplitude (Energie) und/oder Zeit besitzen. Erstaunlich ist dabei, dass nur die zeitabhängigen Übergänge zwischen t-kontinuierlich und diskret in beide Richtungen fehlerfrei möglich sind. Die Grenzen hierfür folgen aus dem Sampling-Theorem von Shannon und werden im Abschnitt 5.3 behandelt. Eine Diskretisierung der Amplitude ist dagegen nicht fehlerfrei rückgängig zu machen. Für Diskret gibt es mehrere Unterbegriffe: Digital ist begrifflich nur dann richtig, wenn die diskreten Werte auf Zahlen abgebildet sind. Doch diese Abbildung kann mittels ---- 60 ----

unterschiedlicher Zahlenbasen erfolgen und führt so zu binären, oktalen, dezimalen oder hexadezimalen Werten. Dual wird nur dann benutzt, wenn dabei zweiwertige Speicherzustände benutzt werden.

Bild 16. Zusammenhänge der wichtigsten Begriffe von kontinuierlich bis digital. Sowohl die Zeit als auch die Amplitude können sowohl einzeln als auch gemeinsam t-kontinuierlich, diskret und/oder digital sein. Daher existieren die vier Signalvarianten gemäß Bild 17 mit den dazugehörenden Übergängen. Vereinfacht werden sie mit k für kontinuierlich und d für diskret in der Abfolge Zeit, Amplitude benannt: kk

dk

kd

dd

Zeit- und Amplitude sind kontinuierlich. So arbeitet die kontinuierliche (analoge) Technik, z. B. klassische Verstärker, Filter, Amplituden- und Frequenzmodulation. Zu jedem t-kontinuierlichen Zeitpunkt existiert ein t-kontinuierlicher Amplitudenwert. Neue t-kontinuierliche Amplitudenwerte treten hier nur zu diskret festgelegten Zeiten auf. Dabei werden sie meist zu festgelegten Taktzeiten mittels sample hold (s. u.) ausgewählt und gespeichert. Bei richtig gewählter Taktfrequenz ist dieser Schritt im Prinzip rückgängig zu machen (Abschnitt 5.3). Typisch hierfür sind Abtastsignale sowie Pulslängen- und Pulsverhältnismodulation. In diesem Fall sind diskrete Amplitudenwerte vorgegeben. Das t-kontinierliche Ausgangssignal wechselt zu bestimmten Zeiten. Das geschieht immer dann, wenn die ursprüngliche, t-kontinuierliche Amplitude einen neuen diskret vorgegebenen Amplitudenwert erreicht. Ihn nimmt dann das Ausgangssignal sprunghaft an. Dieser Zeitpunkt hat einen t-kontinuierlichen Wert. Es liegt reine Amplituden-Diskretisierung vor. Hierfür existieren nur wenige Anwendungen. Im Gegensatz zu kd kann der Sprung zum neuen diskreten Amplitudenwert nur zu einer diskreten Taktzeit erfolgen. Nur hier liegt daher „echte“ Digitalisierung und damit ein echtes digitales Signal vor. Es kann durch jeweils zwei Zahlen beschrieben werden. Insbesondere für die Rechentechnik sind fast immer diese echt digitalen Signale notwendig, die sowohl in der Amplitude als auch in der Zeit diskret sind. Außerdem wird dd bei der Pulscodemodulation und ähnlichen Verfahren benutzt. Dabei ist zumindest rein theoretisch ist zu beachten, dass sich die Ungenauigkeiten (Fehler) der Amplitude 'x (eigentlich der Energie 'E) und der Zeit 't gegenseitig bedingen. Ihr Produkt muss zumindest die Heisenberg-Unschärfe 'x˜'t t h erfüllen (h = Planck-Konstante).

---- 61 ----

Bild 17. Die vier Signalmöglichkeiten sowohl bezüglich Zeit und Amplitude als auch tkontinuierlich und diskret (digital).

5.3. Von kontinuierlich nach diskret (digital) Bei der Diskretisierung müssen Zeit- und Amplitude unterschieden werden. Für die Zeitdiskretisierung genügt ein einfacher streng periodischer Zeittakt. Die Umsetzung ins Digitale ist dann relativ einfach. Für die Amplitudendigitalisierung sind dagegen recht komplexe Schaltungen erforderlich. Sie heißen Analog-Digital-Wandler (ADU Analog-Digital-Umsetzer). Der Begriff ist eigentlich falsch, denn es werden dabei fast immer t-kontinuierliche Werte zunächst in diskrete umgesetzt. Der Begriff ist jedoch vor langer Zeit entstanden und dürfte kaum noch zu ändern sein. Für ihn gibt es hauptsächlich drei Methoden, die u. a. in [Völ89], S. 940ff. beschrieben sind. Hier wird nur der relativ übersichtliche Wägewandler kurz erklärt (Bild 18). Jedoch auch fast alle anderen ADU erzeugen primär nur diskrete Stufen mit gleichbleibendem (äquidistantem) Abstand.

Bild 18. Prinzip des Wägewandlers zur Erzeugung diskreter und dann digitaler Amplitudenwerte. ---- 62 ----

Zunächst wird mit dem Taktgenerator der jeweils aktuelle t-kontinuierliche Wert per sample hold in einem Kondensator gespeichert (im Beispiel Ux = 45 Volt) und so bis zur nächsten Taktzeit für den eigentlichen Wandler bereitgehalten. Dort wird er beginnend mit Uk =64 Volt verglichen. Da dieser Wert hier zu groß ist, wird er auf Uk2=Uk/2 = 32 Volt reduziert. Dieser Wert ist zu klein. Deshalb wird erneut die Hälfte Uk3 = Uk/4 = 16 Volt hinzu addiert. So werden schrittweise und fortlaufend immer weiter halbierte Werte addiert oder weggelassen und zwar so, dass die bestmögliche Anpassung an den Messwert erfolgt. Das geschieht so ähnlich, wie mit den Gewichten bei einer Balkenwaage. Darauf geht auch die Benennung dieses Prinzips zurück. Über die jeweils hinzugefügten oder zurückgenommenen Werte entstehen quasi nebenbei die digitalen Werte. Bei den anderen ADU-Prinzipien erfolgen sowohl die Diskretisierung als auch die Umwandlung ins Digitale meist komplexer. Deshalb wird hier auf sie verzichtet. Die Rückwandlung der digitalen Werte in t-kontinierliche ist deutlich einfacher. Es werden je Bit fortlaufen die jeweils halbierten Werte hinzuaddiert oder nicht. Hierfür wird vielfach der ebenfalls nicht ganz richtige Begriff DAU (Digital-Analog-Umsetzer) benutzt.

5.3.1 Zur Korrektheit diskreter und digitaler Werte Mit dem sample hold von Bild 18 wird ein ausgewählter t-kontinuierlicher Wert für eine Taktlänge festgehalten. Bei geringer zeitlicher Schwankung des Taktsignals würde dieser Wert durch unterschiedliche Störungen jedoch immer etwas abweichen. Infolge des Fehlerbereichs von Bild 15 entsteht so eine gewisse Unsicherheit. Deshalb ist jede Diskretisierung eines sample-hold-Wertes bereits vom Ursprung her ein wenig fehlerhaft. Das wird technisch durch die Toleranzbereiche digitaler Werte berücksichtigt. Bild 19 zeigt hierfür die komplexen Zusammenhänge. Dabei sind die Erwartungswerte der t-kontinuierlichen Werte bereits vorteilhaft auf die Mitte des 0- bzw. 1-TTL-Pegels gelegt. Teile des Streubereiches des t-kontinuierlichen Signals ragen jedoch immer etwas über die Grenzen der TTL-Pegel hinaus und führen daher zu Fehlern. Zu deren Eingrenzung (Reduzierung) können lediglich die Werte über 5 V und unter 0 V erfolgreich begrenzt werden. Infolge von Störungen liegen bei der Nutzung der digitalen Werte wieder t-kontinuierliche Signale mit möglichen Fehlern vor.

Bild 19. Die festgelegten TTL-Pegel (Abschnitt 6.2) und ihre Gewinnung aus t-kontinuierlichen Werten mit den möglichen Fehlern sowie deren teilweise unsichere t-kontinierlicher Weiternutzung. ---- 63 ----

5.3.2 Digitalisierung Im Gegensatz zur AD-Wandlung betrifft Digitalisierung hauptsächlich die zeitliche Abfolge von Daten, also längerer Signale. Damit ihre Rückwandlung in die ursprünglichen kontinuierlichen Signalfolgen möglichst fehlerarm erfolgt, muss sie sich aus endlich vielen diskreten Werten wieder erzeugen lassen. Das verlangt spezielle mathematische Zusammenhänge. Besonders einfach ist das für alle Geraden mit der Gleichung y = a + b˜x. Sie gehen durch den Punkt y = a und x = 0 und besitzen die Steigung b. Auf ähnliche Weise lassen sich mit der Gleichung

x  x0  y  y0 2

2

r2

alle möglichen Kreise zum Mittelpunkt x0, y0 mit dem Radius r erzeugen. Doch für einen beliebigen Signalverlauf ist das deutlich umständlicher, denn hierbei müssen die Zeit und Amplitude berücksichtigt werden. Dann sind zumindest Potenzreihen oder mehrere orthogonale Funktionen (wie cos (n M) und sin (n M) oder Tschebyscheff-Polynome) erforderlich. Zunächst zeigte Shannon dass es notwendig ist, die Anzahl der erforderlichen diskreten Zeitpunkte zu bestimmen, an denen die Signalwerte benutzt werden sollen. Experimentelle Untersuchungen hierzu hatte Küpfmüller bereits um 1924 durchgeführt. Er fand, dass die Einschwingzeit 'T eines Kanals für einen Rechteckimpuls etwa umgekehrt zu seiner Bandbreite B ist: 'T | 1/2B. Um 1930 folgten dann ähnliche Untersuchungen bei Pulsmodulationen von Nyquist. Bereits 1933 fand Kotelnikow – wie später Shannon – ähnliche Ergebnisse für eine Signal-Abtastung. Sie wurden jedoch erst deutlich nach Shannon außerhalb von Russland bekannt. Shannon bestimmte um 1940t, dass für den Probenabstand (sample) bei einer Digitalisierung gelten muss 1 'T t . 2˜ B Im Vergleich mit der Quantentheorie (Kapitel 8) ergibt sich dabei eine Analogie zur HeisenbergUnschärfe. Dort gilt für das Produkt der Fehler von zwei physikalisch konjugierten Größen, z. B. Zeit 't und Energie 'E mit der Planck-Konstanten h 't˜'E t h/2. Mit der Photonen-Energie 'E =h˜v folgt daraus 1 . 't t 2 ˜Q Nach der Festlegung des minimalen Probenabstandes muss noch die mathematische Beziehung gefunden werden, mit der wieder das Originalsignal erzeugt werden kann. Hierfür wählte Shannon die Whittacker-Funktion, die beim bei Tonfilm und der Magnetbandaufzeichnung meist Spaltfunktion heißt x

sin D

D

Si (D ) .

Ihren Verlauf und den Zusammenhang mit dem idealen Tiefpass über die Fourier-Transformation zeigt Bild 20a. Sie besitzt bei t = 0 ihr Maximum mit dem Wert 1. An allen Vielfachen von S hat sie Nullstellen. Die für alle Taktzeiten gewonnenen Proben werden nun mit je einer Whittacker-Funktion multipliziert und dann auf die richtigen Taktzeiten verschoben addiert. Hierdurch entsteht im Idealfall exakt der originale Zeitverlauf f (t) (Bild 20b). Ein ausreichender Probenabstand und die WhittackerFunktion sind also die Grundlage des Sampling-Theorems von Shannon.

---- 64 ----

Bild 20. a) Eigenschaften der Whittacker-Funktion und der über die FourierTransformation damit verknüpfte ideale Tiefpass; b) Überlagerung der mit dem Probenwerten multiplizierten und an die richtigen Taktstellen gelegten Whittacker-Funktionen. Leider sind die oben genannten Forderungen für eine exakte Rückgewinnung technisch nur teilweise erfüllbar. Insbesondere treten folgende Fehler auf: x Um ein exaktes Si(x) zu erzeugen, ist (gemäß der Fourier-Transformation Bild 20a) ein ideal rechteckförmiger Tiefpass mit der Grenzfrequenz B und ohne Phasenfehler erforderlich. Er ist aber selbst bei extrem großem Aufwand bestenfalls annähernd herzustellen. Alle technisch realen Tiefpässe haben keine ideal steile Flanke und besitzen beachtliche Phasenfehler. x Bei der Digitalisierung müssen auch die Amplituden der Samples auf eine endliche Bit-Tiefe quantisiert werden. Dadurch treten unerwünschte Änderungen auch für die Höhe der Nebenmaxima auf und bewirken so zusätzliche Restfehler. x Theoretisch müssten alle Samples für -f d t d +f überlagert werden, denn nur dann verschwinden die Restfehler infolge fehlender Teilschwingungen. Praktisch steht aber nur eine endliche Zeit rückwärts (bedeutet eine Verzögerung der Wiedergabe) und keine in der Zukunft zur Verfügung. x Bei der Wiedergabe müssten alle Samples G-Impulse mit unendlich kurzer Zeitdauer dW o 0 auftreten. Infolge der Bandbreite des Kanals werden sie aber immer etwas „verschmiert“. ---- 65 ----

x

Die Samples müssen zum exakt korrekten Zeitpunkt wiedergegeben werden, infolge von Störungen sind aber gewisse Zeitfehler unvermeidbar. Trotz dieser immer vorhandenen Mängel sind meist die zurückgewonnenen Signale noch gut bis sehr gut. Für Schallaufzeichnungen machen sich die Restfehler jedoch als sehr unangenehmes Sampling-Geräusch bemerkbar. Eine nur geringfügige Verbesserung ist durch eine deutlich erhöhte Bit-Tiefe für die Amplitudenstufen möglich. Letztlich wird aber bei den meisten Audio-CDs das Sampling-Geräusch durch ein 6 dB stärkeres (doppelt so intensives), aber subjektiv weniger unangenehmes thermisches Rauschen verdeckt.

5.3.3 Kontinuierliche Digitaltechnik Als Folge der beachtlichen Mängel der heutigen Digitaltechnik ergibt sich die Frage: Warum gibt es keine fehlerfreie Rücknahme der Amplituden-Quantisierung ähnlich wie bei der Zeit? Signale sind Zeitverläufe gemäß u = f (t), wobei zu jeder Zeit t nur ein einzelner Amplitudenwert u gehört. Deshalb kann von der Zeit immer auf eine Amplitude u zurückgerechnet werden. Jedoch für die Amplitude u ist keine eindeutige Variable x gemäß x = f2(u) verfügbar. Zu jedem u kann es immer mehrere x, eigentlich t geben. Genau deshalb ist keine eindeutige Rückrechnung zu den diskreten Amplitudenwerten möglich. Doch am 21.1.2007 abends erlebte ich im Wachtraum die Lösung, und fand nach jahrelangem Suchen und ständigen Hinweisen für meine Studenten für dieses Problem unvermittelt einen Umweg, der zumindest die Ursache für das Sampling-Geräusch völlig ausschaltet und dazu noch mit deutlich weniger zu übertragenden digitalen Werten auskommt. Im Gegensatz zur heute üblichen Digitalisierung wird um das t-kontinuierliche Signal ein Toleranzbereich bestimmt, der den subjektiv nicht wahrnehmbaren physiologischen Abweichungen entspricht (Bild 21). Gemäß den typischen Wahrnehmungsgrenzen kann er sogar vorteilhaft proportional zur Signalamplitude festgelegt werden. Innerhalb dieses Bereiches wird dann eine möglichst einfache Reihe als Ausgleichssignal gesucht. Sie kann z. B. mittels Tschebyscheff-Funktionen gebildet werden. Dann sind nur noch die dazugehörenden Koeffizienten zu übertragen, und sind meist deutlich weniger als die sonst üblichen Samples (s. u.).

Bild 21. Unterschied zwischen üblicher und kontinuierlicher Digitaltechnik Auf dieser Grundlage ergibt sich der typische Aufbau der Kontinuierlichen Digitaltechnik gemäß Bild 22. Es werden zunächst Intervalle gebildet und die für sie typischen Datenpaare aus Zeit und Amplitude erzeugt und gespeichert. Sie können wie gewohnt erzeugt werden. Es genügen aber auch die Extrema und Wendepunkte. Zu ihnen wird die Approximation im zulässigen Toleranzbereich gebildet. Anschließend werden nur die sich dabei ergebenden Koeffizienten übertragen. Zur Wiedergabe wird mit ihnen wieder die kontinuierliche Approximationsfunktion erzeugt und mittels eines linearen Sägezahngenerators – also ohne Sampling-Geräusch – direkt ausgegeben. Viele weitere Details enthält [Völ08].

---- 66 ----

Bild 22. Vergleich der Struktur von üblicher und kontinuierlicher Digitaltechnik. Ein Problem der neuen Technik besteht in der Festlegung der Teilintervalle für die Approximation und deren Zusammenfassung. Bei akustischen Signalen sind meist etwa 20 ms besonders geeignet, denn während dieser Zeit sind vielfach die gleichzeitig auftretenden Einzelschalle annähernd stationär. Dadurch wird die Approximation besonders einfach. Dann müssen noch die einzelnen Intervalle ohne störenden Übergang zusammengefasst werden. Das ist – wie Bild 23a zeigt – nicht ohne weiteres möglich. Bei der sonst günstigen Tschebyscheff-Approximation entstehen an den Grenzen oft störende Amplitudensprüngen. Sie lassen sich weitgehend vermeiden, wenn sich die Intervalle überlappen und so an einer passenden Stelle der Überlappung ein gemeinsamer Pegel festgelegt wird (b). Eine bessere Variante ergibt sich mit Gauß-Lobatto-Knoten6 (c). Hierbei werden die Stützpunkte in speziell variablen Abständen nach einem besonderen Schema festgelegt. Dabei werden die Signalwerte der Endpunkte (normiert auf -1; 1) von der Approximation exakt angenommen. Diese Methode ist auch problemlos auf Bilder zu übertragen. Sie könnte dann sehr vorteilhaft auf Pixel-Ausschnitte gut angewendet werden (d).

Bild 23. Zur Wahl der Teilintervalle und ihre Zusammensetzung. c) Stützpunkteanordnung bei Gauß-Lobatto-Knoten und d) ihre Anwendung für quadratische Pixel-Ausschnitte bei Bildern. 6

Auf die Gauß-Lobatto-Knoten wurde ich von Dr. Andreas Krebs, Institut für Mathematik der Technischen Hochschule Cottbus hingewiesen. Leider fand ich bisher – wegen anderer wichtiger Arbeit – keine Zeit sie zu erpoben.

---- 67 ----

Die Qualität der üblichen Digitaltechnik wird wesentlich durch die Sampling-Rate und Bit-Tiefe beeinflusst. Beispielhaft zeigt das Bild 24. Sie ist nachträglich nur noch unwesentlich durch die Wiedergabetechnik zu Beeinflussen. Ein typisches Beispiel hierfür ist das nachträgliche Oversampling, was nur eine komplexe digitale Nachbearbeitung ist, aber fast nur den technisch sehr aufwändigen Tiefpass vereinfacht.

Bild 24. Beispiele für die Auswirkungen von geänderter SamplingRate und Bit-Tiefe. Bei der kontinuierlichen Digitaltechnik können dagegen die Wiedergabegeschwindigkeit und die Qualität durch die Anzahl der benutzten Koeffizienten stark verändert werden. Die kontinuierliche Digitaltechnik hat noch neben der Vermeidung jeglichen Sampling-Rauschens viele potentielle Vorteile. Sie betreffen auch die mögliche Komprimierung (vgl. Abschnitt 5.6). Denn es muss nicht mehr die Vielzahl der Samples übertragen werden, es genügen die wenigen Koeffizienten. In vielen Zeitabläufen gibt es längere Zeitabschnitte ohne wesentliche Änderung, dennoch muss die Sampling-Rate auf die schnellste Änderung in der Datei festgelegt werden. Beispielhaft zeigt das Bild 25. In diesem Fall sind eigentlich nur die roten Samples unbedingt notwendig. So ergibt sich ein recht ungünstiges Verhältnis zu den immer gleich dicht liegenden Proben. Mit günstigen Teilintervallen würde die Datenrate deutlich schrumpfen.

Bild 25. Ein kurzes Signalbeispiel, bei dem infolge der für die schnellsten Änderungen notwendigen Taktrate viele eigentlich nicht notwendige Samples (grün) auch benutzt werden müssen. Das lässt sich noch deutlicher mit Sonderfällen demonstrieren. Von einer Grafik soll z. B. gemäß Bild 26 ein Kreis digital übertragen werden. Dann genügen für die Datei der digitalisierte Mittelpunkt und Radius statt der sonst notwendigen digitalisierten 33 x-y-Werte. Zusätzlich ist der Kreis trotz der etwas abweichenden Werte sogar viel exakter sichtbar. ---- 68 ----

Bild 26. Vergleich von üblicher und kontinuierlicher Digitalisierung von einem Kreis. Leider ist es bisher nicht gelungen diese hocheffektive neue Technik zur breiten Anwendung zu bringen. Sennheiser hat zwar einen erfolgreichen Versuch zur Schallübertragung durchgeführt. Es fehlen aber vor allem die Normung und ein Industriezweig, der sich dafür mit Kapital einsetzt. Der weit verbreiteten üblichen Digitaltechnik mit den dazu entwickelten Datenhilfsmethoden (Cuttern usw.) ist nur sehr schwer Konkurrenz zu machen.

5.3.4 Kontinuierliche Entropie und Kanalkapazität Im Abschnitt 5.1.2 ist die Entropie für diskrete Werte aus dem Alphabet und deren Wahrscheinlichkeiten hergeleitet. Hier wird sie nun für kontinuierliche Signale bestimmt. Dabei wird vom gesamten Signalverlauf der Datei ausgegangen (Bild 27). Es werden Amplitudenintervalle 'x gebildet und dazu die Zeiten bestimmt, in denen das Signal in ihnen erscheint. So entstehen für 'tn die roten Balken in b). Dann wird zu differentiellen Gx mit 'x o 0 übergegangen. Durch Integration ergibt sich dann der Verlauf der Wahrscheinlichkeitsdichte p(x) gemäß Bild 25c). Sie zeigt erneut, dass bei kontinuierlichen Signalen immer Störungen (Unsicherheiten) auftreten.

Bild 27. Zur Gewinnung des Verlaufs der Wahrscheinlichkeitsdichte. Mit p(x) kann unmittelbar kein Codeaufwand berechnet werden. Selbst für den Grenzwert der Entropie sind neue Berechnungswege erforderlich. Sie gibt es aber in der Originalarbeit von Shannon nicht. Er geht einen deutlich anderen Weg (vgl. Bild 28). Eine zwar einsichtige, aber leider mathematisch nicht korrekte Ableitung stammt von Zemanek [Zem75]. Als 'x-Pendant mit den einzelnen pn = 'tn zur diskreten (digitalen) Entropieformel gilt zunächst ---- 69 ----

n

H (n, 'x)  lim pi ('x) ˜ 'x ˜ ld( pi ('x)) ˜ 'x) . N¦ i 0 'x o 0 n of

Die Grenzübergänge 'x o 0 und n o f führen zum Integral und benötigen die Wahrscheinlichkeitsdichte p(x). Infolge des Logarithmus kann das Produkt unter dem Integral in eine Summe zerlegt werden:

H ( x) 

f

n

³ p( x) ˜ ld( p( x)) ˜ dx  lim N ¦ p ('x) ˜ ld( p ('x)) ˜ 'x . i

f

i

'x o 0 i 0 n of

Der zweite Teil divergiert wegen lim N log( 'x ) o  f . 'x o 0

Deshalb wird nur der erste Term als relative (Nutz-) Entropie weiter benutzt:

hNutz ( x) 

f

³ p( x) ˜ ld( p( x)) ˜ dx .

f

Dazu gehört die Bedingung f

³ p( x)dx

1.

f

Das hNutz verwendet ohne Ableitung auch Wiener [Wie48] auf S. 105 gemäß

³

f

f

ld f x ˜ f ( x) ˜ dx

und nennt es nicht ganz korrekt negativen Informationsgehalt. Nun wird benutzt, dass t-kontinuierliche Signale stets von Störungen überlagert sind. Auch auf sie kann obige Ableitung angewendet werden und führt dann zur relativen Stör-Entropie hStör(x). Sie ist von der oben bestimmten relativen Nutz-Entropie hNutz(x) abzuziehen7. Dann folgt:

H k ( x ) hNutz ( x )  hStör ( x ) . Gehorchen das Signal und die Störung einer Normalverteilung, so folgt nach längerer Rechnung § P  PS · H k ld ¨ N ¸. © PS ¹

Dabei sind PN die Nutz- und PS die Störleistung des Signals8. Diese Formel beweist Shannon deutlich anders (s. Bild 27). Leider ist es für die relativen Entropien hNutz und hStör recht schwierig, Formeln für die meisten statistische Wahrscheinlichkeitsverteilungen beim Signal und/oder bei der Störung herzuleiten. Zuweilen sind anschließend komplizierte Randwertaufgaben zu lösen Die gebräuchlichste obige Ableitung gilt nur für die Gauß-Verteilung beim Signal und Rauschen. Für amplitudenbegrenzte Signale mit x1 d x d x2 o p(x) = 1/(x2-x1) leitet sich noch relativ einfach h(x) = ld(x2 –x1) ab. Jedoch bei leistungsbegrenzten Signalen mit f

xm 2

³x

2

˜ p ( x ) ˜ dx

folgt bereits die Verteilung

f 7

p ( x)

2 1 ˜ e  ( x / xm ) / 2 . xm ˜ 2 ˜ S ˜ e

Es spricht vieles dafür, dass der pfiffige Zemanek diese Ableitung nur spaßig, didaktisch gemeint hat. Denn jeder Oberschüler sollte wissen, dass +f weniger -f nicht Null ergeben muss. Im Englischen sind meist noise und signal gemäß PN o Ps und PS o Pn gebräuchlich.

8

---- 70 ----

Hieraus ergibt sich

hNutz ( x) ld( xm ˜ 2 ˜ S ˜ e | ld(4,133 ˜ xm ) . Die folgende Zusammenstellung erfasst die bisher wohl nur berechneten Verteilungen. Details dazu enthält vor allem [Pet67], ausführlich referiert in [Völ82], S. 28ff.

Shannon leitet die kontinuierliche Entropie mittelbar über eine weitere wichtige Größe, die Kanalkapazität CK ab. Sie gibt an, wie viel Information (Bit/s) einen Übertragungskanal mit der Bandbreite B maximal passieren kann. Wegen des Sampling-Theorems besteht ein Signal der Zeitdauer T aus n = 2˜B˜T Samples. Sie werden in einem Raum mit n = 2˜B˜T Dimensionen angeordnet. Für die Kugel mit dem Radius r beträgt dann das Volumen V

rn

S n/2 §n · * ¨  1¸ ©2 ¹

.

Mit einer Konstanten a folgt aus der Leistung P ein a ˜ P . So kann das Volumen für die Radius r Nutzenergie PN und Störenergie PS berechnet werden. Damit lässt sich bestimmen, wie viele Störkugeln in der Nutzkugel Platz haben (Bild 28) nn2AS˜B˜T d

VN VS

§ PN · ¨1  ¸ © PS ¹

2˜ B˜T

.

nAS entspricht der Anzahl unterscheidbarer Zeichen/Sample und ihr Logarithmus der maximalen Anzahl unterscheidbarer Bit. Bild 28. Im 2˜B˜T-Raum des Signals befinden sich die kleinen Störkugeln. Für die Kanalkapazität ist noch die Normierung auf die Zeit notwendig. Daher gilt ---- 71 ----

CK

ld(nAS ) T

§ P · 2 ˜ B ˜ ld ¨1  N ¸ . PS ¹ ©

So ergibt sich erneut (bei Shannon ursprünglich), die im vorherigen Abschnitt (fast nachlässig) abgeleitete kontinuierliche Entropie. Folglich können in beiden Fällen analog unterscheidbare Amplitudenstufen nAS

PN  PS PS

eingeführt werden. Daher gilt für die kontinuierliche Entropie auch immer Hk = ld(nAS).

5.3.5 Logarithmische Amplitudenstufen Bei den meisten Signalen ist die Intensität und Verteilung der Störung unabhängig vom Signal. Es erfolgt eine rein additive Überlagerung. Deutlich anders verhält sich u. a. der klassische (direkte) Magnetbandkanal (Details im Abschnitt 5.6.1). Bei ihm überlagern sich, wie es Bild 29 ausweist, zwei nahezu unabhängige und deutlich unterschiedliche Störquellen. Die konstante Rauschquelle überlagert sich additiv dem Signal us. Die zweite ist als multiplikatives Rauschen dem Nutzsignal un mit einem „Modulationsgrad“ m proportional m˜un aufgeprägt. Sie rührt von den vielen im Magnetband statisch verteilten Magnetpartikeln her und wirkt sich daher multiplikativ zum Signal aus. So beträgt die Gesamtstörung uSt = us r m˜un. Die im Bild 29b auch eingezeichneten und immer etwas vorhandenen Zeitfehler können für die Entropie unbeachtet bleiben. Sie wirken sich erst bei der nutzbaren Kanalkapazität negativ aus. Durch das Zusammenwirken beider Rauschstörungen entsteht eine komplexe (teilweise logarithmische) Wahrscheinlichkeitsverteilung, wie sie im Bild 28c angedeutet ist. Bild 29. Beispiel für ein Signal mit zusätzlich störender Amplitudenmodulation, wie es z. B. beim klassischen Magnetbandkanal auftritt. a) Zusammensetzung der Signale, b) Schema für die Einflüsse, c) eine dabei auftretende Wahrscheinlichkeitsverteilung. Alle meine Versuche hiermit die Entropie über die dazugehörende Verteilung p(x) zu berechnen scheiterten kläglich9. 9 1962 erfolgte in Stuttgart eine Dissertation von Erich Pfeiffer „Über die Kanalkapazität von Magnetbandsystemen“. Ich erhielt sie jedoch erst 1964. Bei angeblich exakter Rechnung enthielt sie das gleiche Ergebnis. Leider enthielt sie aber mehrere erhebliche Rechenfehler. Auf meinen Hinweis hin bekam ich vom Autor nur etwa folgende Antwort: Das interessiert mich überhaupt nicht mehr. Ich habe jetzt hier in den USA einen guten Job, und das genügt mir.

---- 72 ----

Daher wählte ich den Weg über die unterscheidbaren Amplitudenstufen [Völ59a]. Zunächst ist dazu die Grenze zwischen zwei benachbarten Stufen zu bestimmen (Bild 30a): un˜(1+2˜m) + us = un+1˜(1-2˜m) - us. Infolge der Abgrenzung zwischen je zwei Stufen entstehen unterschiedlich große Amplitudenstufen. Ihre Berechnung erfolgt indirekt mit der Substitution u un1 1  2m . un un  s , aus ihr folgt dann 2˜m un 1  2m Für n Stufen gilt daher

un1 u1

n

§ 1  2m · ¨ ¸ . © 1  2m ¹

Nun kann die Substitution zurückgenommen werden. Als größtmöglicher Wert wird un+1 = ug gewählt. Für die dann mögliche Anzahl nAS der unterscheidbaren Amplitudenstufen folgt schließlich

2˜m˜

ug

1 ug us ln §¨ 2˜m˜ 1 ·¸  ln 1 2˜m uk ¹ 2˜m 1 © 1 |  1. 2˜m 1  2˜m log 1  2˜m

2 ˜ log nAS

Die Auswertung der Formel für den maximalen Störabstand ug/us zeigt Bild 29b. Mit zunehmenden Modulationsgrad m sinkt die Stufenzahl nAS und kontinuierliche Entropie Hk erheblich.

Bild 30. Zur störenden Amplitudenmodulation: a) Bestimmung der Grenze zwischen zwei benachbarten Amplitudenstufen, darunter das additive Grundrauschen); b) die Auswirkung des störenden Modulationsgrades m auf die unterscheidbaren Amplitudenstufen nAS ubnd erreichbare Entropie H des Kanals.

Bedeutsam ist, dass eine sehr ähnliche logarithmische Verteilung von Amplitudenstufen auch bei unseren Sinnen auftritt. Der Zusammenhang wird Weber-Fechner-Gesetz genannt. Es geht auf Untersuchungen von Weber 1834 und Fechner von 1860 zurück [Sch93]. Die subjektive Wahrnehmung Y (gemessen mit der vergleichenden Kraft an der Federwaage, Bild 31) folgt mit guter Näherung dem Logarithmus der Energie des physikalischen Reizes R: Y = a + b.log(R). Mit einer Konstanten k und einem Anfangsreiz R0 kann das auch so geschrieben werden Y | k˜(R-R0S)n. ---- 73 ----

Die einzelnen Werte hängen dabei stark vom jeweiligen Sinn ab. Für den Exponenten, den Dynamikbereich und die unterscheidbaren logarithmischen Stufen gilt die Tabelle [Völ99], S. 20. Reizart Schmerz Wärme Schwere Druck Kälte Vibration Schall Licht

Exponent n 2,1 1,6 1,5 1,1 1,0 0,95 0,6 0,33

Dynamikbereich 15 dB; 1:8 33 dB; 1:40 24 dB, 1:17 20 dB; 1:10 20 dB; 1:10 50 dB; 1:300 100 dB; 1:105 130 dB; 1:3˜106

Unterscheidbare Stufen |5 |20 |50 |50 |10 |100 |400 Lautstärken |600 Helligkeiten

Bild 31. Die typischen Abhängigkeiten zwischen der physikalische Reiz-Energie (Intensität) und deren subjektiver Wahrnehmung.

5.3.6 Anwendung der kontinuierlichen Entropie Die ursprüngliche diskrete (digitale) Entropie weist aus, wie viele Bit/Zeichen im statistischen Mittel mindestens für eine digitale Codierung notwendig sind. Wenn die Taktrate bekannt ist, folgt daraus auch die kürzest mögliche Übertragungszeit je Zeichen. Dabei können allerdings diese Grenzwerte oft nicht ganz erreicht werden (s. Abschnitt 5.1.2). Für kontinuierliche Signale ist jedoch keine digitale Codierung möglich. Daher muss die kontinuierliche Entropie eine andere Bedeutung haben. Sie ist besonders einsichtig für eine festgelegte Informationsmenge I. Bei einer Übertragungsdauer TÜ folgt sie unmittelbar aus der oben bestimmten Kanalkapazität CK zu I

TÜ ˜ CK

§ P · ld(nAS ) TÜ ˜ 2 ˜ B ˜ ld ¨1  N ¸ TÜ . . P T0 S ¹ ©

Die drei darin enthaltenen Größen Übertragungszeit TÜ, Bandbreite B und Störabstand PN/PS bzw. nutzbare Amplitudenstufen nAS und Einschwingzeit T0 des Systems sind gegeneinander durch Modulationen usw. veränderbar. Maximal ist dabei jedoch entsprechend der kontinuierlichen Entropie nur der gleiche Wert wie ohne Modulation erreichbar. Bezüglich Störabstand und Bandbreite zeigt einige Möglichkeiten Bild 32a. Die mit verschiedenen Pulscode-Modulationen PCM erreichbaren Werte bleiben immer deutlich kleiner als die theoretischen Grenzwerte. Bild 31b zeigt ähnliches für das Verhältnis von Nutzbandbreite des Signals BNF zur genutzten Hochfrequenz BHF in Bezug zum Verhältnis CK/BNF. Auch hier werden die theoretischen Grenzwerte mit Ausnahme der Einseitenband-Amplitudenmodulation (AM-1SB) deutlich unterschritten. Diese Austauschmöglichkeiten ergänzt die Digitaltechnik durch Stückelungen von Informationsmengen sowie Verschachtelungen unterschiedlicher Informationsarten. Dazu zeigt Bild 33 einige typische Beispiele. ---- 74 ----

Bild 32. Zum Austausch von Kenngrößen bei einigen (teilweise) kontinuierlichen Modulationen.

Bild 33. a) Generelle Möglichkeiten des Austausches von Übertragungszeit, Bandbreite und Strörabstand für eine gegebene Informationsmenge, b) zusätzliche Möglichkeiten durch Verschachtelung (Multiplex von I1, I2 bis In) bei digitalen Techniken. Das Prinzip des Zeitmultiplexes erfolgt gemäß Bild 34. Es müssen lediglich die Zeitdauer und Taktrate der Teilsignale aufeinander abgestimmt sein. Das ist leicht durch Zwischenspeicherung – allerdings mit gewisser Verzögerung – zu realisieren.

Bild 34. Prinzip zur digitalen Signalverschachtelung.

---- 75 ----

Noch deutlicher sind die Austauschmöglichkeiten bei Dynamikregelungen bzw. mittels Pilotton. Hierzu führte ich bereits in den 1950er Jahren erfolgreiche Versuche durch. Beim klassischen Magnetband ist infolge der störenden Amplitudenmodulation die direkte Messung auf etwa r10 % begrenzt. Mit der konstanten Amplitude einer Frequenz, die in der Messung nicht vorkommt, lässt sich die störende Modulation mit Regelung deutlich verringern [Völ58b]. Das Prinzip zeigt Bild 35. Den erreichten Gewinn auf etwa 1 % zeigt Bild 36. Allerdings ist hierbei der Messbereich deutlich unter die ursprünglichen 60 dB gesunken. Bild 35. Prinzip der Nutzung eines Pegeltones zur deutlichen Erhöhung der Messgenauigkeit beim Magnetbandgerät.

Bild 36. Ein Messprotokoll: links eingeschalteter Pilotton und rechts abgeschaltet.

Weitaus universeller ist die bereits damals von mir erprobte reziproke Dynamikregelung [Völ58a]. Mit ihr wurden die logarithmischen Amplitudenstufen umverteilt. Bei ähnlichem Gewinn wurde dabei der nicht immer mögliche Pilotton überflüssig. Umgekehrt ließ sich mit so künstlich vergrößerten Amplitudenstufen die Dynamik für Schallaufzeichnungen deutlich steigern. Das wurde erst viel später und wird z. T. auch noch bei den Dolby-Verfahren benutzt. Das Prinzip hierfür zeigt Bild 37.

Bild 37. a) Schaltprinzip der reziproken Dynamikregelung, b) Überblick der Auswirkung zur Erhöhung der nutzbaren Dynamik, c) auf Kosten der höheren störenden Amplitudenmodulation.

5.3.7 Energie je Bit Am Anfang von Kapitel 1 befindet sich das Wiener-Zitat für seine kurze Benennung der Information. Fast unmittelbar davor steht in Bezug auf den Leistungsverbrauch des Gehirns für die geistigen Operation: „Trotzdem ist die Energie, die für eine einzelne Operation verbraucht wird, beinahe verschwindend gering“ [Wie48], S.192. Dazu wird nun die entsprechende minimale Energie für 1 ---- 76 ----

Bit mittels der Kanalkapazität berechnet. Dabei wird angenommen, dass die Störleistung allein durch thermisches Rauschen bestimmt PS = k˜B˜T. Darin sind B die Bandbreite, T die absolute Temperatur und k = 1,381˜10-23 J/K die Boltzmann-Konstante. Die Nutzleistung PN sei das z-Fache der Störleistung PN = z˜PS. Für das Verhältnis von Nutzleitung zur Kanalkapazität CK ergibt sich dann

PN CK

k ˜T ˜

z ld (1  z )

gemessen in

J W bzw. . Bit Bit/s

Mit einer Reihenentwicklung z ln(1  z )

1 z z 2 z3 1    r ... 2 3 4

ergeben sich die Grenzen des Quotienten zu

1

z o 1 für z o 0 . ln(1  z )

Daher gilt für die Energie je Bit

E t k ˜ T ˜ ln(2). Bit Bei 300 K (| Zimmertemperatur) folgt E/Bit t 3.10-21 J # 5˜1011 Hz # 5˜10-22 cal # 26 mV. Genau dieser Wert lässt sich auch quantentheoretisch herleiten (Kapitel 8). Bei der minimalen Energie je Bit strebt jedoch der Störabstand des Signals gegen Null. Das würde extrem große Fehlerraten hervorrufen. Für Anwendungen ist daher eine deutlich größere Energie erforderlich. Bild 38a weist dazu aus, um wie viel die minimale Energie für einen hinreichenden Störabstand erhöht werden muss. Bild 38b ergänzt die Aussage bezüglich des digitalen Fehlers infolge des thermischen Rauschens. Für eine brauchbare Fehlerkorrektur (Abschnitt 5.5) sollten die Fehler maximal bei 10-5 liegen. Das entspricht etwa 15 dB und verlangt die zehnfache Energie. Bild 38. Erforderliche Energie/Bit, a) bezüglich Störabstand und b) Fehlerrate.

Wie gering die notwendige Energie des Informationsträgers bei einem dennoch wirksamen Vortrag zu den möglichen entsetzlichen Folgen der Kernenergie sein kann, berechnete vielleicht als erster Buchwald [Buc50], S. 145: „Man stellt fest, dass eine Stunde Redens energetisch einen Liter Wasser um 2/10 000 ºC erwärmen könnte – um wie viel weniger die Masse der Zuhörer. Dieser geringe Nutzeffekt ist für den Redner wahrhaft erschütternd - als Trost bleibt, dass menschliche Wechselbeziehungen denn doch nicht so einfach in einer physikalischen Bilanz niederzulegen sind.“

5.3.8 Vor- und Nachteile von t-kontinuierlich sowie digital Mehrfach wurde gezeigt, dass digitale und kontinuierliche Signale erheblich unterschiedliche Eigenschaften besitzen. Bezüglich der Entropie sei das noch einmal mit Bild 39 hervorgehoben. Eine weitgehend vollständige Übersicht – vor allem ihrer Vorteile und Nachteile – zeigt die Tabelle. ---- 77 ----

Bild 39. Die Störungsunterschiede beim digitalen und kontinuierlichen Kanal. kontinuierlich (technisch)

digital (diskret)

Vorteile (Stärken, Nutzen) x Die Signale sind weitgehend fehlerfrei zu Sie Treten fast ausschließlich bei technispeichern, vervielfältigen, übertragen und schen Sensoren, Aktoren, den menschlichen regenerieren. Sinnen und Handlungen auf. x Sehr unterschiedliche Signale lassen sich x Mit einer Verstärkung sind beliebig kleine problemlos verschachteln (Bild 33). und für Aktoren, wie Lautsprecher und Motoren beliebig große Signale anwendbar. x Fehlererkennung, -korrektur und verlustx Bei akustischen Signalen setzen bei einer freie Komprimierung sind möglich. Übersteuerung die Verzerrungen relativ x Es gibt wirksamen Datenschutz (Verschlüsweich ein. selung, Kryptografie). Nachteile (Schwächen) x Die Signale müssen hinreichend groß sein x Bei jeder Übertragung, Speicherung und und auf einen eng begrenzten Pegel Vervielfältigung kommen Störungen, zufestgelegt sein. mindest Rauschen hinzu. x Der Takt darf nicht verloren gehen. x Jeder Signalwert besitzt einen Erwartungsx Bei der üblichen Digitalisierung tritt wert und eine Streuung. störendes Sampling-Rauschen auf. Zumindest bei der Übertragung und Speicherung überwiegen also deutlich die Vorteile der digitalen Technik. Das verlangt aber, dass alles (u. a. Sprache, Begriffe, Zeit usw.) in Zahlen (-Zeichen) codiert werden muss. Dennoch sind immer, meist sogar primär und zusätzlich kontinuierliche Signale notwendig, ja unvermeidlich. Daher ist es nicht verwunderlich, dass sich bereits seit dem Altertum und auf fast allen Gebieten die kontinuierliche und diskrete (Welt-) Beschreibung gegenüberstehen. Für Planck war es ein unerfreulicher Akt der Verzweifelung von der kontinuierlichen Physik mit Differentialgleichungen zu den diskreten Lichtquanten überzugehen.

x

Typ

Griechen Mathematik Antinomien Paradoxien Methoden Beschreibung Geräte Entsprechung Übergang

kontinuierlich

diskret

Aristoteles Demokrit unendlich endlich Xenon Pfeil Hilbert-Hotel, grot = grün-rot Alle Raben sind schwarz Kretaer Lügner Xenon Wettlauf Gödel-Unentscheidbarkeit Limes, Differential Zählen (Messen) Differentialgleichungen Algorithmen Analogrechner Digital-Computer Welle Korpuskel, Quant Bohr’sches Korrespondenz-Prinzip; Heisenberg-Unbestimmheit ---- 78 ----

5.4 Weitere Entropien Der Begriff Entropie ist heute für über zehn mathematische Formeln und deren Kontext gebräuchlich. Dabei gibt es nur selten ähnliche oder gar übereinstimmende Inhalte. Weil aber der Gehalt der Formeln von vielen nicht richtig verstanden wird, werden oft – sogar bei Experten mehrerer Gebiete – erheblich falsche Kombinationen und Folgerungen abgeleitet. Mehrfach betreffen sie einen vermuteten (behaupteten) aber falschen Zusammenhang zwischen thermodynamischer und Shannon-Entropie(s. u.), oder sogar behaupten sogar ihre Gleichheit.

5.4.1 Clausius-Entropie Den ursprünglichen Entropie-Begriff (s. u.) beschrieb Clausius 1865. Er betrifft jenen Energieanteil, der von der Wärme-Energie maximal mechanisch (z. B. bei der Dampfmaschine) nutzbar gemacht werden kann. Jedoch damit das Zitat gut verstanden wird, sind zunächst einige thermodynamische Grundlagen und insbesondere der Carnot’sche Kreisprozess von 1824 zu beschreiben [Car09]. Ab Mitte des 16. Jh. war die Dampfmaschine gut bekannt. Mit ihr begann die industrielle Revolution. Wie groß der technische Fortschritt war, ist schon daran zu erkennen, dass die Leistung in Pferdestärken (PS) gemessen wurde. Jeder gute Ingenieur konnte damals eine Dampfmaschine bauen und einsetzen. Einige Zeit zuvor wurde Wärme noch als Stoff betrachtet. Doch bereits 1738 hatte Bernoulli sie als ungeordnete Bewegung der Moleküle erkannt. 1843 formulierte Mayer den Energie-Erhaltungssatz. Wenig später präzisierten ihn Joule und Helmholtz. Das führte zum 1. Hauptsatz der Thermodynamik und 1851 formulierte Kelvin den 2. Hauptsatz. Damit waren die wesentlichen Grundlagen der Thermodynamik vorhanden. Heute gibt es 3 Hauptsätze der Thermodynamik, denen zuweilen ein nullter vorangestellt wird, so gilt: 0. Streben nach Gleichgewicht: Nach hinreichend langer Wartezeit stellt sich in geschlossenen Systemen immer ein Gleichgewicht ein, bei dem alle Temperaturdifferenzen ausgeglichen sind und sich die makroskopischen Größen, wie Druck, Temperatur, Volumen usw. nicht mehr ändern (Tendenz in den Bildern 2.21 und 2.22). 1. Energieerhaltung: Für die Gesamtenergie eines Systems gilt U =3/2˜N˜k˜T; N= Teilchenzahl, k = Boltzmann-Konstante und T = absolute Temperatur. Die Änderung der inneren Energie 'U = A + Q besteht aus mechanischer Energie (Arbeit) A und Wärme Q. Mechanische Energie ist immer vollständig in Wärme umwandelbar, aber nicht umgekehrt (Zeitpfeil: Bild 2.21 und 2.22). Es gibt kein Perpetuum Mobile 1. Art, das dauernd Energie erzeugt, ohne sie der Umgebung zu entziehen. Hieraus folgt der noch zu beschreibende Carnot-Kreis-Prozess (s. u.). 2. Der wesentliche Inhalt betrifft die thermodynamische Entropie in zwei Varianten: 1854 Clausius: 'S = 'Q/T gemäß dem Kreisprozess und 1857 Boltzmann: S = kB ln(W), auch als H-Theorem bezeichnet. Boltzmann benutzt dabei nur die Wahrscheinlichkeit W des aktuellen Zustandes und nicht die Temperatur. kB ist die Boltzmann-Konstante. 3. Betrifft den absoluten Nullpunkt T = 0, der 1848 von Kelvin vorgeschlagen wurde. Die Zusammenstöße der Moleküle führen letztlich zur Gleichverteilung aller Teilchen (Zeitrichtung in Bild 2.22). Am Nullpunkt besitzt dann das System keine Anregungsenergie mehr. Hier herrscht der Wärmetod. Experimentell ist er jedoch nie erreichbar. Jedoch die Entwicklung dorthin entspricht der Irreversibilität der meisten natürlichen Prozesse. Aus ihm folgt noch die Unmöglichkeit des Perpetuum mobile 2. Art, das ständig periodisch Wärme in Arbeit wandeln könnte. Dies ist zwar nicht beweisbar, wird jedoch immer wieder beobachtet und bestätigt! Für seinen Kreisprozess ging Carnot 1824 von zwei idealen Wärmequellen mit den konstanten Temperaturen Tv > Tu (Verbrennungs- und Umwelttemperatur) aus. Weiter setzt er ein sehr gut isoliertes Zylindergefäß mit einem verschiebbaren Kolben voraus. Er dient der mechanischen EnergieAnkopplung. Das verfügbare Volumen des Kolbens wird zwischen V1 und V2 geändert. Das Zylindergefäß wird nun wahlweise mit den Temperaturen Tv oder Tu fest gekoppelt. Bei der jeweils konstanten Temperatur werden durch die Volumenänderung die hyperbelförmigen Isothermen durch---- 79 ----

laufen (Gas-Gesetze). Die geradliniegen Isochoren entstehen beim Abkühlen bzw. Erhitzen, wobei das Volumen konstant gehalten wird. Entlang den großen Pfeilen (in Bild 40) entsteht so der Kreisprozess. Er begrenzt die Arbeitsfläche. Sie entspricht der aus der Wärmeenergie 'Q gewonnenen mechanischen Energie 'W. Eine größere Menge nicht möglich. Daher gilt für den maximalen Wirkungsgrad

K

'Q Tv  Tu . d 'W Tv

Bild 40. Der typische, thermodynamische Kreisprozess. Die beiden Teilbilder benutzen lediglich unterschiedliche Koordinaten. Auf Grundlage dieser Theorie entwickelte Diesel seinen deutlich besseren Verbrennungsmotor, für den er 1892 das Patent erhielt. Aus der obigen Formel leitete Clausius seine Entropie ab: 'S = 'Q/T . Und genau hierzu gehört das Clausius-Zitat von 1865 (zitiert nach [Eig83] S. 164): „Sucht man für S (die Entropie) einen bezeichnenden Namen, so könnte man, ähnlich wie von der Größe U (der inneren Energie) gesagt ist, sie sey der Wärme- und Werkinhalt des Körpers, von der Größe S sagen, sie sey der Verwandlungsinhalt des Körpers. Da ich es aber für besser halte, die Namen derartiger für die Wissenschaft wichtiger Größen aus den alten Sprachen zu entnehmen, damit sie unverändert in allen neuen Sprachen angewandt werden können, so schlage ich vor, die Größe S nach dem griechischen Worte »tropae«, die Verwandlung, die Entropie des Körpers zu nennen. Das Wort Entropie habe ich absichtlich dem Wort Energie möglichst ähnlich gebildet, denn die beiden Größen, welche durch diese Worte benannt werden sollen, sind ihren physikalischen Bedeutungen nach einander so nahe verwandt, daß eine gewisse Gleichartigkeit in der Benennung mir zweckmäßig zu seyn scheint.“ Dieser Inhalt kann verallgemeinert auf alle Entropien umgedeutet werden. Davon bleibt dann nur noch die Aussage übrig, dass Entropien den maximal möglichen Austausch von Parameter-Werten der jeweiligen Formel ermöglichen. Wichtig ist dabei, dass Boltzmann noch eine andere Berech-

---- 80 ----

nung, Interpretation und damit Formel für die Clausius-Entropie fand, welche Wahrscheinlichkeiten benutzt.

5.4.2 Boltzmann-Entropie 1859 gelang es Maxwell die Geschwindigkeitsverteilung der an sich bekannten statistischen Bewegungen der Moleküle eines Gases genauer zu bestimmen (Bild 2.21). Bei der absoluten Temperatur T und der Masse m der Moleküle beträgt deren mittlere Geschwindigkeit vth

2 ˜ k ˜T . m

Diese Betrachtung erweiterte Boltzmann ab 1868 und 1872 gelang es ihm schließlich, ein statistisches Äquivalent zur Clausius-Entropie abzuleiten. Mit der Wahrscheinlichkeit W des jeweils aktuellen Zustandes gewann er die Formel für die Boltzmann-Entropie S = k˜ln(W) . Um dabei eine exakte Übereinstimmung mit Clausius zu erhalten, waren der natürliche Logarithmus und die Boltzmann-Konstante mit k | 1,38065...·10-23 Joule/Kelvin erforderlich. Es fällt auf, dass hierin Energie und Temperatur nicht mehr vorkommen. Außerdem gilt infolge des Logarithmus, dass sich die Wahrscheinlichkeiten multiplizieren W = W1˜W2, aber die Entropien addieren S = S1 +S2. Ähnlich wie es bei Shannon die diskrete und kontinuierliche Entropie gibt, so bestehen auch hier zwei thermodynamische Entropien. Zur Ableitung der obigen Formel müssen zunächst Makro- und Mikrozustände eingeführt werden. Ein Makrozustand betrifft ein System aus n Mikrosystemen, die zu einer Einheit zusammengefasst sind. Jedes Mikrosystem möge zi Zustände annehmen können. Der Makrozustand fasst dann mehrere Mikrosysteme und deren Zustände zu einer Einheit zusammen und bestimmt die dafür auftretenden Wahrscheinlichkeiten. Mit Bild 41 sei dafür eine Urne mit zwei Mulden eingeführt. Zufällig und aus beachtlicher Entfernung werden dann Kugeln hineingeworfen.

Bild 41. Urnen als Mikro- (oben) und Makrosystem (unten) nach dem Einwerfen von Kugeln.

Beim Mikrosystem existiert nur eine Kugel, die daher gleichwahrscheinlich in die linke oder rechte Vertiefung fallen kann. Makrosysteme verwenden mehrere Kugeln und führen je nach deren Anzahl zu den darunter gezeigten Wahrscheinlichkeitsverteilungen. Je mehr Kugeln für das Makrosystem verwendet werden, desto mehr verschiedene Zustände sind möglich und desto unterschiedlicher werden die dazugehörenden Wahrscheinlichkeiten. Vereinfacht ergibt sich auf diese Weise für jeden einzeln möglichen Makrozustand die Boltzmann-Entropie gemäß der obigen Formel. Der wesentliche Unterschied zur Realität besteht darin, dass in der Thermodynamik ein Makrosystem aus sehr vielen Molekülen besteht und zusätzlich alle in Bewegung sind. Übertragen auf das Bild bedeutet das, dass einzelne Kugeln mit hinreichender Bewegungsenergie über die Muldentrennung hinaus in andere Mulden springen können. Je länger dabei gewartet wird, desto wahrscheinlicher ---- 81 ----

wird der Zustand mit der größten Wahrscheinlichkeit. Das entspricht dem Streben zum o. g. Wärmetod. Zur weiteren Vertiefung der Aussagen werden als Mikrosysteme jetzt Würfel angenommen. Dann ergibt sich Bild 42. Mit den dabei auftretenden Möglichkeiten (Augenzahlen) werden die Unterschiede für Makrosysteme und die möglichen Tendenzen durch Schütteln noch deutlicher. Letztlich ist auch das Hund-Flöhe-Modell vom Abschnitt 2.5 einschließlich aller dort genannten Folgen so erklärbar.

Bild 42. Mikro- und Makrosyteme mit Würfeln. Die möglichen Zahlenkombinationen bei nicht unterscheidbaren Würfeln führen zu den Wahrscheinlichkeiten der verschiedenen Augenzahlen. Die Betrachtungen erklären auch die prinzipielle, wenn auch sehr kurzzeitige Wiederkehr eines sehr unwahrscheinlichen Zustands in Bild 2.21 unten. Ein ergänzendes Beispiel zu all diesen Fakten zeigt Bild 43. Darin ist auch eine Abschätzung zur Entwicklung unserer Welt versucht.

Bild 43. Beispiele von Makrosystemen und deren wahrscheinliche Entwicklung, einschließlich der Wartezeiten, die für ein durchaus mögliches, wenn unwahrscheinliches Eintreten seltener Zustände notwendig sind.

Heute gelten die Ergebnisse von Boltzmann als eine besonders große wissenschaftliche Leistung. Doch zu seiner Zeit war das deutlich anders. Von den meisten Physikern wurde sie aus zwei Gründen stark kritisiert. Zunächst galt die Atom-Annahme als unbegründet, teilweise sogar als falsch: „Hat denn schon jemand ein Atom gesehen?“ Das galt sogar, obwohl sie in der Chemie durch Dalton für die Stöchometrie eingeführt und generell sehr erfolgreich benutzt wurden. Der zweite Widerspruch kam vor allem von Mach, Ostwald, Poincaré und Zermelo. Er betraf die statistische ---- 82 ----

Irreversibilität sowie die Ableitung des 2. Hauptsatzes aus reversiblen Mikrozuständen. Das trieb Boltzmann schließlich am 5.9.1906 in den Freitod. Hierzu stellte Planck später fest, dass sich eine neue wissenschaftliche Wahrheit normalerweise „nicht in der Weise durchzusetzen pflegt, daß ihre Gegner überzeugt werden und sich, als belehrt erklären, sondern vielmehr dadurch, daß die Gegner allmählich aussterben und daß die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht wird“.

5.4.3 Thermodynamische kontra Shannon-Entropie In der Literatur werden häufig – selbst von hervorragenden Wissenschaftlern – die thermodynamische und Shannon-Entropie fälschlich in (sehr) enge Beziehung zueinander gebracht. Um das genauer zu analysieren, werden zunächst deren vier Varianten (Formeln) zusammengestellt. Die Bezeichnungen der beiden Zeilen – kontinuierlich und diskret/digital – sind dabei allerdings nur z. T. korrekt. Es gibt z. B. immer endlich viele Amplitudenstufen nAs , aber das dazugehörende Signal ist dennoch fast immer t-kontinuierlich. Bei der Boltzmann-Entropie ist die Wahrscheinlichkeit W kontinuierlich. Sie wird jedoch immer nur einzelne, oft sogar für nur einen Zustand bestimmt. Ferner fällt auf, dass die Clausius-Entropie bei allen bekannten Vergleichen nicht einbezogen wird. Sie ermöglicht offensichtlich auf keine Weise einen sinnvollen Vergleich mit der ShannonEntropie. Daten-Art

Shannon-Entropien

Thermodynamische Entropien

H K = ld(nAS ) bzw. kontinuierlich

hNutz ( x) 

f

³

p ( x) ˜ ld( p ( x)) ˜ dx

'S = 'Q/T

f

diskret/digital

n

H

 ¦ pi ˜ ld ( pi )

S = k˜ln(W)

1 1

Bevor eine detaillierte Analyse erfolgt, werden zunächst fünf wirkliche Gemeinsamkeiten herausgestellt. 1.

Beide sind Grundlage und Ursache von wissenschaftlich-technischen Revolutionen. Die Thermodynamik (Dampfmaschine) war eine wichtige Voraussetzung für die erste industrielle Revolution. Die Shannon-Entropie war die besonders wichtige Grundlage der Informationstechnik, insbesondere der Nachrichten- und Computer-Technik. 2. Beide nutzen gleichermaßen den Logarithmus von Wahrscheinlichkeiten. 3. Beide verweisen auf Austauschmöglichkeiten von einigen Parametern. 4. Für beide existieren zumindest teilweise jeweils mehrere Beschreibungen (Formeln) und Inhalte gemäß den beiden obigen Zeilen. Beide Entropien betreffen Theoriegrenzen, die verallgemeinert als Wirkungsgrad interpretiert werden können. Dann gilt die Gegenüberstellung nach Bild 44. Dabei ist zu beachten, dass Wirkungsgrade oft recht schwierig zu bestimmen sind, denn sie erfordern: a) die entscheidenden Parameter zu finden (z. B. Temperaturen. Wahrscheinlichkeiten), b) die genaue Kenntnis der typischen Grundlagen (Kreisprozess). c) eine Beschreibung (Formel) der Zusammenhänge so, dass eine Berechnung möglich ist. Für das Beispiel Programmieren und damit für die Informatik fehlt hierzu noch vieles, und vielleicht ist das sogar – wie beim Halteproblem – prinzipiell nicht erreichbar. ---- 83 ----

Bild 44. Versuch einer Betrachtung von Wirkungsgraden, primär bezüglich der Entropien. Als nächstes werden die wichtigsten Unterschiede herausgestellt: Die Shannonentropie fasst immer alle möglichen Informationsträger (als Zeichen für etwas, vgl. ZInformation) zusammen. Sie können dabei diskret (digital) oder z-kontinuierlich auftreten. Ihre Maßeinheit ist Bit/Zeichen, Anzahl der Amplitudenstufen nAS , oder eine Wahrscheinlichkeitsverteilung f(x). Die Boltzmann-Entropie betrifft dagegen nur die Wahrscheinlichkeit eines einzelnen Systemzustands und zeigt dann quasi an, wie weit das System vom Wärmetod – oder ähnlich von einem anderen Systemzustand – entfernt ist. Bei der äquivalenten Clausius-Entropie ist besonders deutlich die Maßeinheit der Energie je Temperatur zu erkennen. Sie entspricht daher gemäß 'S = 'Q/TK etwa den reziproken Stromkosten eines Kühlschranks bezüglich seiner InnenTemperatur TK: Je tiefer sie ist, desto höher die Stromkosten in kWh. Ergänzend demonstrieren die wesentlichen Unterschiede beider Entropien die beiden Beispiele in Bild 45. Leider hat bereits Wiener den ersten Anlass für verschiedene Falschaussagen mit dem folgenden etwas unklarem Zitat gegeben [Wie48], S. 38: „Der Begriff des Informationsgehaltes berührt in natürlicher Weise einen klassischen Begriff in der statistischen Mechanik: den der Entropie. Gerade wie der Informationsgehalt eines Systems ein Maß des Grades der Ordnung ist, ist die Entropie eines Systems ein Maß des Grades der Unordnung; und das eine ist einfach das Negative des anderen.“ Wahrscheinlich hat Wiener aus dieser Sicht Shannon den Begriff Entropie für die Formel vorgeschlagen. Doch zunächst ist dazu klarzustellen, dass Ordnung und Unordnung primär subjektive Begriffe sind. Sie verlangen immer eine Ergänzung dafür, wonach etwas geordnet wird und genau das fehlt hier. Bei der Boltzmann-Entropie dürfte Wiener darunter den Endzustand des Wärmetodes (s. o.) gemeint haben. Bei der Shannon-Entropie aber wahrscheinlich das Maximum bei gleichwahrscheinlichen Zeichen. Genau dann ist aber jegliche Ordnung der Zeichen total belanglos. So wird die Aussage, das Eine sei das Negative vom Anderen, unverständlich bis falsch. Außerdem glauben daraus mehrere folgern zu müssen, dass das Minuszeichen inhaltlich nötig sei, während es doch eigentlich nur deshalb erforderlicht ist, weil der Logarithmus einer Zahl kleiner als 1 (eben einer Wahrscheinlichkeit) sonst die Entropie negativ hätte werden lassen. So entfällt auch die zuweilen

---- 84 ----

benutzte falsche Folgerung, dass Boltzmann- und Shannon-Entropie zusammen Null ergeben, also die eine auf Kosten der anderen wächst. So gibt es z. B. von Brillouin und anderen auch den oft missbrauchten Begriff der Neg-Entropie. Sinnvoll kann er aber nur für (kurzzeitige) Entwicklungen benutzt werden die entgegengesetzt zum Wärmetod verlaufen, also in Bild 2.22 der rot gezeichneten Tendenz entsprechen. Siehe auch [Zeh05].

Bild 45. Zwei Beispiele zur Demonstration des Unterschiedes von Boltzmann- und digitaler Shannon-Entropie. Weiter sei hierzu lediglich noch die falsche Aussage von Mainzer [Mai16], S. 55 zitiert: Die formale Übereinstimmung der Entropie S eines thermodynamischen ist offenbar. In Shannons Informationsmaß H (...) wird die informationstheoretische Konstante k durch die physikalische Boltzmann-Konstante ersetzt. Man muss dabei allerdings beachten, dass Boltzmanns Entropiebegriff zunächst nur für isolierte Systeme im thermischen Gleichgewicht definiert ist. Schließlich sei noch auf Landauer und dessen falsche Behauptung verwiesen, dass nur beim Löschen eines Speichers Energie gewonnen wird [Bet88].

5.4.4 Bidirektionale Entropie Die klassische Shannon-Theorie betrachtet nur den einseitig gerichteten Informationsfluss vom Sender zum Empfänger. Marko gelang es 1965, die Theorie auf den bidirektionalen Fall zu erweitern [Mar66]. Neuberger erweiterte das Modell auf die Kommunikation zwischen beliebig vielen Partnern [Neu69], [Neu70]. Bei dieser echten Kommunikationen sind für jeden Teilnehmer 8 Informationsflüsse (Entropien) zu unterscheiden (Bild 44a). 4 bilden eine „Ellipse“, 2 betreffen Verluste und 2 weitere gehen zu bzw. von den Partnern x bzw. y aus. So geht von jedem Partner eine Gesamt-Information aus, von der aber nur ein Teil, die Trans-Information, zum Partner gelangt. Denn es gibt immer eine Verlust-Information, die u. a. durch Übertragungsverluste und Störungen bewirkt wird. Deshalb werde Kopplungen eingeführt. Sie erfolgen jeweils innerhalb der Knoten, die durch den grünen bzw. gelben Kreis gekennzeichnet sind. Die dortigen Entropie-Flüsse bestimmen die Kopplungsfaktoren kx und ky der Systeme. So ergeben sich b) und c). Aus beiden Kopplungsfaktoren kann das Kopplungsdiagramm von Bild 46b aufgestellt werden. Ist einer der Kopplungsfaktoren Null – dann liegen alle Werte auf der kx- bzw. ky-Achse und es besteht wieder die einsei---- 85 ----

tige Kommunikation. Im Ursprung kx = ky = 0 sind beide Systeme völlig entkoppelt, voneinander isoliert. Andererseits muss immer kx + ky d 1 gelten. Für den Wert 1 existiert die maximal mögliche Kopplung beider Systeme. Insgesamt ergibt sich so das braune Arbeitsdreieck der bidirektionalen Kommunikation.

Bild 46. Theorie zur und Untersuchungsergebnisse bei der bidirektionalen Information.

Mit dieser Methode hat Mayer das Verhalten von zwei Totenkopfaffen im Zoo untersucht [May78]. Er wählte dafür ein 5-Zeichen-Repertoire aus: Nebeneinandersitzen, Weggehen, Imponieren, Bedrängen und Sonstiges. Festgehalten wurden 217 Beobachtungen von jeweils 15 Minuten Dauer, die allerdings nicht alle im Original und auch hier im Bild 46c nicht eingetragen sind. Im Mittel ergab sich eine GesamtEntropie von etwa 1,1 Bit/Zeichen. Besonders aufschlussreich ist ein Dominanzwechsel zwischen den beiden Affen Tell und Fan durch einen Biss. Hierzu gehören die Beobachtungszahlen 1 bis 35 und die Informationsflüsse von Bild 46d. Zunächst ist Tell das dominante Tier. Er ist der „Held“ und hat im Wesentlichen das „Sagen“ (0,80 : 0,62). Er verfügt über die größere Gesamt-Entropie und nimmt deutlich mehr Trans-Information (0,21 : 0,03) als Fan auf. Dann biss Fan den Tell und wurde dadurch zum „Diktator“. Kurz danach bestimmt er, wie Tell sich zu verhalten hat (0,70 : 0,38). Etwa sechs Wochen später hat Fan die dominante Position mit den dazugehörenden Daten eingenommen. Auffällig ist an diesem Beispiel, dass ein Diktator mehr Information aufnimmt als er abgibt!

5.4.5 Bongard-Weiß-Entropie Sie benutzt zugleich die (übliche) objektive und die subjektive Wahrscheinlichkeit. Ihre Einführung lässt sich auch gut zur Erklärung binäre zulässige, herstellbare Zeichen, Zustände der Entropieformel nutzen. Für den Teil ld(pv) sind entsprechend Speicherplätze Symbol-Realisierungen, konkrete Zeichen 1 0000000011111111 der nebenstehenden Tabelle die m 2 0000111100001111 Speicherzellen und ihre Belegun3 0011001100110011 gen als n Zeichen zu unterschei4 0101010101010101 den. Dazu ist das binäre Zeichen n= 2m m 0110, dezimal 6 rot hervorgeho---- 86 ----

ben. Zwischen der Zahl m der Speicherzellen und der damit darstellbaren Zeichen n besteht dabei der Zusammenhang m = ld(n). Er wurde schon 1928 von Hartley als typischer Zusammenhang für die Information betrachtet. In der Entropie-Formel H  ¦ pv ˜ ld ( pv ) kann daher das vorn stehende pv als ein in der Statistik üblicher Bewertungsfaktor angesehen werden. Dann ist es nahe liegend genau hier die subjektive Wahrscheinlichkeit qv zu nutzen. Genau das führt zur Bongard-Weiß-Entropie [Bon63]

H BW

 ¦ qv ˜ ld ( pv ) .

Ihre grafische Darstellung zeigt Bild 47. Der Zusammenhang zwischen objektiver und subjektiver Wahrscheinlichkeit ist nur schematisch bekannt: Wenn ein Gewinn lockt, sind wir spontan konservativ, werden aber zum Abenteurern, sobald Verlust droht. Meist schätzen wir kleine Wahrscheinlichkeiten immer zu groß ein. Wer würde sonst schon Lotterie spielen? Wohl nur wenige aus reiner Freude! Umgekehrt werden große Wahrscheinlichkeiten fast immer zu klein eingeschätzt. Es ist gefühlsmäßig ein großer Unterschied, ob uns vor einer Operation eine Sterberate von 7% oder eine Überlebenschance von 93% angekündigt wird. Solche Zusammenhänge werden absichtlich in Spielhallen durch dichtes Aufstellen vieler einarmiger Banditen ausgenutzt. Auch wenn auf jedem einzelnen nur selten gewonnen wird, so erzeugt doch die Summe der Automaten einen beachtlichen und fast ständigen Lärm. Der dann vermuten lässt, dass oft gewonnen wird. Bild 47. Verläufe der Bongard-Weiß-Entropie. Ein anderes Beispiel betrifft ein Treffen von 24 Personen. Dabei besteht 50 % Wahrscheinlichkeit dafür, dass zwei Teilnehmer an einem gleichen Tag Geburtstag haben. Das erscheint uns intuitiv sehr unwahrscheinlich, ist aber korrekt berechnet. Aus solchen Gründen existieren nur sehr wenige Messwerte für die subjektive Wahrscheinlichkeit, die eigentlich eine Häufigkeit ist und immer meist recht unsicher geschätzt wird und daher schwer zu bestimmen ist. Einige Beispiele zeigt Bild 48a auf der nächsten Seite. Die Werte 1 bis 7 gehen auf Untersuchungen von Frank zurück. Er ließ die erste Textseite aus Musils „Mann ohne Eigenschaften“ lesen und dabei für jede Silbe mit dem Bleistift auf den Tisch klopfen. Am Ende fragte er völlig unerwartet, wie häufig bei den Wörtern die verschiedenen Silbenzahlen auftraten. [Fra69] Bd 2. S. 128. Hierbei könnte ein Zusammenhang mit der Auffälligkeit -p˜ld(p) (vgl. Bild 2.8) bestehen. Im Bild 48b sind zusätzlich einige Sonderfälle von subjektiven Einschätzungen ergänzt. Besonders auffallend sind dabei die Einschätzungen eigener Leistung. So wird der Zustand der Fertigstellung von Software immer viel zu hoch angegeben (s. auch Abschnitt 6.85). Ähnliches gilt für die Bewertung eigener Entscheidungen.

5.5.6 Renyi-Entropie Ab den 1960er Jahren wurde umfangreich versucht, die Entropie-Formel auf fast allen Gebieten anzuwenden. Dabei blieben oft die typischen Voraussetzungen unbeachtet. Zuweilen wurde einfach nur die Gleichverteilung benutzt. So kam es zuweilen zu seltsamen Widersprüchen und daher entstand teilweise die Auffassung, dass nach einer allgemeingültigen Formel zu suchen sei. Dabei entstanden mehrere neue Formeln. Von ihnen hat eigentlich fast nur die D-Entropie 1962 von Renyi eine gewisse Bedeutung erlangt [Ren82]. ---- 87 ----

Bild 48. Messwerte für die subjektive Wahrscheinlichkeit in Bezug zur objektiven.

Die Renyi-Entropie benutzt eine deutlich andere Formel mit einer frei wählbaren Konstanten D

1 § n · ˜ ld ¨ ¦ piD ¸ . 1D ©i1 ¹ Bei nur zwei Zeichen ergeben sich die Verläufe von Bild 49 gemäß den Wahrscheinlichkeiten p1 und p2 = 1 - p1. Für D = 1 entsteht der Verlauf der Shannon-Entropie. Eine Anwendung der Formel oder eine inhaltliche Begründung für D sind nicht bekannt. HD

Bild 49. Verläufe der D-Entropie bei zwei Wahrscheinlichkeiten.

5.4.7 Deterministische Entropie Eine total andere, nämlich eine streng deterministische Entropie hat Hilberg eingeführt [Hil84], [Hil90] und [Hil00]. Zuweilen nennt er sie auch funktionale Komplexität. Sie sieht eigentlich völlig von Wahrscheinlichkeiten und damit vom Zufall ab. Er geht aber davon aus, dass auch feste Strukturen, Gebilde, Zeichen usw. einen Informationswert besitzen müssen. Das widerspricht jedoch dem pi in der Shannon-Formel. Deshalb verlagert den Zufall auf umschaltbare Schaltergruppen. So geht er z. B. von der Bit-Folge 01101001 aus. Gemäß Bild 50a wird sie Bit-weise in übereinander liegenden Kästchen eingetragen. Dann werden die Kästchen mit einer binären Schalterhierarchie verbunden, die (statistisch) umgeschaltet wird. Bleibt bei einer Schalterbetätigung der Ausgangswert erhalten, so bekommt der jeweilige Schalter 1, sonst 0. Mit ihrer Addition wird die Statistik einer Signalquelle auf die Schalterstellungen übertragen. Für zwei Belegungen der Kästchen gelten b) und c). So lassen sich indirekt „Entropie“-Werte auch für binäre Bauelemente bestimmen: Bauelement ..........................„Entropie“ AND.................................................. 1 n-faches XOR ..............................2n- 1 n-stufiger Decoder ...........................2n RS-Flipflop .................................. 1.97

Bauelement ............................„Entropie“ Master-Slave-Flipflop ..................... 3.31 Speicher mit m-Wort, n Adressen ... m˜2n n-Bit/Addition...................................n˜2n n-Bit-Multiplikation ...................n˜(2n-1) ---- 88 ----

Bild 50. Zur deterministischen Entropie (funktionale Komplexität) nach Hilberg. Für n-Bit-Folgen kann diese Entropie einen Wert zwischen 0 und n/2 Bit annehmen. In das Ergebnis geht dabei das Gewicht der Folge (Anzahl der 1) ein. Für eine Folge aus n Zeichen kann das Maximum nur dann erreicht werden, wenn die Anzahl der 1-Werte gleich n/2 beträgt. Für m 1Werte oder m 0-Werte mit m d n/2 beträgt das Maximum m. Weiter geht die Anordnung der 1 in die Folge ein. Wenn sie alle – vom Beginn oder vom Ende der Folge her – unmittelbar aufeinander folgen, dann kann die deterministische Entropie unabhängig von der Länge der Folge nur den Wert 1 erreichen. Etwa 1987 konnte Hilberg zusätzlich zeigen:

x Die deterministische und statistische Entropie konvergieren für Bit-Ketten mit n o f gegen einen gemeinsamen Wert. x Seine Betrachtungen stehen im Einklang mit übergeordneten mathematischen Arbeiten von Chaitin [Cha75]. x Es besteht ein gewisser Zusammenhang mit der Kolmogoroff-Komplexität des folgenden Abschnitts.

5.4.8 Kolmogoroff-Entropie Sie wurde 1959 eingeführt und ist ein Maß für den Grad von Chaos, hat aber kaum inhaltlichen Bezug zu den anderen Entropien. Lediglich die zu ihr gehörende Formel hat Ähnlichkeit. Ihr Kennwert K gibt die Wahrscheinlichkeit dafür an, welche benachbarten Orte im nächsten Schritt erreicht werden. Dabei können unterschieden werden: x K = 0 deterministische Bewegung, x K = f vollkommen stochastische Bewegung, x K > 0 und endlich; deterministisches Chaos; hier existiert ein seltsamer Attraktor. Leider ist keine Normierung bekannt. Mit K ist aber eine Aussage zur möglichen Vorhersagezeit T gegeben: T

1 §1· ˜ log ¨ ¸ K ©l¹

Darin ist l die geforderte Genauigkeit. Es ist auch eine Anwendung für Objekte möglich. Sie sind dann durch die kleinstmögliche Beschreibung bestimmt.

5.4.9 Carnap-Entropie Auch Sie hat kaum Bezug zur Shannon-Entropie. Sie war der Versuch die Semantik quantitativ in die Informationstheorie einzubinden [Car52] [Car54], hat dabei aber wohl nur eine (und dabei kaum begründete) Anwendung bei Hauffe (s. u.) gefunden. Schließlich hat sich auch Carnap wieder von ihr getrennt. [Völ91]. Carnap hat gründlich die Bedeutung von Information untersucht. Dabei hat er die Extension und die Intension eingeführt: Extension: Objektbezug, Sachbezug etwa Begriffsumfang; gilt für Individuen und Klassen, auf die das Prädikat zutrifft; extensionale Beziehungen untersucht die Prädikatenlogik. Intension: Abbildbezug, etwa Begriffsinhalt; erfasst die Eigenschaft der Objekte mit einem Prädikat; ist nur im Gedächtnis vorhanden. ---- 89 ----

Am Periodensystem der Chemie hat Hauffe (nach seiner Auffassung mittels der Carnap-Entropie) die Gültigkeit von Theorien untersucht [Hau81]. Eine gute Theorie soll möglichst viele experimentelle Fakten (hier nur ausgewählte Eigenschaften der Elemente) exakt beschreiben und weiteres dazu voraussagen. Sie wird dabei immer kompakter und macht so auch alte Aussagen redundant. Hauffe wählte für seine Analyse sechs Eigenschaftspaare aus: schwer l leicht tiefschmelzend l hochschmelzend wärmeleitend l wärmeisolierend elektrisch leitend l elektrisch isolierend leicht ionisierbar l schwer ionisierbar stabil l instabil. Dabei ist auch zu beachten, dass immer mehr Elemente bekannt werden. So ergibt sich der historische Verlauf von Bild 51.

Bild 51. Zur Entwicklung der chemischen Theorien und den Elementeigenschaften nach Hauffe.

5.4.10 Entropie-Axiomatik nach Feinstein Für die Shannon-Theorie ist eine axiomatische Herleitung der Entropieformel wünschenswert: n

H  ¦ pi ˜ x log pi i 1

Es existiert auch eine von Feinstein [Fan66]. Dabei werden vier Axiome gewählt. 1. H(p, 1-p) ist stetig in p mit 0 d p d 1.....................................................2 Zeichen 2. H(0,5, 0,5) =1 .................................................................................. Normierung 3. H(p1, p2, ..., pn) ist unabhängig von der Reihenfolge ............................n Zeichen 4. Verfeinerungstheorem: Zerlegung pn = q1 + q2........................n o n+1 Zeichen dann: H(p1, p2, ..., q1+q2) = H(p1, p2, ..., pn) + pn ˜ H(q1 / pn + q2 / pn)

Leider gibt es aber für das 4. Axiom keine einsichtige Begründung. Daher ist die folgende Ableitung auch nur bedingt zulässig: x x x x x

H(1) = 0: Gewissheit n gleichwahrscheinliche Symbole: pi = 1/n: H(n1) > H(n2) wenn n1 > n2 Zwei unabhängige Urnenversuche: p (A; B) = p (A) ˜ p (B) o H(A; B) = H(A) + H(B) Das erfordert den Logarithmus, dessen Basis noch unbestimmt ist. Ein Versuch mit p = 1/n o h = c˜xlog(1/n) folglich bei Summierung Faktor p notwendig. ---- 90 ----

x x x

h = p ˜ xlog(1/n) = -p ˜ xlog(p) Durch Summierung folgt dann die bekannte Entropieformel (oben). Zur Normierung (2. Axiom) kommt nur der binäre Logarithmus x = 2 in Betracht.

5.5 Fehlerbehandlung Bei jeder Übertragung (und Speicherung) sollten empfangene Zeichen, Signale, Dateien usw. exakt mit den gesendeten übereinstimmen. Es treten aber immer mehrere störende Einflüsse auf. Beim kontinuierlichen Signal werden so hauptsächlich das Spektrum (Frequenzgang des Kanals), die Kurvenform (Linearität des Kanals) und durch Fremdstörungen, wie Rauschen, Störimpulse usw. der Störabstand, die Dynamik geändert. Deshalb bestehen bei kontinuierlichen Übertragungen kaum Möglichkeiten, das empfangene Signal wieder dem gesendeten Original möglichst gleich zu machen. Bei diskreten, digitalen Signalen ist das infolge ihrer zugelassenen Toleranzbereiche (Bild 19) deutlich anders. Bei ihnen treten aber gemäß Bild 39 andere Störwirkungen auf. Einige digitale (diskrete) Werte werden in andere umgewandelt, vertauscht. Sind von n übertragenen Werten beim Empfang m falsch, so beträgt die Fehlerrate fR = m/n. Digitale Fehler sind besonders einfach zu korrigieren. Sie müssen zunächst erkannt werden. Das ist Aufgabe der Fehlererkennung (EDC error detection code). Dann genügt es ihre Orte in der Datei zu bestimmen. Dort ist nur noch 0 o 1 bzw. 1 o 0 zu tauschen. Das wird bei der Fehlerkorrektur (ECC error correction code) durchgeführt, deren Inhalt jedoch weitaus umfassender ist (s. u.). Generell wird bei der digitalen Fehlerbehandlung vorausgesetzt, dass keine Taktfehler auftreten. In jedem Fall muss daher zunächst der Takt aus dem eventuell fehlerbehafteten Signal wieder hergestellt werden. Doch das ist fast immer ähnlich gut wie bei Bild 11 zu erfüllen. Für alle Fehlerbehandlungen ist vorteilhaft, wenn in der Datei nur wenige Fehler auftreten. Um dem möglichst nahe zu kommen, werden Dateien immer in passende Abschnitte – meist Blöcke genannt – zerlegt. Ihre optimale Größe ist von der Fehlerrate abhängig. Ein etwas älteres Beispiel dazu zeigt Bild 52. Hieraus folgt u. a., dass die Blockgröße annähernd exponentiell mit der Fehlerrate zusammenhängt. Generell hat sich herausgestellt, dass Fehlerraten um 10-4 bis 10-5 optimal für eine Fehlerkorrektur sind. Erstaunlich ist, dass dieser Wert auch in der Genetik auftritt. Eine weitere, vorteilhafte Maßnahme bei der Fehlerbehandlung ist das Spreizen. Es wird im Abschnitt 5.5.7 behandelt. Bild 52. Größe der optimalen Blockgröße in Abhängigkeit von der Fehlerrate.

Die meisten Fehler treten zufällig auf. Daher besteht für die in einem Block auftretenden Fehler ein statistischer Zusammenhang. Ein Vergleich mit dem Würfeln kann das erklären. Eine 6 tritt dabei mit der Wahrscheinlichkeit 1/6 auf. Die Wahrscheinlichkeit dafür, dass beim nächsten Wurf wieder eine 6 auftritt ist ebenfalls 1/6. Daher beträgt die Wahrscheinlichkeit dafür, dass bei zwei nacheinander erfolgenden Würfen oder bei zwei Würfeln zwei 6 auftreten 1/6˜1/6 = 1/36. Für drei 6 beträgt die Wahrscheinlichkeit 1/216 usw. Beträgt daher bei einer Übertragung die Fehlerrate für 1-Bit-Fehler 10-3, so treten auch immer 10-6 2-Bit-Fehler, 10-9 3-Bit-Fehler usw. auf. Werden durch ein Fehlerkorrekturverfahren alle 1-Bit-Fehler korrigiert, so bleiben die 2-Bit-Fehler, 3-Bit-Fehler usw. bestehen. Die Gesamtfehlerrate wird also nie Null, sie sinkt nur von z. B. 10-3 auf 10-6. Es kann also keine absolut fehlerfreie Übertragung geben. Dennoch sind sehr kleine Fehler erreichbar. Jedoch ihre Messung ist sehr aufwändig bis unmöglich. Wird z. B. bei der recht großen Datenrate von 109 Bit/s eine Fehlerrate von 10-14 gefordert, so würde im statistischen Mittel der erste Fehler nach ---- 91 ----

105 Sekunden, also rund 80 Stunden zu erwarten sein. Um jedoch eine leidliche Sicherheit für den Messwert zu erhalten, wäre also eine Messung über mindestens eine Woche notwendig. Neben den streng zufälligen Fehlern treten zuweilen auch Bündel- bzw. Büschelfehler, auch Burst genannt, auf. Bei ihnen liegen mehrere Fehler-Bit dicht gehäuft beieinander. Sie treten z. B. bei der magnetischen Speicherung, durch Fehler in der Speicherschicht, durch Funken, Blitze und beim Ein- und Ausschalten von Geräten auf. In Bild 53 ist die Burstlänge b gelb hervorgehoben. Rein anschaulich scheinen sie für eine Korrektur nachteilig zu sein. Jedoch bei mehreren Verfahren sind sie sogar vorteilhaft. Denn bei ihnen ist ab dem ersten fehlerhaften Bit nur die relativ kleine Anzahl b der folgende Bit zu beachten. Das wirkt sich ähnlich wie Verkleinerung der Blockgröße aus. Bild 53. Die drei typischen Fehlerarten eines Blocks (grün): 1-Bit-, Mehr-Bit-Fehler und Burst (gelb).

5.5.1 Der Hamming-Abstand und seine Nutzung Hier wird mit einer möglichst anschaulichen Einführung begonnen. Das eigentliche konstruktive Verfahren folgt anschließend. Entsprechend der Code-Tabelle von Bild 54b sollen bei der Übertragung nur die 3-Bit-Wörter der Codetabelle von Bild 54b als Kanalwörter verwendet werden. Sie codieren die eigentlich zu übertragenden Zeichen A bis H, die jedoch bei auftretenden Fehlern nicht alle verwendet werden dürfen. Um die sinnvolle Auswahl zu finden, werden die einzelnen Bit zu einem Würfel mit den Koordinaten x, y, z angeordnet (s. Bild 64a). Der Koordinatenursprung ist mit A = 000 gegeben. Jeder Schritt davon weg (einer Linie entlang) entspricht einer 1. Die Abstandsmatrix (c) gibt dann an, zwischen welchen Wörtern wie viele 0 l 1 zu vertauschen sind, bzw. wie viele Linien in (a) durchlaufen werden müssen. Wegen der Symmetrie braucht das graue Dreieck nicht weiter beachtet zu werden. In (d) sind die Wörter mit einem 2-Bit-Abstand rot bzw. grün gekennzeichnet. Werden z. B. die (grünen) Zeichen A, D, F und G als gültige, d. h. für die Übertragung genutzte Wörter ausgewählt, so führen 1-Bit Fehler zu den ungültigen Wörtern B, C, E oder H. Tritt eines von ihnen nach der Übertragung auf, so war sehr wahrscheinlich ein 1-Bit-Fehler die Ursache. Z. B. könnte z. B B aus A, D oder F hervor gegangen sein. Sehr unwahrscheinlich könnte aber auch ein 3-Bit-Fehler die Ursache gewesen sein: Aus G wäre dann B geworden. Eine Fehlerkorrektur ist hier wegen der Mehrdeutigkeit des Ursprungwortes nicht möglich. Sie wird erst dann möglich, wenn der Abstand zwischen den gültigen Wörtern mindestens 2 beträgt. Da sind in (e) z. B. A und H. Treten nach der Übertragung dann D, F oder G auf, so war infolge des wahrscheinlichsten 1-Bit-Fehlers H das gültige Wort. Bei B, C oder E war es eben A. Grundsätzlich kann aber nicht ausgeschlossen werden, dass ein 2-Bit-Fehler vorhanden war. Dann würde sogar falsch korrigiert. Infolge der deutlich geringeren 2-Bit-Fehlerwahrscheinlichkeit, ist dieser nachteile Fall aber relativ selten. Bild 54. Zur Einführung von zu übertragenden, gültigen und ungültigen Wörtern.

---- 92 ----

Es sind also 3 Wortarten zu unterscheiden. Die m zu übertragenden Wörter mit der maximalen BitLänge i (von Information) und dann die beiden, aus n > i Bit (Kanalwortlänge n) bestehenden gültigen bzw. ungültigen Wörter (Bild 55). Die Zuordnung zwischen den zu übertragenden Wörtern und gültigen Wörtern kann recht unterschiedlich vorgenommen werden und ist daher ziemlich nebensächlich. Aus den 2n möglichen langen Wörtern müssen lediglich m gültige Wörter so festgelegt werden, dass der Bit-Abstand zwischen ihnen allen möglichst groß ist. Bei der 3-BitAnordnung in Bild 54 war das noch recht übersichtlich. Wie man sich durch einen Versuch mit 4 oder gar mehr Wörtern leicht überzeugen kann, ist das jedoch recht kompliziert. Daher ist es die erste schwierige Aufgabe für eine Fehlerbehandlung. Bild 55. Zu den 3 Wortarten der Fehlerbehandlung. Nur in Sonderfällen werden an die zu übertragenden i-Bit-langen Wörter k Kontroll-Bit angehängt, um so die für den Kanal bestimmten gültigen Wörter der Länge n zu erhalten. Erste Hinweise zur optimalen Auswahl der 2i gültigen Zeichen können dadurch erhalten werden, dass mit den 2n möglichen Zeichen ein 2n-dimensionaler Raum – ähnlich dem 3-dimensionalen Würfel von Bild 54a – erzeugt wird. Einen eingeebneten Ausschnitt seiner Oberfläche davon zeigt Bild 56. Die gültigen Zeichen sind hierbei wieder grün hervorgehoben. Die Wege mit den 0l1Vertauschungen zwischen ihnen führen über mehrere ungültige Zeichen. Im gewählten Ausschnitt betragen die gezeigten Abstände 3 bis 6. Der auf der gesamten Oberfläche jeweils vorhandene geringste Abstand h (im Beispiel h = 3) heißt dann Hamming-Abstand. Er bestimmt die Grenzen der Fehlererkennung und -korrektur. Das Problem der optimalen Auswahl besteht darin, aus den 2n möglichen Wörtern jene 2i Wörter so auszuwählen, dass der größtmögliche Hamming-Abstand vorliegt. Dabei kann es vorteilhaft bis notwendig sein, einzelne der 2i Wörter nicht zu verwenden (auszuschließen) und/oder n zu vergrößern. Die dafür notwendigen Analysen sind meist sehr komplex und aufwändig, aber zugleich wesentliche Voraussetzung für eine bestmögliche Fehlerbehandlung. Die sich daraus ergebenden Gesetze für die Codierung der 2i zu übertragenden Wörter zu den 2i gültigen Wörtern sind der Fehlersicherungs-Code. Bild 56. Eingeebneter Ausschnitt von der 2ndimensionalen Oberfläche mit grün gekennzeichneten gültigen Wörtern sowie der Längen des Weges zwischen ihnen.

Ist der Hamming-Abstand h bekannt, so lassen sich leicht Aussagen zu seiner Leistungsfähigkeit angeben. In Bild 57a beträgt h = 3. Hier sind ersichtlich 1-Bit-Fehler korrigierbar – oder wenn das nicht genutzt wird – 2-Bit-Fehler erkennbar. Das „oder“ gilt dabei ausschließlich. Denn wenn ein Bit korrigiert wird, ist zusätzlich keine Fehlererkennung möglich. Falls ein 2-Bit- oder Mehr-BitFehler auftrat, wird wie oben gezeigt wurde, falsch korrigiert. Für h = 4 (Bild 57b) sind bereits zwei „Betriebsweisen“ möglich. Es können 1-Bit-Fehler korrigiert werden, dann bleibt aber das „mittlere“ Bit noch für die Fehlererkennung zugänglich. Wenn nämlich ein solcher Fehler auftritt, kann keine Korrektur vorgenommen werden, d. h. ein 2-Bit-Fehler kann zusätzlich angezeigt werden. ---- 93 ----

Wenn keine Fehlerkorrektur vorgenommen wird, so sind sogar bis zu 3-Bit-Fehler erkennbar. Für h = 5 sind drei Betriebsweisen möglich. Sie dürften in Bild 57c unmittelbar einsichtig sein.

Bild 57. Zur Wirksamkeit und den möglichen Fehlerbehandlungsverfahren als Funktion des HammingAbstandes h.

Verallgemeinert folgt aus Bild 57 für den Zusammenhang zwischen der Anzahl der maximal erkennbaren Fehler fmax und dem Hamming-Abstand h fmax = h - 1. Für die Anzahl der maximal korrigierbaren Fehler e gilt § h 1 · emax d INT ¨ ¸. © 2 ¹

Beide Größen sind aber nicht unabhängig voneinander. Werden nur e < emax Fehler korrigiert, so sind nur noch fmax,e(h, e) = h - e - 1 Fehler erkennbar. Die Varianten Fehlererkennung und -korrektur sind daher bei einer Anwendung gegeneinander abzuwägen. Mit Berücksichtigung der zusätzlichen Möglichkeiten bei Bursts ergibt sich der Überblick von Bild 58. Die Grenze c betrifft die Fehlerkorrektur. Sie kann bis emax gedreht werden. Die Fehlererkennung reicht bis zu e also fmax. Nutzbar, ist sie aber nur bis zur unteren Grenze (1). Mögliche zusätzliche Werte für einen Burst reichen bis zu den Geraden d und f. Sie hängen dabei auch von der Burstlänge im Vergleich zur Blocklänge ab. Bild 58. Die gegeneinander abwägbaren Grenzen für Fehlererkennung und -korrektur, sowie die möglichen Erweiterungen bei Berücksichtungen von Burst.

Unter Berücksichtigung aller Fakten ergibt sich das Kanalschema von Bild 59. Den eigentlich zu übertragenden Zeichen (Bit-Wörter) werden für den Fehlerschutz – ganz im Gegensatz zu den Fakten bei der Entropie und Komprimierung (Abschnitt 5.6) – zusätzliche Bits als Redundanz hinzugefügt. Das realisiert der Encoder nach besonderen Verfahren. Oft geschieht das aber nicht durch einfaches von Anhängen von Bits, wie es in Bild 55 gezeigt ist. Stattdessen werden meist auf komplexe Weise die zu übertragenden Wörter durch andere, für sie zu übertragende, aber stets längere gültige Wörter ersetzt. Nach der Übertragung prüft der Decoder, ob ein ungültiges Wort angekom---- 94 ----

men ist. Dann wird zunächst entschieden, ob Fehlererkennung und/oder -korrektur erfolgen soll. Wenn nur Fehlererkennung angesagt ist, wird das ungültige Wort verworfen. Bei keiner Fehleranzeige wird das gültige Wort durch das Originalwort ersetzt und dann genutzt. Hier sei bemerkt, dass eine mehrfache direkte Übertragung ohne Fehlerverfahren fast nie ausreichende Sicherheit bringt. Wenn nämlich mehrmals das gleiche Wort beim Empfänger ankommt, so kann in allen Fällen der gleiche Fehler aufgetreten sein. Genau deshalb ist „echte“ Fehlererkennung so wichtig. Ist Fehlerkorrektur vorgesehen, so wird sie durchgeführt und danach aus dem gültigen Wort das ursprüngliche wieder hergestellt.

Bild 59. Kanalschema der Fehlerbehandlung.

Für die Fehlerbehandlung sind somit drei meist miteinander eng verknüpfte Verfahren erforderlich: 1. Auf der Sendeseite zur Erzeugung der gültigen Wörter, denen die zu übertragenden Wörter zugeordnet werden. 2. Auf der Empfangsseite Verfahren zur Überprüfung der übertragenen Wörter auf Gültigkeit mit eventueller Anzeige von Fehlern. 3. Ebenfalls auf der Empfangsseite Verfahren zur möglichen Korrektur und/oder Anzeige von (noch) fehlerhaften Wörtern. Mittels der typischen Blockstruktur vieler Fehlerkorrekturverfahren von Bild 55 lassen sich die Zusammenhänge zwischen Fehlererkennung und -korrektur vertiefen. Bei der Blocklänge n aus i Informations- und k Kontroll-Bits (n = i + k) beträgt der „förderliche“ Redundanzfaktor

r

ni k . n n

Weil die Anzahl aller Code-Wörter 2n und die der gültigen 2i beträgt, folgt für den erreichbaren Hamming-Abstand

h d

2n  1 2 k  1. 2i

Mit den obigen Formeln für die zu erkennenden Fehler f beträgt die Anzahl der minimal erforderlichen Kontroll-Bits k t INT(1+ ld (f + 1)). Hier geht also die Blocklänge n nicht ein und zwar ganz im Gegensatz zur Fehlerkorrektur. Für e korrigierbare Fehler ist die Berechnung deutlich komplizierter. Denn es müssen die einzelnen Fehlertypen mit den entsprechenden Distanzen aufaddiert k1=1 werden: FOR x = e-1 TO 0 STEP -1 k1 = k1*(n-1)/x - x +1 NEXT x k = log(k1)/log(2)

§ e § n·· k t ld ¨ ¦ ¨ ¸ ¸ . © x 1© x¹¹

Der Zahlenwert ist nur iterativ zu berechen. Dazu kann das daneben stehende Programm dienen. ---- 95 ----

5.5.2 Einfache Verfahren Bei den meisten Fehlerverfahren ist die Erzeugung der gültigen Wörter recht komplex. Es gibt jedoch drei relativ „einfache“ Methoden x Beim Gleichen Gewicht: wird eine Anzahl k < m der im Wort enthaltenen 1 festgelegt. z. B. für 4×1 in 110011, 101011, 110110, 10101010, 1111 usw. Das ermöglicht nur eine Fehlererkennung. x Bei der Symmetrie sind die gültigen Wörter vor- und rückwärts gelesen gleich, z. B. 110011, 101101, 011110 usw. Der Code ist hoch redundant und ermöglicht teilweise auch Fehlerkorrektur. Für ihn gibt es keine geschlossene Theorie. Er wird u. a. beim klassischen Barcode benutzt. x Bei der Parity (Parität lateinisch paritas Gleichheit) wird die Anzahl der im Wort enthaltenen 1 gezählt. Dabei gibt es zwei Varianten: Ihre Summe soll für gültige Wörter gerade oder ungerade sein. Damit das geforderte Ergebnis vorliegt, wird zusätzlich eine 1 oder 0 angehängt. Es werden hierbei nur 1-Bit-Fehler erkannt. 3-, 5- und 7-Bit-Fehler erscheinen als 1-Bit-Fehler. x Als Erweiterung gibt es zuweilen Verfahren die mehrere Parity-Bit nutzen. Sie können dann mehrere Fehler erkennen und teilweise sogar einzelne korrigieren x Eine etwas komplexere Methode ist die Block-Parity. Sie wurde 1973 von IBM für den 9Spur-Magnetspeicher als GCR (Gruppencodierung), auch Längsquer-, Matrix-, oder KreuzParity genannt, eingeführt. Mit den Spuren wurden 8u8-Bit-Blöcke gebildet und die Parity in beide Richtungen (längs und quer) gebildet. Die neunte Spur erhielt die Werte der QuerParity. In jedem Block kann ein 1-Bit-Fehler korrigiert werden. 2-Bit-Fehler werden erkannt. Vereinfacht auf 6 Spuren und 4-Bit-Wörter zeigt es bei ungerader Parity die nebenstehende Tabelle. Der rot unterlegte, durchgestrichene Parity-Wert 0 in der 7. Spur wird nicht benutzt. Prinzipiell sind Block-Codes mit mehr als zwei Dimensionen möglich. Doch wie Rechnungen zeigen, ist ihre Effektivität geringer. Es gibt auch spezielle, für nicht-binäre Codierungen abgewandelte Paritäts-Codes, z. B. für die ISBN-Nummer von Büchern, beim Schutz für Geldscheine und die langen IBAN-Werte für Konten.

5.5.3 Die Polynommethode Es gibt mehrere komplexe und mathematisch recht aufwändige Verfahren der Fehlerbehandlung. Das noch immer grundlegende Werk mit sehr guter Einführung ist hierfür [Pet67]. Darin fehlen allerdings neue Codes. Für sie sei [Fri96] empfohlen. Verkürzte Beschreibungen enthalten u. a. [Völ96], S. 95ff., [Völ01], S. 427ff. und [Völ07], S. 109ff. Häufig erfolgen die Untersuchungen zur Fehlerkorrektur mit den Galois-Feldern in der Matrizen-Methode. Denn sie ermöglicht auch, dass nicht-binäre, also höherwertige Variablen nutzbar sind. Hier wird nur die etwas übersichtlichere Polynom-Methode für binäre Wörter beschrieben. Ein typisches Polynom könnte dabei lauten y = 1·x5 + 1·x4 + 0·x3 +0·x2 +1·x1 +1·x0 = x5 + x4 + x + 1. Für das „eigentliche“, rein mathematische Polynom können die Potenzen mit Faktor 0 entfallen. Dann ergibt sich die verkürzte Schreibweise. Es kann aber auch angenommen werden, dass die ---- 96 ----

Variable x nur eine (formal bedeutungslose) Hilfsgröße, ein dummy ist. Dann entspricht dem Polynom auch das binäre Wort 110011. Ferner sind etwa gleichwertige Darstellungen mittels XORrückgekoppelter Schieberegister-Ketten möglich. Weil sie vorwärts oder rückwärts gerichtete Kopplungen besitzen können, existieren zwei Varianten. Für die Fehlerbehandlung sind in diesem Sinne die vier Varianten von Bild 60 äquivalent. Die formale „Übereinstimmung“ ermöglicht es, Polynome, Signale und Hardware ineinander umzurechnen. So folgt aus der Mathematik sofort die dazu gehörende (elektronische) Schaltung. Für technische Entwicklungen bringt das große Vereinfachungen. Bild 60. Die vier etwa gleichwertigen Möglichkeiten zur Anwendung der Polynom-Methode.

Für die Polynommethode ist die binäre Logik (Arithmetik) gemäß den unten stehenden Tabellen entscheidend. Bei den zwei Eingangsvariablen können so die logischen Operatoren XOR als Addition und/oder Subtraktion, AND als Multiplikation und EQU als Vergleich interpretiert werden. Auf Code-Wörter werden sie bitweise ohne Übertrag angewendet. Für konkrete Beispiele sind auch die nötigen Teiloperationen bei der Addition = Subtraktion, Multiplikation und Division in den Tabellen aufgezeigt. Die ganzzahlige Division besitzt dabei die Besonderheit, dass ein nicht weiter ganzzahlig zu teilender Rest auftreten kann. Im Tabellenbeispiel gilt x13 dividiert durch x5+x4+x2+1 ergibt x8+x7+x6+x4+x3+1 mit dem Rest x3+x2+1. Die Umkehrung dazu lautet (x8+x7+x6+x4+x3+1)·(x5+x4+x2+1)+(x3+x2+1) = x13. Ähnlich wie bei den Primzahlen gibt es daher auch Polynome, die ohne Rest nur durch x0 (= 1) und sich selbst teilbar sind. Sie heißen irreduzibel und besitzen die Besonderheit der Symmetrie. Ist z. B. 10011 irreduzibel, so ist es auch 11001. In Listen wird daher nur eine der beiden Varianten aufgeführt. Die ersten irreduziblen Polynome lauten: 11; 111; 1011; 10011; 11111; 100101; 101111; 110111. Die Polynom-Methode kann unmittelbar und gleichartig auf Signale als Daten-Polynome D(x) und auf Hardware, nämlich Schieberegister als Generator-Polynome G(x) angewendet werden. Signale und Schieberegister folgen dabei dem gleichen Takt. (Die Rechnungen erfolgen ohne Übertrag!)

---- 97 ----

5.5.4 Anwendungen rückgekoppelter Schieberegister Alle rückgekoppelten Schieberegister-Ketten bestehen aus mehreren hintereinander geschalten Flipflop, die mit einem gemeinsamen Takt verbunden sind. Er verschiebt ihre Inhalte um jeweils einen Flipflop nach rechts, wobei ganz vorne ein neues Bit übernommen wird. Von den beiden äquivalenten Varianten des Bildes 60 ist die vorwärts gerichtete (obere) wegen der direkten Kopplung etwas einfacher. Es existieren etwa die vier Anwendungen von Bild 61. Beim Zyklen-Generator a) wird kein Eingangswort benutzt. Stattdessen wird das zum Ausgang gelangende Wort wieder dem Eingang zugeführt. So entsteht der Generator. Entspricht das Schieberegister einem irreduziblem Polynom, so werden dabei alle möglichen Wörter gemäß der Anzahl der Flipflop (höchster Polynomgrad) in einer unregelmäßigen Abfolge durchlaufen. Bei reduziblen Polynomen treten dagegen je nach der Anfangbelegung mehrere, z. T. unterschiedlich lange Wortfolgen auf. Für das Polynom 110011 = x5+x4+x+1 gilt die Tabelle. Bild 61. Die drei Anwendungsvarianten von rückgekoppelten Schieberegistern. 2 mal Länge 8 00001 00010 00100 01000 10000 10011 10101 11001

00111 01110 11100 01011 10110 11111 01101 11010

3 mal Länge 4 00011 00110 01100 11000

00101 01010 10100 11011

01001 10010 10111 11101

Länge 2

Länge 3

01111 11110

10001

Mit einer beliebigen Anfangsbelegung aus einer Spalte der Tabelle werden nur die dort stehenden ausgewählten Wörter zyklisch in der dargestellten Reihenfolge ausgegeben. Bei einem richtig ausgewähltem (Generator-) Polynom G(x) und passender Anfangsbelegung können für die Fehlerbehandlung nur Wörter mit einem optimalen Hamming-Abstand erzeugt werden. Spezieller ist die so auch mögliche Erzeugung von Zufallszahlen (s. Abschnitt 7.5.1, Bild 7.24). Die zweite Anwendung (Bild 61b) ist die hocheffektive Fehlererkennung mit dem CRC (cyclic redundancy code). Dabei wird ein ausgewähltes irreduzibles Polynom benutzt. Seine Anwendung ist auf der Sende- und Empfangsseite recht ähnlich. Vor dem Beginn jedes neuen Wortes werden alle Flipflop auf 0 gesetzt. Dann gelangt das zu sendende (gültige) oder empfangene Wort mit dem Takt parallel sowohl an den Eingang des Schieberegisters als auch zum Ausgang der Schaltung. Wenn das Daten-Wort beendet ist, steht im Schieberegister noch eine über das Polynom berechnete Bit-Folge, das CRC-Zeichen. Es wird beim Senden einfach an das (gültige) Wort gehängt. Bei der Wiedergabe geschieht ganz analog die Fehlererkennung. Dabei werden aber das gesendete und das neue gebildete CRC-Zeichen taktweise miteinander verglichen. Besteht kein Unterschied, so ist im Rahmen der jeweiligen durch die Länge n des Polynoms festgelegten Sicherheit (Länge des CRCZeichens) kein Fehler aufgetreten. Da der Zyklus eines irreduziblen Polynoms 2n-1 lang ist, wird eine Fehlersicherheit von 1/(2n-1), also ca. 10-0,3˜n erreicht. Praktische Bedeutung haben die in der Tabelle stehenden, u. a vom CCITT und ISO genormten CRC-Polynome erlangt. ---- 98 ----

Länge 8 Bit 12 Bit 16 Bit 32 Bit

Fehler 4˜10-3 2˜10-4 2˜10-5 2˜10-10

Polynom x8 + 1 x12 + x11 + x3 + x2 + x + 1 x16 + x15 + x2 + 1; oder x16 + x12 + x2 + 1; oder x16 + x12 + x5 + 1 x32 + x26 + x23 + x22 + x16 + x12 + x11 + x10 + x8 + x7+ x5 + x4 + x2 + x + 1

Die wohl wichtigste Variante der Schieberegister-Anwendung ist die kombinierte Fehlererkennung mit -korrektur, EDC + ECC Bild 61b. Hierzu werden auf der Sendeseite zunächst die Bit der Flipflop auf Null gesetzt: Dann wird der Schalter auf i gestellt und das Eingangssignal D(x) gelangt Bitweise ins Schieberegister. Unter Berücksichtigung der XOR-Verknüpfungen des Generator-Polynoms G(x) wird dabei die Belegung der Flipflops verändert. So entsteht das gültige Ausgangswort C(x) = G(x)˜D(x). Dafür wird anschließend der Inhalt des Schieberegisters (wegen Schalterstellung k Eingang = 0) taktweise angefügt. Die Länge der Schieberegister-Kette entspricht der Anzahl der Kontroll-Bit (Bild 55). Auch die Decodierung kann mit Schieberegisterketten erfolgen. Dazu muss die Division C(x)/G(x) realisiert werden. Bei Übertragungsfehlern führt sie zu einem veränderten Datenwort D'(x) und einem Rest R(x), der auch Syndrom oder Fehlervektor heißt. Tritt kein Rest auf, so trat bei der Übertragung im Rahmen der Erkennungsmöglichkeiten kein Fehler auf. Ein Rest ermöglicht jedoch die Fehlererkennung. Aus seinem Wert lassen sich die Daten für die Fehlerkorrektur errechnen. Dazu muss ein Buffer existieren, der die Länge des Code-Wortes besitzt (Bild 62). In ihm werden nur die falschen Bit invertiert. Erst dann kann das korrigierte Datenwort D'' (x) ausgegeben werden. Bild 62 Struktur für die Fehlerkorrektur mittels des Rests (Syndrom) bei Division.

Für die gewünschte Fehlerkorrektur ist also die Auswahl des Generatorpolynoms G (x), d. h. die dazugehörende Schaltung entscheidend. Es muss aus Vorgaben zur Fehlererkennung und -korrektur abgeleitet werden. Hierfür existieren Methoden, die mit Namen wie Hamming-, Fire-, BoseChaudhuri-Hocquenghem- (BCH-) und Reed-Solomon-Code benannt wurden. Trotz aller Fortschritte für die Fehlersicherung ist heute kein universelles Verfahren zur Berechnung von günstigen oder gar optimalen Generatorpolynomen bekannt. Genau deshalb sind die meisten Codes nach ihren Entdeckern benannt. Ein Scrambler (Verwürfler, Bild 61c) arbeitet mit Pseudozufall und wird nicht zur Fehlerbehandlung benutzt. Bei der Speicherung (Kapitel 6) wird er z. B. so betrieben, dass nur Codewörter bestimmter Lauflänge entstehen – als RLL mit maximal aufeinander folgende 0, z. B durch Umcodierung vom NRZ- zum, randomized RNRZ-Code. Eine weitere Anwendung ist der Datenschutz, z. B. beim Pay-TV, um so die Bezahlung sicherzustellen. Erst nach einem Descrambling ist ein brauchbares Bild wiederzugeben. Wichtig sind hierbei reduzible Polynome, z. B. 1+x14+x17; 1+x6+x7 und 1+x18+x23. Das GPS der USA ist so absichtlich für die private Nutzung ungenauer gemacht. Nur für das Militär ist die Rückwandlung in die exakten Signale per Descrambler möglich.

5.5.5 Matrix-Methode Sie ist die zweitwichtigste Methode der Fehlerkorrektur. U. a. ermöglicht sie für die Signale usw. auch andere Zahlenbasen als 2, bei Galois-Feldern z. B. 2n und Primzahlen. Dennoch wird sie hier nur sehr kurz eingeführt. Details enthalten vor allem [Fri96] und [Pet67]. Sie erzeugt vorwiegend dadurch einen Linear-Code, dass die 2i gültigen Codewörter in einem Teilraum des ndimensionalen Raumes aller Wörter gesucht werden. Die zugehörigen Basisvektoren werden mit gl bezeichnet. Für die einzelnen Codewörter gilt daher dann ---- 99 ----

v = c1˜g1 + c2˜g2 + c3˜g3+ ˜ ˜ ˜ + cigi. Die Skalare cl entsprechen den zu übertragenden Ausgangswörtern; die gl können zur nebenstehenden Generatormatrix [G] mit i Zeilen und n Spalten zusammengefasst werden. Mit ihr können dann alle gültigen Wörter erzeugt werden. Sie wird aus einer Code-Eigenschaftsmatrix [C] und dem vorangestellten Einheitsvektor [E] generiert. Damit entsteht die Matrix-Schreibweise [v] = [C]·[G]. Ein Beispiel zeigt das Schema. cj 000 001 010 011 100 101 110 111

1101001 1010011 1110100 0000000 1110100 1010011 0100111 1101001 0011101 0111010 1001110

>G @

ª g1 º «g » « 2» « g3 » « » «#» «¬ gi »¼

= Generatorwörter [G]

= Codewörter [vi]

Die Generatormatrix existiert nicht immer in der systematischen Gestalt. Dann ist der Einheitsvektor nicht eindeutig zu erkennen. Sie kann jedoch immer in diese umgeformt werden. Die praktische Anwendung der Matrix-Methode verlangt: 1. 2.

Die i Zeilen der Generatormatrix müssen gespeichert vorliegen und muss eine Schaltung zur Matrizen-Multiplikation existieren.

5.5.6 Systematik und Grenzen Eine Einteilung der verschiedenen fehlersichernden Codes ist schwierig. Ein relativ einfaches Schema zeigt Bild 63. Besonders allgemein sind die Block-Codes, die sich durch eine Tabelle beschreiben lassen. In einigen Fällen werden aber die Tabellen so groß, dass sie technisch nicht mehr effektiv nutzbar sind. Dann sind die algorithmischen Methoden der beiden letzten Abschnitte notwendig. Die nächst einfache Methode ist ein Linear-Code, wie er mit der Generatormatrix erzeugt wird. Eine gewisse Einengung bezüglich der möglichen Codewörter stellt der linear-systematische Code dar. Bei ihm sind die eigentlich zu übertragenden Wörter noch in den gültigen Wörtern direkt erkennbar. Ihnen sind die Kontroll-Bits einfach angehängt. Noch spezieller ist der zyklische Code, bei denen die gültigen Codewörter aus einem Anfangsmuster durch zyklische Verschiebung entstehen. Auch hierfür muss auf die Spezialliteratur verwiesen werden. Bild 63. Eine einfache Einteilung der Fehler-Codes.

---- 100 ----

Bei den Fehlerverfahren werden für die i-Bit-langen zu übertragenden Wörter immer n-Bit-lange gültige Wörter benutzt. Das Verhältnis beider heißt Coderate R = i/n. Für die typische Code-Effektivität soll sie möglichst groß sein. Das Beispiel von Bild 64a zeigt, dass sie mit der Länge der ursprünglichen Wörter zunimmt. Damit nimmt aber leider auch die Wahrscheinlichkeit zu, dass ein Fehler in den Wörtern auftritt. Daher gibt es für jeden Kanal ein typisches Optimum, das aber auch vom angewendeten Verfahren abhängt. Ein Block sollte dabei so groß gewählt werden, dass die Wahrscheinlichkeit für die auftretenden nicht korrigierbaren Fehler gerade noch der zulässigen Fehlertoleranz genügt. Hierzu gibt es mehrere Abschätzungen, u. a. die Schranken von Hamming, Elias, Singelton, Plotkin und Gilbert-Varshamov (s. Bild 64b). Als Abzisse benutzt die Darstellung das Verhältnis aus Hamming-Distanz und Codewortlänge h/n.

Bild 64. Beispiele für Code-Effektivität (a) und deren Grenzen (b).

5.5.7 Spreizung Zuweilen treten Fehler gehäuft auf, z. B. als Bulk in einem Block. Diese lassen sich aber oft relativ einfach zu Einzelfehlern in verschiedenen Blocks umwandeln. Dann sind die Einzelfehler leicht zu korrigieren. Zunächst muss hierzu eine spezielle Umsortierung erfolgen. Das escvhieht durch eine systematische Spreizung, die auch Interleaving, Verschachtelung, Datenspreizung, Verwürfelung, Codespreizung, Überlappung oder Bit-Umordnung genannt wird. Dabei werden mehrere Bit einzeln über die Blockgrenzen hinaus um 0, 10, 20 und 30 Bit-Positionen verschoben. Im Bild 65a ist das nur für die ersten 12 Bits dargestellt. Zwischen der original wiedergegebenen und der umsortierten Bit-Folge werden die Übergänge: 1 o 1, 2 o 11, 3 o 21, 4 o 31, 5 o 2, 6 o 12, 7 o 22, 8 o 13, 9 o 3 usw. benutzt. Dann verbleiben nur leicht zu korrigierende Einzelfehler. Die Rücksortierung besitzt dann praktisch nur fehlerfreie Wörter. Zur technischen Realisierung der Datenspreizung wird oft ein Zusatzspeicher eingerichtet, dessen Speicherzellen in Form einer Matrix „adressiert“ werden. Entsprechend Bild 65b werden dann die originalen Bits spaltenweise eingeschrieben und nach der Korrektur zeilenweise ausgelesen.

---- 101 ----

Bild 65. a) Prinzip der Spreizung und b) Anwendung der Zeilen-Spalten-Methode.

Das Prinzip macht sich besonders deutlich bei Fernsehbildern, wie z. B. in Bild 66 bemerkbar und wird dann meist shuffling genannt (englisch to shuffle schlürfen, schieben, mischen).

Bild 66. Sichtbarkeit von Bulk- und Einzelfehlern beim Fernsehbild.

5.5.8 Faltungs-Codes Die bisher beschriebenen Fehlerbehandlungen beruhen auf der Blockbildung der Daten. Doch seit Mitte der 80er Jahre werden immer häufiger Faltungs-Codes eingesetzt, die auch ab den 90er Jahren bei der Speicherung (Kapitel 6) an Bedeutung gewannen. Sie codieren fortlaufend Bit für Bit. Dadurch sind sie insbesondere für beliebig lange Datenströme z. B. beim Streaming im Internet geeignet. Sie können aber auch für endliche Datenlängen eingesetzt werden. Dann liegt ein terminisierter Datenstrom vor, der eine große Ähnlichkeit zum Block-Code besitzt. Bei der Codierung werden aus jedem Signal-Bit 2, 3 oder mehr Code-Bits erzeugt. Der Datenstrom ist daher ein ganzzahliges Vielfaches der gültigen Wörter bzw. des Signalstromes. Bei der Wiedergabe kann über diese Redundanz eine Fehlerkorrektur realisiert werden. Die allgemeine Struktur für Faltungs-Codes zeigt Bild 67a. Es existiert ein Schieberegister der Länge n, im Beispiel der Länge 9. Hier werden die Daten taktgetreu hinein geschoben. Im Gegensatz zur den Registern der Block-Codes existiert jedoch keine Rückkopplung. Es gibt damit ein „Gedächtnis“ für die jeweils letzten n Bits. Von den Bits der einzelnen Register werden durch logische Verknüpfungen m neue Bits gebildet. Meist gilt m = 2, im Beispiel jedoch 3. Diese BitWerte werden mit der m-fachen Datenrate als Code-Wörter ausgegeben. Einige Sonderfälle für diesen Ablauf zeigt Bild 67b. Hier gibt es ein 3-Bit-Schieberegister, von dem je Eingangstakt 2 Ausgangs-Bit erzeugt werden. Der Schalter arbeitet daher mit der doppelten Taktrate. Aus dem ---- 102 ----

Signal-Wort 1101 entsteht dabei das Code-Wort 11 01 01 00. Das Bild zeigt dabei die Zustände der einzelnen Eingangstakte. Die formale Beschreibung dieser Decoder ist in drei Varianten möglich. Beim Zustands- bzw. Automaten-Diagramm wird die Darstellung des üblichen Mealy-Automaten der Informatik benutzt (Bild 67c). Je nach den Bits, die sich in den Registern befinden, existieren 2n-1, im Beispiel 4, Automaten-Zustände (in den Kreisen). Je nachdem, ob 0 oder 1 zum Eingang gelangt, werden die an den Pfeilen stehenden Bit-Kombinationen ausgegeben. Dieses Schema lässt sich auch in die dazugehörende, hier nicht aufgeführte Automatentabelle umsetzen. Beides sind besonders kurze Fassungen der Codierung. Sie besitzen jedoch für die Fehlerkorrektur nur eine untergeordnete Bedeutung. Die zweite Darstellungsvariante ist ein Code-Baum gemäß Bild 67e. Er beginnt mit der Startposition, bei der alle Register auf 0 gesetzt sind. Es kann dann entweder eine 0 oder 1 als Signal-Bit auftreten. Dann werden im Beispiel 00 oder 11 ausgegeben. Das ergibt die beiden nächsten Knoten des Baumes. Von hier sind je nach dem folgenden Bit jeweils zwei Verzweigungen möglich usw. Der Baum erreicht daher sehr schnell viele Verzweigungen und ist deshalb für die Darstellung nicht schnell terminierender Signalfolgen ungeeignet. Für eine bestimmte Signalfolge wird in ihm nur eine Verzweigung durchlaufen. Für die Signalfolge 110 ist sie dick gezeichnet. Weitgehend durchgesetzt hat sich das Trellis-Diagramm gemäß Bild 67d (englisch trellis Raster, Gitter). Bei ihm sind die Automatenzustände als Zeilen vorhanden. Die Signaltakte sind in den Spalten als Punkte von links nach rechts aufgereiht. Für den Übergang zum nächsten AutomatenZustand gibt es jeweils zwei Möglichkeiten der Fortsetzung. In dem universellen Schema gibt es auch hier für eine Signalfolge nur einen bestimmten Weg im Trellis-Diagramm. Im Diagramm ist dies für die Signalfolge 11011 wiederum fett hervorgehoben. Doch im Gegensatz zur Baumdarstellung bleibt dabei, infolge des Bezugs auf die Automatenzustände, die Breite des Diagramms konstant. So lassen sich auch gut recht lange Signalfolgen als Weg darstellen. Das Trellis-Diagramm hat für die Fehler-Korrektur einen großen Vorteil. Bei Übertragungsfehlern wird der Weg in ihm verändert. Es treten dann meist Wege auf, die wegen der Codierung „unzulässig“ sind. Mittels Rechnung kann dann der wahrscheinlichste, „ursprüngliche“ und zulässige Weg ermittelt werden. Bei langen Signalfolgen können sich jedoch Fehler so fortpflanzen, dass eine Korrektur nicht mehr möglich ist. Deshalb ist die Terminierung der Signalfolge nach einer bestimmten Länge sinnvoll oder gar notwendig. Sie wird auch als Truncation (englisch Abstumpfung, Stellenunterdrückung) oder Tail-Biting (englisch tail = Ende, Schwanz) bezeichnet. Der Vorteil der Faltungs-Codes besteht in dieser Wahrscheinlichkeitssuche des vermutlich richtigen Weges. Dabei ist eine Kopplung mit der Taktgewinnung und Signal-Erkennung möglich. So ergibt sich das Verfahren des PRLM (partial response likelihood maximum). Für Faltungs-Codes gibt es verschiedene Decodierprinzipien. Neben der Maximum-Likelihood-Decodierung existieren auch eine sequentielle und eine algebraische Decodierung. Häufig wird der Viterbi-Algorithmus verwendet. Die Theorie der Faltungs-Codes ist deutlich schwieriger als die der Block-Codes. Sie wird jedoch für die meisten Anwendungen nicht benötigt. Durch die Nähe zum Automatenmodell wird ein günstiges Verfahren meist durch Rechnersuche gefunden. Ein Vorteil gegenüber den Block-Codes besteht in der Möglichkeit, große Blocklängen und große Gedächtnislängen zu nutzen. Bündel-Fehler sind allerdings schwerer zu beherrschen. Sie erfordern ein spezielles Interleaving. Für einige Sonderanwendungen wurden auch Kombinationen aus Block- und Faltungs-Codes entwickelt, z. B. verkettete Codes. Weitere Details zu den Faltungs-Codes enthält u. a. [FRI96]. Abschießend sei noch erwähnt, dass seit den 1980er Jahren mehrere weitere Methoden entstanden s. z. B. [Fri96]. Besonders komplexe und hochleistungfähige Verfahren werden bei der CD und DVD benutzt [Völ07] S. 525ff.

---- 103 ----

Bild 67. Prinzip der Faltungs-Codes (a, b), ihre Beschreibungen (c bis e) sowie Schema eines PRLM-Wiedergabekanals (f).

5.6 Komprimierungen Lateinisch premere drücken, bedrängen, pressen und comprimere, compressum zusammen-, niederdrücken, niederpressen, -drängen, frei übersetzt verdichten. Dazu gehören der Kompressor, als Gerät zum Zusammendrücken von Gasen und Dämpfen, die Kompresse als feuchter Umschlag, die Kompression als Quetschung eines Körper-Organs oder einer Körperstelle durch mechanische Einwirkung aber auch die Depression als Bedrückung und Niedergeschlagenheit, der Ex- und Impressionismus sowie der Express bei Bahn und Post. Aus diesen Gründen sollte bei Daten – auch wenn es zuweilen geschieht – nicht Kompression sondern nur Komprimierung benutzt werden. Während die Notwendigkeit einer Fehlersicherung unmittelbar einzusehen ist, scheint dagegen die Komprimierung von Daten nicht unbedingt erforderlich. Denn seit etwa 1995 (Abschnitt 6.1.3) verfügt praktisch jeder und jede Einrichtung – trotz der riesengroßen Datenmengen in der komplexen Welt in Raum und Zeit usw. im Prinzip reichlich Speicherkapazität. Doch sobald damit aber die Datenrate verglichen wird, ist der Engpass deutlich erkennbar. Sie ist bereits heute deutlich kleiner, wodurch oft lange Wartezeiten entstehen. Zusätzlich wächst sie auch seit etwa 1995 um Zehnerpotenzen langsamer als die Datenmenge. So nimmt der schon vorhandene Widerspruch in der Zukunft sogar noch weiter zu. Einen groben Überblick, der im Kapitel 7 weiter vertieft wird, zeigt dazu das Bild 68. In Bezug auf die Abschnitte 4.5 bis 4.7 könnte es vielleicht möglich erscheinen, dass die dort behandelten Methoden, vor allem von Klassifikation und Axiomatik, einen (gewissen) Ausweg bringen könnten. Hierbei ist jedoch zu bedenken, dass die Aufnahmefähigkeit und Verarbeitungsgeschwindigkeit des Menschen sehr begrenzt ist (s. Abschnitt 6.8). So bleibt nur die Möglichkeit mit technischen Mitteln nach neuen leistungsfähigen Auswegen zu suchen. Dafür ---- 104 ----

sind sowohl die Künstliche Intelligenz, die nun zu behandelnde technische Datenkomprimierung, aber noch mehr big data (Abschnitt 7.7) kompetent.

Bild 68. Grobe Analyse der Entwicklungen und Tendenzen von verfügbaren Datenmengen und nutzbaren Datenraten. (vgl. Bild 6.20 und 6.79). Natürlich ist beim Unterschied von Datenmenge und -rate auch das akribische und z. T. sinnlose Datensammeln einer Menschen und Institutionen zu beachten. Details hierzu enthält Kapitel 10. Über den typisch menschlichen Sammeltrieb hat Die Brille sich bereits Twain in „Die Geschichte des HausieKorf liest gerne schnell und viel; rers.“ lustig gemacht. Der Onkel des Erzählers ist darum widert ihn das Spiel passionierter Sammler. Immer wenn eine Sammlung all des zwölfmal unerbetnen vollständig zu werden scheint, bekommt er nicht das Ausgewalzten, Breitgetretnen. letzte, also entscheidende Stück. Schließlich samMeistes ist in sechs bis acht melt er Echos. Als die Sammlung vollständig zu Wörtern völlig abgemacht, sein scheint, wird ein „größtes Echo“ entdeckt. Naund in ebensoviel Sätzen türlich will er sofort die beiden dazugehörenden läßt sich Bandwurmweisheit schwätzen. Berge erwerben. Während er einen Berg kauft, erEs erfindet drum sein Geist wirbt ein bisher unbekannter Echosammler den anetwas, was ihn dem entreißt: deren. Natürlich will keiner seinen Anteil abgeben, Brillen, deren Energieen sondern den anderen Berg dazu erwerben. Der Streit ihm den Text - zusammenziehen! dauert an, bis der zweite Sammler aus Verärgerung Beispielsweise dies Gedicht seinen Berg abtragen lässt. Eine noch kuriosere läse, so bebrillt, man - nicht! Sammelleidenschaft von Schweigen schildert Böll Dreiunddreißig seinesgleichen in Dr. Murkes. Für die „gewünschte“ Komprimiegäben erst - ein - Fragezeichen! rung hat Morgenstern das nebenstehende Gedicht

geschrieben. Es macht deutlich, wie unterschiedlich „Wichtiges“ sein kann. Auf die entsprechenden rein inhaltlichen Komprimierungen, wie Schrift, Noten usw. wird im Abschnitt 5.6 eingegangen. Für die zunächst zu behandelnden, betont technischen Komprimierungen sind zwei Begriffe wesentlich (Bild 69): ---- 105 ----

x

x

Relevanz geht auf das Lateinische levare erleichtern, erheben und levis leicht zurück. Verwandt damit sind Elevator als Heraus-, Emporheber, Förder- und Aufzug sowie der Eleve als Zögling, Schüler. Ferner wird Elevation als Erhöhungsgrad bei Sternen, Geschützen usw., aber auch als Winkelmaß benutzt. Verwandt ist damit das französische Relief, jenes was sich hervorhebt. Heute betreffen sie etwa Bedeutsamkeit, Wichtigkeit und Erheblichkeit die Relevanz sowie erheblich, wichtig und bedeutend relevant. Mit dem Gegenteil irrelevant wird Unwesentliches, Überflüssiges bezeichnet. Redundanz geht auf das Lateinische unda die Welle und Undulation die Wellenbewegung zurück. Red-undanz entspricht daher einem Zurückwogen. Verwandt damit ist das Wassermädchen, die Nixe Undine, sowie Französisch ondulieren und sondieren, später auch die Sonde. Heute und vor allem technisch werden darunter Üppigkeit, Überfluss, Überreichlichkeit und Übermaß verstanden.

Bild 69. Redundanz und Relevanz.

Inhaltlich besitzen daher Irrelevanz und Redundanz gemeinsam einen beachtlichen Bezug zu Ockhams Rasiermesser, also das nicht Notwenige abschneiden (s. Abschnitt 4.5 und vgl. dort auch Abstraktion und Reduktion). Während bei der Fehlerbehandlung eine Redundanz in genau bestimmter Weise hinzugefügt wird, muss bei der Komprimierung soviel wie möglich oder zulässig ist, entfernt werden. Erst danach sind die Dateien deutlich kleiner und somit auch schneller zu übertragen. Dafür sind drei Methoden und zwei Kanalvarianten von Bild 70 (nächste Seite) zu unterscheiden: 1. Verlustbehaftete Methoden entfernen irrelevante Daten, Fakten und Erscheinungen. Meist werden dabei Inhalte ausgewählt, die das Empfangssystem nicht benötigt oder nicht einmal nutzt, z. B. ein Mensch nicht wahrnehmen kann. Dazu muss oft zunächst ein geeignetes Modell des Empfängers geschaffen werden. Der Vorteil dieser Methode ist, dass sie sowohl auf tkontinuierliche, als auch auf diskrete, digitale Daten angewendet werden kann. Im Prinzip sind hierbei daher auch jene Methoden nutzbar, die bei der Z-Information in den Abschnitten 4.4 bis 4.7 behandelt wurden, also vor allem Oberbegriffe, Klassenbildung und Axiomatik. 2. Verlustfreie Verfahren suchen nur teilweise nach redundanten Daten. Stattdessen benutzen sie Umrechnungen, Algorithmen und/oder Links auf Daten, die im Sender und Empfänger verfügbar sind. Mit ihnen werden die Daten für die verdichtete Übertragung umgerechnet. Dabei verlangen sie für die optimale Variante fast immer zuvor eine Analyse der zu komprimierenden Datei. Außerdem sind die Verfahren nur auf diskrete, digitale Daten anwendbar. Im theoretischen Grenzfall ist dabei jede endliche Datei auf 1 Bit zu reduzieren. 3. Inhaltliche Verfahren gibt es vor allem für die Sprache (s. Kapitel 4). Dazu gehören z. B. Kurzfassungen, Inhaltsangaben, Annotationen usw. Bei der Musik sind es Themen, Motive, Ouvertüren usw. Dabei wirken ganze Texte oder kurze Musikstücke wie ein einziges Zeichen.

5.6.1 Modelle für Hören und Sehen Bei einer verlustbehafteten Komprimierung sind fast nur Modelle für unser Hören und Sehen wichtig. An dieser Stelle werden aber nur die wichtigsten Daten vorgestellt, denn Genaueres ist beim Gedächtnis im Abschnitt 6.8 vorhanden. Bei akustischen Übertragungen sind bzgl. des Anwendungsgebietes vor allem der auszuwählende Frequenzbereich und die erforderliche Dynamik wichtig. Dafür gilt der Überblick von Bild 71. ---- 106 ----

Bild 70. Die beiden Varianten zur komprimierten Übertragung.

Bild 71. Lage der hörbaren Schallarten.

Bezüglich der notwendigen Frequenzgrenzen ist vor allem die Unterscheidung von Musik und Silbenverständlichkeit notwendig (Bild 72). Für die nicht künstlerischer Sprache (z. B. Telefon) genügen meist 300 bis 3400 Hz. Für hochwertige Musikübertragungen sollten dagegen mindestens 50 Hz bis fast 20 kHz zur Verfügung stehen. Bild 72. Frequenzgrenzen für akustische Übertragungen.

---- 107 ----

Die Dynamik oder der Störabstand ist das Verhältnis von maximal möglicher Lautstärke zum Grundrauschen. Dabei muss aber immer der Klirrfaktor klein gehalten werden. Ansonsten ist das logarithmische Weber-Fechner-Gesetz (s. Abschnitt 5.3.5, Bild 5.31) zu beachten. Mittelbar sind dazu auch die Logons eingeführt. In ihrer Fläche sind keine Änderungen der Frequenz und/oder Lautstärke hörbar. Für die Darstellung von Bild 73b mussten jedoch jeweils 25u100 Logons zusammengefasst werden. Sie sind um 1000 Hz und 90 dB Schalldruck besonders klein und dicht. Deshalb wird diese recht große Lautstärke beim Abhören in Studios bevorzugt. So werden selbst kleinste Feinheiten erkannt. Zu kleineren Lautstärken sowie hohen und tiefen Frequenzen nimmt die Wahrnehmbarkeit von Änderungen stark ab, die Logons werden daher größer und weniger. Das zeigt sich besonders deutlich in der frequenzabhängigen Anzahl der unterscheidbaren Amplitudenstufen (vgl. dazu Bild 5.30). Die Auswirkungen zeigen sich deutlich beim Vergleich von Gehör, Audio-CD und Tonband in Bild 73a. Dabei wird auch deutlich, warum StudioMagnetband-Aufzeichnungen teilweise die Qualität der CD übertreffen. Bei großen Lautstärken könnten unnötig viele und zu kleine Stufen zu jeweils einer zusammengefasst werden. Intensiv wird das bei den Mobiltelefonen genutzt, wo nur 5 Lautstärkestufen benutzt werden.

Bild 73. Zu den Grenzen der Wahrnehmung des Gehörs. Weitere Möglichkeiten zur Komprimierung ergeben sich dadurch, dass lautstarke Frequenzen leisere verdecken (s. Bild 74a) und kurz vor ihrem Beginn und nach ihrem Ende Ähnliches bewirken (b). Bild 74. Zur Maskierung und Verdeckung von Schallereignissen.

Beim Sehen gelten deutlich andere Zusammenhänge. Wir sehen nur in einem kleinen Bereich farbig und noch kleiner ist der Bereich für feine Details. Beides folgt aus der Dichteverteilung der Zäpfchen für Farbsehen gemäß Bild 75. Eine weitere Folge ist unser ganzheitlicher Sehbereich von ---- 108 ----

Bild 76. Im großen Winkelbereich sind dabei nur die Stäbchen für Helligkeiten verfügbar. Ganz an den Sehrändern werden keine Objekte, sondern deren Bewegung wahrgenommen.

Bild 75. Zur Dichte der Zäpfchen und Stäbchen in der Netzhaut.

Bild 76. Typisch beidseitiges Sehfeld des Auges.

Bei einem neuen Bild verschaffen wir uns deshalb zunächst mit dem großen Blickfeld einen Überblick und analysieren erst anschließend schrittweise Details mit dem scharf sehenden Farbbereich. Das demonstriert der Vergleich von Bild 77 und 78.

---- 109 ----

Bild 77. Holbeins d. Jüngeren Gemälde „Die Gesandten“ zeigt den französischen Gesandten Jean de Dinte-Ville und seinen Bevollmächtigten und Freund, den Bischof Georges de Selve. Es enthält am Boden – hier blau umrandet – stark verzerrt das Bild eines Totenschädels, der erst bei der Entzerrung (rechts) gut zu erkennen ist. Vermutlich spielte Holbein damit auf den bevorstehenden Tod de Dintevilles an.

Bild 78. Dauer von blau (kurz) bis rot (lang) der Betrachtungen von Bildteilen im Vergleich zum Original von Bild 77 [Zho15].

---- 110 ----

Die zeitlich gestaffelte Bildbetrachtung führt automatisch zu den üblichen rechteckigen Grenzen aller Bilder mit der überall gleich großer Auflösung. Im Gegensatz zum Hören ist hier also keine Redundanz nutzbar. Die Komprimierung nutzt hauptsächlich unsere komplizierte Farbwahrnehmung. Sie ist weitgehend durch die drei Zäpfchenarten mit den Absorptionskurven von Bild 79a bestimmt. Auffällig ist die geringe Absorption der blauen Zäpfchen. Der wahrgenommene Helligkeitsverlauf ist bei dem Nachtsehen mit Stäbchen gegenüber der Summenkurve aller Zäpfchen beim Tageslicht leicht in Richtung blau verlagert (b). Wie die einzelnen Zäpfchen auf die monochromatischen Farben bei gleicher Lichtintensität ansprechen zeigt Bild 79c.

Bild 79. Zu der Wirkung der Lichtwellenlängen auf unser Sehen. Für die Primärfarben x (Rot), y (Grün) und z (Blau) und den zugehörigen Gewichten gx, gy und gz gilt daher für eine beliebige Farbvalenz:

f = gx˜x + gy˜y + gz˜z. So kann jede Farbvalenz als Ort in einem 3D-RGB-Raum dargestellt werden. Weil das aber recht aufwändig ist, begann bereits in den 1920er Jahren die CIE (Commision Internationale de l’Éclairage) eine einfachere Darstellung zu entwickeln. 1931 wurden für ein CIE-RGB-Modell drei physikalisch nicht existierende, virtuelle Primärfarben eingeführt: x O , y O , z O . Mit dem Spektralverlauf S(O) folgen durch Integration die Normalfarbenwerte des RGB-Modells: X k ˜ ³ S O ˜ x O ˜ dO Y k ˜ ³ S O ˜ y O ˜ dO

Z k ˜ ³ S O ˜ z O ˜ dO .

Auch ihre 3D-Darstellung ist unhandlich. Deshalb wird die absolute Helligkeit A = X + Y + Z eingeführt. Damit ergeben sich die Normfarbanteile zu x = X/A; y = Y/A und z = Z/A . Ihre Werte liegen immer zwischen 0 und 1. Da ihre Summe immer 1 ist, genügen dann zwei Werte zur Darstellung aller Farbvalenzen. Ausgewählt wurden x und y, und es entsteht das CIE-Farbdreieck von Bild 80a. Dem „Mittelpunkt“ entspricht weißes (unbuntes) Licht. Alle etwa 150 monochromen, also gesättigten Farben liegen auf dem hufeisenförmigen Rand. Auf unteren Geraden befinden sich die Mischfarben aus rot und blau, u. a. violett. Im Innern liegen alle möglichen Mischfarben, die in Richtung zu Weiß pastellartig werden. Auf der Sättigungsgeraden vom Mittelpunkt bis zum Rand sind etwa 20 Werte unterscheidbar. Nun können ähnlich wie beim Schall ellipsenförmige Logons für nicht wahrnehmbare Farbänderungen bestimmt werden (s. Bild 80 a und c). In Richtung Helligkeit kann das Dreieck 600 Stufen mit einem Kontrast von 1 : 200 annehmen. Aus X, Y, Z kann mit geringen Änderungen ein etwa kreisförmiger RGB-Raum mit den Farbvalenzen R, G und B abgeleitet werden. Mit dem Farbfernsehen musste auf Schwarzweiß-Fernsehern ein leidliches Grau-Bild entstehen. Dazu wurde ein Helligkeitssignal (= Luminanz Y; nicht verwechseln mit yellow) bestimmt, das annähernd dem Helligkeitsverlauf V(O) entspricht. Dabei wurde beachtet, dass wir Farben weniger gut als Helligkeiten unterscheiden. Eine Teilursache ist die farbabhängige Lage der Brennpunkte unserer Augenlinse (s. Bild 80b). Deshalb wird für die beiden Farbdifferenzbzw. Chrominanzsignale (Chroma) Cb und Cr nur die halbe Bandbreite (Auflösung) benutzt. Für die Umrechnung wurde festgelegt: ---- 111 ----

29 º ª R º ª 77 150 ªY º «C » 1 ˜«151  110  21»˜«G » . r »« » « » 256 « «¬ 44  87 131 »¼ «¬ B »¼ «¬C b »¼

Für die kontinuierliche Übertragung gilt folgt ähnlich das YUV-Signal mit den Auflösungen 4:1:1. Y = 0,299˜R + 0,587˜G + 0,114˜B, U = 0,493˜(B - Y) und V = 0,877˜(R - Y). Mehr Details enthält [Völ99] S. 26ff.

Bild 80. Zur Farbauflösung beim Sehen. Die etwa 3000 Logons werden meist MACADAMS-Ellipsen genannt.

5.6.2 Verlustbehaftete Schall-Komprimierungen Eine erste hohe Sprachkomprimierung ist der bereits 1920 entstandene Vocoder. Dabei werden mehrere (z .B. 20) Frequenzkanäle mit einer Bandbreite von rund 200 Hz und einer Dynamik von 30 dB angelegt (Bild 81). Aus ihnen werden nur die zeitlich gemittelten Amplituden übertragen. Bei der Wiedergabe steuern diese Signale die Amplitude der entsprechenden Oszillatoren. So entsteht eine Komprimierung von größer als 300 : 1. Dennoch wird eine Silbenverständlichkeit t 90 % erreicht. Dabei geht jedoch jede Individualität und Interpretation des Sprechers verloren. Insbesondere ist keine Sprecher-Erkennung möglich. Heute wird die Technik nur noch für Musik z. B in Synthesizern als Effektgerät benutzt. Bild 81. Prinzip des Vocoders von etwa 1920.

Bei hochwertigen Musikaufnahmen steuert der Tonmeister den Aufzeichnungspegel mittels der Partitur so, dass trotz der deutlich geringeren technischen Dynamik die originalen Dynamiksprünge möglichst vollständig erhalten bleiben. Dazu senkt er vor dem Lautstärkanstieg den Pegel unhörbar langsam ab und hebt ihn nachher wieder langsam an. Ähnliches wurde auch für weniger hochwertige Speicher – wie Schallplatte und Heimtonbandgerät – mit automatischen Dynamikregelungen angestrebt. Dabei entstanden ab den 70er Jahren mehrere Dolby-Verfahren mit Com- und Expandern. Deren Prinzip war allerdings schon viel früher als reziproke Dynamikregelung erprobt (Abschnitt 5.3.6, Bild 37, [Völ58a]). Ein deutlich anderes Verfahren ist DNL (dynamic noise limiting). Während der Wiedergabe geringer Lautstärke werden die Höhen, da sie ohnehin nicht hörbar wären, und damit das Rauschen abgesenkt [Völ07], S. 90. ---- 112 ----

Neue Methoden entwickelte die mpeg (moving picture expert group) primär für Video ab Ende der 1980er Jahre. Dabei waren auch Audio-Komprimierungen notwendig, die getrennt von Video meist als mp2 bezeichnet werden. Sie nutzen vor allem die Verdeckungen durch laute Frequenzen nach Bild 74a und z. T. auch Maskierungen nach Bild 74b. So ergibt sich das Prinzip von Bild 82a, mit dem zunächst nur Verdichtungen um 1:4 möglich waren. Zur Schaffung der Frequenzkanäle wurde zunächst die übliche Fourier-Transformation eingesetzt. Mit der Digitalisierung tritt dann die DCT (discrete-cosine-transformation) an ihre Stelle.

Bild 82. Typische Struktur für mpeg-Audio und mp3.

Erst mit der Entwicklung des Instituts für Integrierte Schaltungen (ISS) der Fraunhofer-Gesellschaft in Erlangen entstand mp3. Insbesondere wurde dabei zusätzlich die Umverteilung der stets äquidistanten Amplitudenstufen (Bild 82b) eingesetzt. Insgesamt wurden so schließlich Komprimierungsraten bis zu 1:12 realisiert. Dennoch wird sogar eine mit der Audio-CD vergleichbare Klangqualität erreicht. Die Dateigröße sinkt so von einer Audio-CD mit 58 MByte auf etwa 3 MByte. Ähnlich, jedoch nicht immer so effektiv, arbeiten die Formate xac, aff, voc, attrac usw. sowie im Internet die Streams der Formate winmedia, mp3, ogg und aac. Auch das europäische Rundfunk-System DAB (digital audio broadcasting) wendet sie an.

5.6.3 ASCII- und MIDI-Code Code lateinisch cauda Schwanz, Schleppe; caudex Baumstamm, Strafblock, Buch, Bibel, in Frankreich im Sinne von Gesetz, u. a. Code Napoleon, Code de commerce, Coda musikalischer Schluss. Schall kommt in vielen Anwendungen und Ausprägungen vor. Typische Beispiele sind Sprache, Gesang, Musik, Oper, Hörspiel, Audioart, Raumakustik, Warnsignale (Sirenen), Tierlaute (speziell Fledermäuse), Ultraschalluntersuchungen und Schallortung mit Infraschall z. B. in Meeren und bei Delfinen/Walen. Für alle diese Schalle sind die Komprimierungen des vorigen Abschnitts grundsätzlich geeignet. Doch zumindest in zwei Fällen schuf sich der Mensch effektivere Lösungen: 1. entstand für die Kommunikation die Sprache (s. Kapitel 4). Zu ihrer dauerhaften Speicherung entstanden die Schrift und dann das Alphabet. 2. geschah Ähnliches für Gesang und instrumentale Musik mit den Noten. In beiden Fällen wurden dazu nur spezielle Schalle ausgewählt. Dabei wurden dann individuelle Ausprägungen als redundant ausgesondert. Von der t-kontinuierlichen Sprache verblieben nur wenige diskrete unterscheidbare Laute, die durch Buchstaben zu einfachen Zeichen wurden (Abschnitt 4.3). Dabei gehen alle zur Sprache gehörenden Besonderheiten, wie Lautstärken, Betonungen, Tonhöhen (männlich, weiblich, kindlich), Melodie, Pausen und Rhythmen verloren. Bei der erneuten Wiedergabe (Lesung usw.) müssen sie immer als individuelle Interpretation, also meist deutlich anders hinzugefügt werden. Besonders auffällig ist das bei technisch, ---- 113 ----

elektronisch generierten Stimmen. Andererseits ermöglichen die starken Einschränkungen eine weitaus höhere Komprimierung. Sie werden noch deutlicher bei der binären Übertragung und Speicherung mit dem ASCII-Code (american standard code for Information interchange) von 1963. Der 7-Bit-Code mit 128 Zeichen wurde erstmals 1967 veröffentlicht und zuletzt 1986 für alle Sprachen aktualisiert. Nur 2*26 Zeichen (Groß- und Kleinbuchstaben) entsprechen den ausgewählten (festgelegten) Lauten (Phonemen). Einige andere geben einfache Hinweise für Pausen, Betonungen usw., andere wie &, $, % und Ziffern sind eher Symbole, weitere 33 sind nicht druckbar und dienen vor allem der Steuerung des Druckers. Während ein 2-Minuten-Text als kontinuierliches Audio-Signal mehr als 1 MByte benötigt, reichen zum Drucken der entsprechenden A4-Seite als ASCII-Code weniger als 2 KByte. Dabei ist dann noch der Schriftfont weitgehend wählbar. Der geht aber beim OCR-Erkennen (optical character recognition) wieder verloren (s. Bild 4.13). Weniger gut funktioniert das bei der Spracherkennung. Für Musik war die Entwicklung des Moog-Synthesizers von 1964 wesentlich. Bald danach entstanden mehrere Keyboard-Varianten und elektronisch gesteuerte Rhythmus- und sonstige Instrumente. 1982 entstand MIDI (musical instrument digital interface) zunächst für den Datenaustausch (Kommunikation) zwischen Computer und Keyboards, Synthesizer, Rhythmusinstrumente usw. Dabei wurde das Interface V 24 bzw. RS 232 mit 31,25 kHz (1/32 MHz) mit 8 Daten-Bit und 1 Stopp-Bit benutzt. Es waren drei Modi wählbar: Omni: an alle Geräte, Poli: für nur adressierte Geräte und Mono: für Änderungen in einem Gerät. Erst 1991 wurden dafür die Instrument-Adressen exakt festgelegt. Im Zusammenhang mit der Musikkomprimierung ist jedoch der Notenbezug von MIDI wichtiger. Die Daten-Byte für Tonhöhe und Lautstärke entsprechen dann etwa dem ASCII-Code, das Status-Byte für Ton ein/aus dem CRLF (Zeilenwechsel). Dabei gilt Daten-Byte 60 mittleres C (Klavier 24-108) Tonhöhe Lautstärke 64 „normal“, 0 aus, 1 ppp, 127 fff. Sie wird durch die Anschlagsdynamik als 't zwischen zwei Kontakten bestimmt. Status-Byte Für 16 Kanäle, d. h. unterschiedliche Keyboards, Geräte. Bit 0- 3 Speziell, z. B.: 1000 = Note aus, 1001 = Note ein, Bit 4 - 7 1010 = polyphon, 1100 = Programm-Änderung.

Ferner können Klangbänke für etwa hundert Instrumente ausgewählt werden. Sie sind vor allem durch vorhandene Obertöne sowie Ein- und Ausschwingvorgänge gekennzeichnet. Dennoch erklingen mittels spezieller Soundsamples z. B. ganz spezielle Konzertflügel. Generell werden mit den Keyboards aber die Notenwerte (Tonhöhe) in Signale der entsprechenden Grundfrequenz umgesetzt und mit der ausgewählten Lautstärke ausgegeben. Im Vergleich zum eigentlichen Schall erfolgt also auch hier eine sehr hohe Kompressionsrate. Ganz ähnlich wie beim ASCII-Code gehen ebenfalls viele spezifische Eigenschaften der Musik verloren. 1904 schufen Welte und Sohn Berthold das Reproduktionsklavier Welte-Mignon (französisch mignon allerliebst, niedlich, reizend). Es überträgt das Spiel eines Pianisten auf ein Lochband, die Notenrolle. Dabei werden (fast) alle Feinheiten der Interpretation (Tempo, Anschlagstärke, Pausen usw., also die gesamte Agogik festgehalten (griechisch agon Wettkampf, Anstrengung, etwa frei, individuell gestaltet. So stehen heute Notenrollen der Interpretationen vieler Musiker in Originalqualität zur Verfügung. Für die Ausbildung usw. hat es den großen Vorteil, dass es so auch erstmalig möglich wurde, die einzelnen Interpretationsmerkmale (Lautstärke, Agogik, Betonung usw.) für die Wiedergabe ein- bzw. ausschalten zu können. Dabei ist zu beachten, dass selbst ein Komponist in seinen Noten nicht so viele Details festlegen kann. Ab etwa 1970 ist auch der automatisierte Übergang zum MIDI gelungen (vgl. Details in [Völ05], S. 189ff. + 592ff.). Leider ist ähnliches für Oper, Lied usw. nicht vorhanden. Erwähnt sei noch, dass nach diesen Prinzipien auch bereits eine Notenerkennung von Musik leidlich funktioniert. ---- 114 ----

5.6.4 Verlustbehaftete Bild- und Video-Komprimierungen Schallsignale stammen von einem bis zu wenigen Mikrofonen. Daher kann jedes Signal einzeln erfasst werden. Sie verlaufen zwar betont zeitgleich, aber komplexe inhaltliche Verknüpfungen bestehen zwischen ihnen kaum. Eine gewisse Ausnahme sind Stereosignale. Das ermöglicht praktisch immer die vorwiegend getrennte Behandlung der einzelnen Signale, wie bei den zuvor behandelten Komprimierungen. Bei Bildern sind die Zusammenhänge dagegen betont zweidimensional verknüpft. Sie werden bevorzugt ganzheitlich betrachtet. Eine kontinuierliche Bearbeitung ist bereits bei der früheren diskreten Zeilenabtastung kaum möglich. Noch ausgeprägter gilt das für die heute üblichen Aufnahmen mit CCD- oder CMOS-Sensoren und ihrer konsequenten 2D-Rasterung. Dabei erzeugen sie mit meist quadratischen Pixeln die typischen Rasterbilder. Das ist im 20u20 Rasterbild eines Hahnenkopfes in Bild 83 zeichnerisch hervorgehoben. Jedes einzelne Pixel trägt dann Werte für Helligkeit und Farbe, eventuell auch Durchsichtigkeit. Deren Ausprägungen sind heute ebenfalls diskret, mit Farbauflösungen von meist 24, zuweilen auch 2, 8, 16 oder 32 Bit. Hochaufgelöste Rasterbilder enthalten viele Millionen Pixel. Dadurch entsteht der Eindruck eines kontinuierlichen Bildes. Ausführliche Angaben enthalten u. a. [Hol94] und [Str02].

Bild 83. Beispiele für die drei deutlich unterschiedlichen Methoden für Bilder.

Neben Rasterbildern existieren noch Vektor-Bilder und Fraktale. Die Vektor-Bilder benutzen eine erweiterte Euklidische Geometrie. Primär werden mathematisch generierte Linien mit wählbarer Strichstärke und -farbe zur Erzeugung aller möglichen Strichzeichnungen, also aus Figuren wie Kreise Ellipsen, Vielecke usw. benutzt. Abgeschlossene Flächen können dann mit (teilweise gleitender) Farbe ausgefüllt werden. Mit speziellen Programmen lassen sich aus Raster- auch Vektorbilder erzeugen. Solange keine zu komplexen Bilder notwendig sind, liegt daher bereits eine hoch verdichtete Datei vor. Das eigentliche Bild muss hierbei immer erst aus den digitalen Daten erzeugt werden. Prinzipiell lassen sich diese Daten noch zusätzlich digital gemäß Abschnitt 5.6.6 komprimieren. Doch der Gewinn bleibt dabei gering. Nur bei den Vektordateien gibt es auch eine Möglichkeit für räumliche 3D-Darstellungen, die dann Betrachtungen aus verschiedenen Richtungen und Drehungen erlauben. Die Fraktale können nur mittels zigfacher Rekursion erzeugt werden und sind daher erst im Abschnitt 7.6 behandelt. Für Rasterbilder gibt es etwa hundert von verschiedenen Institutionen weitgehend genormte und meist komprimierte Dateiformate. Viel benutzt werden bmp, gif, ico, img, jpeg, jpeg 2000, mac, pcx, pic, pmg. raw (unkomprimiert) und tif. Für 2D-Vectorbilder existieren ai, cdr, cgm, dwg, dwf, emf, eps, gem, ps und wmf. Für das 3D-Vektor-Fomat gibt es nur dxf. Eine nahezu vollständige Liste mit den wichtigsten Kennzeichen existiert im Internet unter Wikipedia als „Grafikformat“. Nachdem bereits viele Bildformate entstanden waren und benutzt wurden, entstand 1986 das internationale Gremium JPG (joint photo group). Sie schuf 1991 das ziemlich komplizierte, aber leistungsfähige Prinzip des jpg-Formats, dessen Schema Bild 85 zeigt. Für die Bildeigenschaften der einzelnen Pixel der rechteckigen Matrix erfolgt zunächst eine Umwandlung in das YUV-Modell mit einer 4:1:1-Verdichtung. Dann werden Teilblöcke aus jeweils 8u8 Pixel gebildet. Mit der DCT (discrete cosinus transformation) wird für sie die 8u8 Koeffizientenmatrix von Bild 84 und 85b ge---- 115 ----

trennt für Helligkeit und Farbe gebildet. Sie enthalten oben links den Wert c00 für die mittlere Helligkeit bzw. Farbe. Weitere Koeffizienten erfassen deren Ortsfrequenzen. Die Matrizen werden dann mit Tabellenwerten (d) multipliziert. Dabei und dazu wird wie es c) zeigt, sequentiell abgetastet. Sobald die Werte eine wählbare untere Grenze (sie bestimmt die Qualität des komprimierten Bildes) unterschreiten, wird der Vorgang beendet und die komprimierte Bilddatei kann übertragen werden. Die Rückwandlung in ein Bild erfolgt reziprok a).

Bild 84. Prinzip der DCT und deren Rücktransformation.

Bild 85. Prinzipieller Ablauf der jpg-Komprimierung.

Eine zusätzliche Komprimierung geschieht zuweilen noch dadurch, dass von den 8u8 = 64 möglichen Matrixmustern einige (häufige) ausgewählt werden, die dann ähnliche, aber selten auftretende Muster ersetzen. Das Bild 86 zeigt das Prinzip für eine 4u4-Matrix reduziert. Dieser Austausch erzeugt die typischen, störenden jpg-Artefarkte (lateinisch ars Kunst, Geschick und factum das Gemachte). Um ihr Auftreten zu verringern wurden auch andere Transformationen versucht. Diese Möglichkeiten leiten sich vor allem aus dem Verhältnis von der Bandbreite 'f und Abtastzeit 't ab (Bild 87). Bild 86. Zum Austausch von Matrix-Strukturen. Besonders erfolgreich waren dabei die Wavelets. Sie benutzen eine einzelne (kurze) Schwingung, (Wellchen), die immer noch nicht genormt ist, da für sie bisher keine bestmögliche Variante gefunden wurde. Je nach ihrer Lage in der Zeitachse und ihrer Frequenz erfolgt die Wavelet-Transformation. Dadurch entstehen hierarchisch gestaffelte Hoch- und Tiefpassfilterungen der Pixel-Teilmatri---- 116 ----

zen (Bild 88). Damit können dann ähnlich wie bei der Fourier-Transformation die Koeffizienten für die zu übertragende Datei berechnet werden. Aus ihr kann das Originalbild deutlich besser erzeugt werden. Angewendet sind Wavelets beim selten benutzten JPEG 2000. Neben vielen weiteren Varianten gibt es sogar ein verlustloses jpeg-ls. Details zu jpg usw. u. a. in [Str02], S. 163, 221.

Bild 87. Zur Wahl von Bandbreite 'f und Abtastzeit 't für die Nutzung von anderen als die Fourier-Transformation.

Bild 88. Prinzip der Wavelet-Transformationen.

Es gibt noch viele weitere Bildformate, darunter auch Stereobilder, Hologramme und Fraktale. Für sie ist jedoch primär die Speicherung wichtig. Daher werden sie in den Kapiteln 6 bzw. 7 behandelt. Hier folgt nur noch eine kurze Betrachtung der Videoformate. Dabei ist jedoch jpg usw. nicht unmittelbar anwendbar. Die sich von Bild zu Bild stark verändernden Artefarkte führen zu einem sehr störenden Pixelrauschen. So entstand das mpeg-Format (moving peg) als besondere Codierung. Im Bild 89 ist es vereinfacht dargestellt. ---- 117 ----

Dabei wird eine zusammengehörende Gruppe aus meist 12 Bildern nach drei unterschiedlichen Methoden bearbeitet. Nur jedes zwölfte Bild wird als I (intra-frame) vollständig z. B. per jpg codiert. Dann gibt es zwei Prädiktionsbilder P. Für sie werden über mehrere Zeilengruppen die sich bewegenden Teile der Bilder abgeleitet. Im Bild 89 betrifft es z. B. das durch den roten Pfeil gekennzeichnete Auto. Mit diesen Daten können dann die 8 restlichen Zwischenbilder B mittels Interpolation berechnet werden. Diese Struktur besitzt erhebliche Nachteile für das Cuttern. Erst bei den rein digitalen Videoformaten kommen neue leistungsfähige Möglichkeiten hinzu. Dabei wurde schrittweise die Pixelzahl von 352u480 bei mpeg-1 auf 1 920×1 080 bei mpeg-3 erhöht. Mit mpeg-4 wurde zusätzlich eine Version für interaktive Anwendungen mit 174×144 Pixel entwickelt. Die Komprimierungsraten reichen dabei von etwa 80 : 1 bis 180 : 1. [Str02] enthält ab S. 188 viele Details zur Videocodierung. Außerdem sind im Buch auch mehrere Quellcodes abgedruckt.

Bild 89. Prinzip der MPEGCodierung für bewegte Bilder.

5.6.5 Fehlt ein Grafikcode? Für Sprache und Musik gibt es die sehr effektiven Komprimierungen mittels ASCII und MIDI. Dabei werden ausgewählte Elementareigenschaften ihrer t-kontinuierlichen Schallschwingungen genutzt. Ähnliche Elementargebilde, aus denen sich alle möglichen Bilder erzeugen lassen, sind leider nicht bekannt. Mittels der analytischen Geometrie sind zwar mit mathematischen Formeln nahezu beliebig geformte Linien, Flächen und deren Füllungen zu generieren. Doch die notwendige Vielfalt an Formeln ist bereits deutlich größer als die Kenngrößen des ASCII- oder MIDI-Codes. Daher ist so keine besonders große Komprimierungsrate zu erreichen. Ganz ähnlich ist auch die Gestaltungsvielfalt der so erzeugbaren Vektor-Bilder wesentlich kleiner als die der Fotografie. Eine Ursache könnte vielleicht sein, dass die Realität praktisch immer dreidimensional statt ihrer zweidimensionalen Abbildungen ist. Um aber vom Dreidimensionalen auszugehen, müssten dort Elementareigenschaften bekannt sein. Aber bereits die vielfältigen Schwierigkeiten für Stereo-Bilder und Holografie (Abschnitt 6.6.) sowie das einzige 3D-Vektor-Format sprechen deutlich gegen die Annahme, dass sich alle Raumgebilde aus wenigen Elementareigenschaften erzeugen ließen. Es ---- 118 ----

gibt aber noch die Fraktale, doch auf ihre auch begrenzten Möglichkeiten wird im Abschnitt 7.6 eingegangen. Da die Problematik bereits bei Bildern besteht, muss sie sich für Video/Filme mit der zusätzlichen Zeit-Dimension noch deutlich stärker auswirken. Zu einer ergänzenden Analyse der Fakten werden hier drei Aufwandsgrößen für Sprache/Text, Musik, Bilder und Filme eingeführt: x x x

Für ihre Erzeugung, Herstellung ist ein geistiger, technischer, materieller und zeitlicher Aufwand erforderlich. Eine typische Speicherkapazität ist notwendig, um die geschaffenen Produkte aufzubewahren und verfügbar zu halten. Die Rezeption der Produkte erfolgt über unsere Sinne (vorrangig sehen und hören). Das geschieht immer nur für eine gewisse Zeitdauer. Danach erlischt deutlich das Interesse.

Für den Vergleich sind auf der technischen Seite die Gegebenheiten zur Erzeugung und der Speicherkapazität wesentlich. Für die Rezeption sind dagegen unsere physiologischen Eigenschaften entscheidend. Das sind die Wahrnehmungsraten unserer Sinne und die Gedächtniskapazität (Abschnitt 6.8). Wenn wir alles vom jeweiligen Produkt hinreichend erkannt und gespeichert haben, erlischt eben unser Interesse. Andererseits sollten unsere technischen Methoden im Sinne einer kybernetischen Anpassung und Analogie „optimal“ bezüglich unserer Physiologie entwickelt und konstruiert sein. Dann müssten die Verhältnisse zwischen den drei Größen für alle Produkte etwa gleich sein. Dafür sind die technischen Parameter für die Gegenwart und jeden Zeitpunkt der Vergangenheit recht gut bestimmbar. Schwieriger ist es, Daten für die physiologischen Größen zu gewinnen. Für den zu betrachtenden Zeitpunkt dürften sie sich aber im Wesentlichen kaum verändert haben. Jedoch hängen die Werte erheblich von individuellen Interessen ab und ändern sich oft deutlich mit dem Alter. Ein erster Überblick ergibt sich aus zwei Parametern: 1. Die Dauer in der das Produkt interessant ist und daher vollständig gehört und/oder betrachtet wird. 2. Wie oft und lange das später wiederholt wird. Hierfür sind trotz aller Einflüsse drei Aussagen recht gut gesichert: x Viele Musikstücke hören wir immer wieder, nicht selten mehr als hundertmal. x Filme sehen wir dagegen nur wenige Male an, in Sonderfällen bis etwa dreimal. x Bilder betrachten und Texte lesen liegen etwa zwischen beiden Extremen. Unter Berücksichtigung dieser und weiterer Fakten sowie der technischen Kenngrößen ergibt sich vereinfacht der Überblick von Bild 90. Daraus folgt u. a., dass wir für Bilder noch keine auf unsere Sinne gut angepasste Technologie besitzen. Beachtlicher Fortschritt und deutliche Vereinfachung wurden jedoch bereits mit der elektronischen Fotografie erreicht. Dennoch ist der Abstand zu Sprache und Musik beachtlich. Vielleicht liegt das an einem fehlenden Code. Noch größer und z. Z. unveränderlich gilt die große Abweichung für Filme/Videos. Hier müssten also in der Zukunft noch revolutionäre Entwicklungen erfolgen. Ob z. B. die sonst interessanten Ansätze von Yukio Ota (*1939) mit seinem System LoCoS (lovers communication system; Kommunikationssystem für Liebende) in die erwünschte Richtung weisen, ist sehr unsicher. Sie sind jedoch unabhängig von jeder Sprache schnell erlernbar. Ein Beispiel zeigt Bild 91. Weitere Details s. [Völ05], S. 335. Bild 90. Versuch einer Einschätzung der vorhandenen Komprimierungen. ---- 119 ----

Bild 91. Ein Beispiel für die Anwendung der Bildsprache LoCoS. Falls trotz aller genannten Probleme dennoch in absehbarer Zeit einer der gewünschten Codes gefunden werden sollte, ergäben sich bestimmt neue Probleme. Er müsste von den Anwendern langfristig und gründlich gelernt und gut beherrscht werden. Welche Probleme das bringen dürfte, zeigt sich bereits heute darin, wie wenige noch Musiknoten oder Kurzschrift (Steno) beherrschen. Noch deutlicher weist das die Tanzschrift aus. Sie wird wohl von keinem Choreografen oder Ballettmeister beherrscht. Für das Aufschreiben der gefundenen und mit den Tänzern entwickelten Choreografie sind spezielle Notatoren erforderlich. Sie werden zudem nur im Choreologischen Institut in London innerhalb von 2 bis 3 Jahren ausgebildet. Wegen ihrer Spiegelbildlichkeit sind Videos für eine Neueinstudierung wider Erwarten so gut wie nicht nutzbar. [Völ05], S. 210ff.

5.6.6 Verlustfreie Komprimierungen Das Kanalmodell von Bild 70a zeigt die Möglichkeiten der verlustfreien Komprimierung. Dem Encoder und Decoder sind dabei Algorithmen und Daten zugeordnet, die aufeinander bezogen sind. Dabei gibt es seit geraumer Zeit weder für die Menge der Daten noch für die Komplexität der Algorithmen wesentliche Grenzen. Dennoch muss gelten: x Die Datenmenge muss endlich sein. Für die Anwendung gilt das immer automatisch, denn selbst ein Stream hört irgendwann auf. x Die Algorithmen müssen sicher terminieren, denn sonst würde die Übertragung nie enden. x Der Kanal muss diskret (digital) arbeiten. x Meist muss auch die übertragende Datei digital (diskret) sein. Dann ergeben sich zwei grundsätzlich verschiedene Wege: 1. Algorithmische Codierung: Auf beiden Seiten befinden sich die zueinander reziproken Algorithmen. Dann untersucht der Encoder die zu übertragende Datei und findet darin Gesetzmäßigkeiten. Dementsprechend wählt er den am besten geeigneten Algorithmus zur Komprimierung aus. Je nach Dateigröße und der Anzahl verfügbarer Algorithmen kann diese Voruntersuchung einige Zeit benötigen. Damit sie beim Decoder entfällt, wird die Auswahl zuerst mitgeteilt. Das kann mit dem Header oder der Dateikennzeichnung erfolgen. Dadurch legt der Decoder den reziproken Algorithmus fest. Anschließend werden die zu übertragenden digitalen Daten mit dem Algorithmus komprimiert und dann übertragen. Nach dem Empfang erzeugt der Decoder daraus wieder die Originaldaten. 2. Link-Codierung: Es wird ein für beide Seiten festgelegter Datenvorrat benutzt, z. B. für Juristen Gesetzbücher, für Theologen die Bibel, Koran usw. Sie sind in Dateien, Paragrafen, Abschnitte usw. eingeteilt, die durch Namen oder Zahlen gekennzeichnet werden. Dann genügt es, nur die Namen bzw. Zahlen zu übertragen. Auf diese Weise ist – zumindest im theoretischen Grenzfall – jede beliebige Datei, Auswahl usw. mit nur 1 Bit zu übertragen. Ferner sind so auch (virtuell) kontinuierliche Dateien verlustlos zu übertragen. In der Praxis wird vorwiegend eine Kombination beider Varianten benutzt. Dann ist immer mehr als 1 Bit erforderlich und die kontinuierlichen Daten entfallen. Teilweise ermöglicht die algorithmische Codierung auch die Komprimierung unendlicher Reihen in endliche Daten (Programme). ---- 120 ----

Hierzu gilt der Satz von Chaitin von 1975 [Cha75]: Von allen unendlich langen Ketten lassen sich endlich viele verkürzen, aber unendlich viele nicht. Insbesondere sind Zufallsfolgen nur selten zu komprimieren verkürzen. Dieser Satz gilt aber nicht für endliche Dateien, die lassen sich immer irgendwie verkürzen. Diese Aussagen können leicht auf reelle Zahlen und Funktionsreihen wie sin, cos usw. übertragen werden. Typische Beispiele für die Komprimierung unendlicher Ketten sind: 33333… Ÿ beginnen mit 3 und Anhängen von 3 ständig wiederholen 01010101… Ÿ dasselbe für 01 01001000100001… Ÿ Startkette s0 = 01, s1 = 0 & s0; dann fortwährend sn+1 = sn & s0 1 4 2 5 0 3 6 1 4 7 2... Ÿ s0 = 1; sn+1 = (sn + 3) Mod 8 2 3 5 7 11 13 17... = Primzahlfolge Ÿ Primzahl-Algorithmus S Ÿ Algorithmus (Formel) für S Im Folgenden werden nur die wichtigsten, bedeutsamen oder häufig benutzten Verfahren beschrieben. Zunächst sind dafür aber noch zwei Arten der algorithmischen Codierung zu unterscheiden. Jede Quellen-Codierung geht von den Wahrscheinlichkeiten der Zeichen, Wörter usw. aus und erzeugt dafür den optimalen Präfixcode (s. Abschnitt 5.1). Die hier zu behandelnde Kanal-Codierung betrifft dagegen immer einzelne, fest gegebene Dateibestände, die übertragen werden sollen. Sofern darin die Zeichen, oder andere begrenzte Abschnitte einigermaßen genau bestimmbare Häufigkeiten besitzen, sind die Verfahren der Quellen-Codierung auch gut für die Kanal-Codierung nutzbar. Genau so wird z. B. manchmal die Huffmancodierung als Abschluss-Codierung bei jpg angewendet. Die Arithmetische Codierung wurde ab 1975 von P. Elias bei IBM entwickelt und dann patentiert [Wit87]. Obwohl sie teilweise bessere Ergebnisse als der Huffman-Code liefert, wird sie wegen der Lizenzkosten nur selten z. B. bei einigen jpg-Codierungen eingesetzt. Sie arbeitet mit fortlaufenden Intervall-Schachtelungen, die durch die Häufigkeiten festgelegt werden und führt schließlich zu einer Zahl als Codierung. Leider codiert sie deutlich langsamer. Ein stark vereinfachtes Beispiel in dezimaler (üblich ist binär) Schreibweise benutzt das Wort KAMM. Die einzelnen Zeichen sollen dabei die Häufigkeiten der Tabelle besitzen. Den Ablauf der Codierung zeigt Bild 92. Nach jedem Codierungsschritt ist das weiter zu benutzende Intervall verkleinert (Tabelle und Bild). Dadurch wird meist eine Ziffer der Codierung endgültig festgelegt (rot gekennzeichnet). Sie wird sofort gesendet. Für das Ende der Codierung gibt es ein Sonderzeichen, im Beispiel „!“ In dem schließlich noch verbliebenen Intervall wird die letzte gültige Ziffer festgelegt. Bild 92. Schema der Intervallteilung bei der Arithmetischen Codierung. Die Zeichen P und Z werden erst beim längeren Text benötigt. Zeichen A K M P Z !

Häufigkeit 0,2 0,3 0,1 0,2 0,1 0,1

erstes Intervall 0,0 - 0,2 0,2 - 0,5 0,5 - 0,6 0,6 - 0,8 0,8 - 0,9 0,9 - 1,0

TextFolgefolge Intervall 0,2 - 0,5 K 0,20 - 0,26 KA 0,23 - 0,236 KAM 0,233 - 0,2336 KAMM 0,23354 - 0,2336 Ende Ausgabe 0,23358 ---- 121 ----

gültige Ziffern 0 0,2 0,23 0,233 0,2335 0,23358

Die Lauflängen-Codierung (RLE Run Length Encoding) wird u. a. bei Bildern (z. B. pcx) für sich wiederholende Pixelwerte benutzt. In der komprimierten Datei folgen dabei nacheinander je ein Zähl- und ein Pixel-Byte. Statt „CCCCCCAABBBBAAAAEE“ wird dann 6C2A4B4A2E übertragen. Bei geringen Wiederholungen kann dabei die Datei sogar größer werden, dann wird die Original-Datei benutzt. Das Pointer-Verfahren ist teilweise bei ZIP und ARC implementiert. Es benutzt Verweise auf Orte, wo die aktuelle Zeichenfolge bereits vorher aufgetreten ist und gesendet wurde. Der Verweis benötigt 2 Byte, je eines für den Ort und die Länge der Zeichenkette. Bei der Beispielkette ABRABRIKADABRA wiederholt sich ab dem vierten Buchstaben ABR. Stattdessen genügt dafür der Verweis 1, 3. Unter Beachtung des nochmaligen ABR folgt somit für die gesamte Komprimierung ABR 1, 3 IKAD 1, 3 A. Die Effektivität des Verfahrens sinkt, wenn die Verweisvektoren zu groß werden. Daher wird meist mit gleitendem Fenster gearbeitet. Auch begrenzte Blocklängen sind vorteilhaft. Die Code-Erweiterung (LZW, PKZIP) wurde 1977 von J. ZIV und A. LEMPEL eingeführt [Ziv77] und 1984 von Welch erweitert [Wel84]. Es wird dabei mit den 256 Zeichen des 8-Bit-ASCII-Codes begonnen. Für häufige Zeichen-Kombinationen werden neue Symbole als 9- oder gar 10-Bit-Zeichen eingeführt. Für eine optimale Codierung müsste die Datei eigentlich erst vollständig analysiert werden. Das dauert aber oft zu lange. Stattdessen werden je Zeichen drei Vorgänge benutzt: 1. Ausgabe des aktuellen Symbols/Codes in die komprimierte Datei, 2. Erweiterung des Symbolsatzes durch eine neues Kombinationszeichen (z. T. auch Reduzierung) 3. Verwendung des erweiterten Symbolsatzes. Als Beispiel wird hier verwendet wiederdieseKinder. Dabei steht „“ für das Leerzeichen. Bei der Codierung wird zunächst w ausgegeben und wi = 256 generiert. Dann folgt i und ie = 257 wird generiert. Weiter folgt die Ausgabe von e und neu ed = 258 usw. Nach diesen Schritten existiert bereits ie und es wird als 257 ausgegeben. Zusätzlich ies = 264 erzeugt (alle niedrigeren sind inzwischen vergeben). Am Ende der Zeichenkette existieren die neuen Codes: 256 (wi); 257 (ie); 258 (ed); 259 (de); 260 (er); 261 (r); 262 (d); 263 (di); 264 (ies); 265 (se); 266 (e); 267 (K); 268 (Ki); 269 (in); 270 (nd); 271 (der). Ausgegeben wird so die von 20 auf 16 Zeichen verkürzte Kette wiederd 257 seKin 259 261 Dafür ist die Code-Länge jedoch von 8 auf 9 Bit/Zeichen angestiegen. Zusätzliche Maßnahmen ermöglichen es, die erweiterte Codebasis (bis 512 = 9 Bit) möglichst vollständig zu nutzen. Die Burrows-Wheeler-Transformation (BWT) ist wenig bekannt. Sie wurde 1983 zunächst nur intern von M. Burrows und D. J. Wheeler als ungewöhnliche Transformation publiziert [Bur83]. 1994 ist sie dann als B2Zip an einem einfachen Beispiel gut verständlich vorgestellt worden [Kru92]. Dabei wird der kurze Text DRDOBBS benutzt. Ihre Wirkungsweise läuft damit in den folgenden Stufen ab (Bild 93). x Zunächst wird der Text in einer Matrix zyklisch verschoben angeordnet c. x Dann werden die Zeilen der Matrix alphabetisch sortiert d und erzeugen so die neue Matrix (rechts). x Deren erste Spalte e enthält den vollständigen Text, ist aber alphabetisch sortiert. Sie ist daher gut per Lauflänge komprimierbar. x Die letzte Spalte f enthält den jeweiligen Präfixbuchstaben zur ersten Spalte. x Ihre Abfolge wird zusätzlich mittels Zahlen übertragen und dient später zum Dekomprimieren. ---- 122 ----

Infolge ihrer hohen Komplexität ermöglicht B2Zip (auch BZ2, BZ/P2 sind jetzt üblich) bis zu zehnfache Kompressionsraten.

Bild 93. Zum Prinzip der Burows-WheelerKomprimierung B2Zip.

Die Hilberg-Codierung existiert nur für Texte. Sie ist ein extrem leistungsfähiges Prinzip und nutzt dabei die Syntax, z. T sogar die Grammatik aus. Auf jedes Wort kann daher nur eine Auswahl aus wenigen Wörtern folgen. Zunächst muss der Zusammenhang aus umfangreichen Texten extrahiert und im En- und Decoder abgelegt werden (gespeicherte Daten, linke Tabelle). Hierbei erhält jedes Wort einen laufenden Index i aus zwei Eingangs-Vektoren xi und yi sowie einen Ausgangsvektor zi. Mit nur 4 Bit (yi, 3*xi) können so die 16 Sätze der rechten Tabelle generiert werden [Hil84, 90, 00]. Die Codierung für den ersten Satz 0000: „Rotkäppchen trifft die Großmutter“ ist deutlich rot hervorgehoben.

––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

Gespeicherte Daten ––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

yixi 00 01 10 11

Teil 1 oder 2 Rotkäppchen der Wolf trifft erkennt

1 1 0 0

–––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

yixi 00 01 10 11

Teil für Satzende den Jäger die Großmutter den Hänsel die Gretel

––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––––

y1x1x2x3 0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111

mögliche Sätze Rotkäppchen trifft den Jäger Rotkäppchen trifft die Großmutter Rotkäppchen erkennt den Jäger Rotkäppchen erkennt die Großmutter der Wolf trifft den Jäger der Wolf trifft die Großmutter der Wolf erkennt den Jäger der Wolf erkennt die Großmutter trifft Rotkäppchen den Hänsel trifft Rotkäppchen die Gretel trifft der Wolf den Hänsel trifft der Wolf die Gretel erkennt Rotkäppchen den Hänsel erkennt Rotkäppchen die Gretel erkennt der Wolf den Hänsel erkennt der Wolf die Gretel

Mit dem Verfahren gelang es Meyer [Mey89] alle Dissertationen der Nachrichtentechnik Darmstadt mit nur 65 Bit vollständig zu codieren. Das entspricht einer Entropie |0,012 Bit/Buchstabe bzw. |1,8 Bit/Textseite. Diese Aussagen wurden vielfach bezweifelt, z. T wurde sogar Fälschung, Scharlatanerie oder gar Betrug angenommen. Jedoch lassen sich mit 65 Bit 265 | 3,7˜1019 unterschiedliche Arbeiten generieren. Meine Versuche mit Zufalls-Bit-Kombinationen nicht vorhandener Arbeiten zeigten dabei immer einen „höheren Unsinn“. Sie besaßen aber stets eine korrekte Syntax und Grammatik. Für die Kapazität des Datenspeichers waren beim Decoder jedoch viele MByte (als Tabelle) erforderlich. Im Prinzip sind auf dieser Basis viele neue Ansätze möglich. Hilbert hat hiermit Ansätze zu einer fast idealen Übersetzung zwischen Sprachen erprobt. Außerdem glaubt er, so eventuell eine Art Gedanken-Code schaffen zu können. Bei mir hat auf dieser Grundlage ein Diplomand eine hocheffektive Eingabe für Behinderte programmiert [Rie13]. ---- 123 ----

Im engen Zusammenhang mit der Komprimierung und dem Satz von Chatain steht die Kolmogorow-Komplexität. Sie ist außerdem für die V-Information wichtig (s. Kapitel 7) und verlangt x eine universelle Turing-Maschine M x ein Programm p x eine auf dem Speicherband stehende Inschrift i Sie erzeugen die Folge s = M (p, i). Nun seien alle Programme pi bekannt, die auf dem Speicherband s erzeugen. Hierunter ist pk das kürzeste (bekannte) Programm. Seine Länge LM(s) ist die (aktuelle) Kolomogorow-Komplexität bezüglich s. Wird auf einer anderen universellen TuringMaschine U dann M simuliert, so gilt: LM(s) d LU(s) + KM, U Zum Abschluss noch eine Zeittafel zur Komprimierung: 1949 Informationstheorie, Claude Shannon 1949 Shannon-Fano-Codierung 1952 Huffman-Codierung 1964 Konzept der Kolmogorow-Komplexität 1975 Integer Coding Scheme nach Elias 1975 Satz von Chatain 1977/78 Lempel-Ziv-Verfahren LZ77, LZ78 1979 Bereichs-Codierung als Implementierung der arithmetischen Codierung 1982 Lempel-Ziv-Storer-Szymanski (LZSS) 1983 Idee von Burrows-Wheeler 1984 Beginn der Hilberg-Codierung + Lempel-Ziv-Welch-Algorithmus (LZW) 1985 Apostolico, Fraenkel, Fibonacci Coding 1986 Move to front (Bentley et. al., Ryabko) 1989 Meyer speichert alle Darmstädter Dissertationen mit nur 65 Bit 1991 Reduced Offset Lempel Ziv (ROLZ, auch LZRW4, Lempel Ziv Ross Williams) 1994 Burrows-Wheeler-Transformation B2Zip (BZ2) 1996 Lempel-Ziv-Oberhumer-Algorithmus (LZO) 1998 Lempel-Ziv-Markow-Algorithmus (LZMA)

5.7 Anwendung außerhalb der Nachrichtentechnik Der Schwerpunkt dieses Kapitels liegt bei der (effektiven) Übertragung von (elektrischen) Daten und Signalen. Dennoch mussten zuweilen Systeme und Gespeichertes, das erst im folgenden Kapitel behandelt wird, berücksichtigt werden. Leider ist das bei nichttechnischen Anwendungen noch umfangreicher notwendig. Daher werden im Folgenden nur besonders erfolgreiche Anwendungen für Informationsflüsse behandelt. Der zweite Teil – der insbesondere unser Gedächtnis betrifft – folgt erst im Abschnitt 6.9.

5.7.1 Auffälligkeit und Goldener Schnitt Wie bereits im Abschnitt 5.12 angekündigt, werden hier zunächst mehrere Beispiele für die mittels Bild 8a eingeführte Auffälligkeit vorgestellt. Sie wurde um 1960 von Frank [Fra69] eingeführt und von ihm stammen auch die ersten Beispiele. In einem Versuch mussten Probanden eine Fläche so mit 7 Farben füllen, dass eine auffällt. Das Ergebnis zeigt Bild 94. Der theoretische Mittelwert von 1/e | 37% wird recht gut erreicht. Zur Demonstration wählte er auch eine Gedichtzeile aus „The Bells“ von Poe. Wenn sie gesprochen wird, so fällt das betonte „e“ deutlich auf. Es kommt darin achtmal vor, was grob 33 % entspricht. Hear the sledges with the bells, silver bells! What a world of merriment their melody foretells! In der Musik fand er den Zusammenhang mit den Synkopen. Sie kommen im Jazz so häufig vor, dass sie kaum Beachtung finden. Jedoch im 3. Satz des 5. Brandenburgischen Konzerts von Bach sind sie mit 124 von 310 Takten (|40 %) besonders auffällig. Sehr ungewöhnlich ist eine ---- 124 ----

Anwendung auf die Verkaufstrategie von Kaufhäusern10. Frank und Moles saßen eines Abends um 1973 mit dem Leiter eines großen Berliner Kaufhauses beim Bier und diskutierten dabei auch über die Auffälligkeit. Dabei entstand die Idee, diesen Fakt auf die Preispolitik anzuwenden. Zum nächsten Quartal wurden bei etwa ein Drittel der Produkte die Preise extrem knapp über ihren Einkaufswert festgelegt. Für die anderen wurden sicherheitshalber etwas überhöhte Priese gewählt. Bereits nach einem Monat war der Umsatz deutlich gestiegen. Eine repräsentative Befragung ergab: Das Kaufhaus sei besonders preisgünstig. So wird das offensichtlich heute für die „Schnäppchen“ genutzt.

Bild 94. Zur Erprobung der Auffälligkeit bei 7 Farben.

Auch die Flächenanteile von Bildern genügen oft der Auffälligkeit. Zwei typische Bespiele sind die blauen Pferde von Marc und das Weiß bei der Iphigenie von Feuerbach (Bild 95). Denn das Blau bzw. das Weiß beanspruchen ziemlich genau 37 %. Sehr wahrscheinlich haben das die Künstler intuitiv absichtlich so gewählt (z. B. weiß als Unschuld).

Bild 95. Der Turm der blauen Pferde 1913 von Marc und die Iphigenie II 1871 von Feuerbach. 10

Diese Geschichte erzählte mir Helmar Frank 1967 auf einer Tagung in Kiel. Als ich ihn in den 1980er Jahren für eine Publikation um zusätzliche Angaben bat, erzählte er mir viele weitere Details, konnte sich aber leider nicht mehr an die Namen des Berliners Kaufhauses und dessen Geschäftsführer genau erinnern.

---- 125 ----

Bei der Fotografie, im Film und Fernsehen (z. B. für die Position des Moderators) hat das näherungsweise gleiche 2:3-Verhältnis für die Bildgestaltung generelle Bedeutung (vgl. Bild 96).

Bild 96. Für die Bildgestaltung wir oft das 2:3-Verhältnis benutzt.

Bei einem weiteren Experiment von Frank sollten 149 Personen 7 Zeichen so verwenden, das eines besonders auffiel. Dabei lag der Mittelwert mit 37 % noch deutlicher bei der Auffälligkeit. Bild 97 zeigt dazu den Vergleich vom Verlauf der Kurve h = -p˜ld(p) (a) und einer alten Untersuchung von Fechner (c). U. a. war sie der Anlass zu einer einsetzenden erheblichen Kritik zu den Aussagen von Frank. Sie betrafen den Goldenen Schnitt, der spätestens im Mittelalter und als Pentatonik bereits den alten Griechen bekannt war. Schon lange war er für die Schönheit von Bildern bekannt und besaß einen sehr ähnlichen Wert. Seine Konstruktion zeigt Bild 98. so wurde behauptet, dass für die Auffälligkeit nur die Geometrie und nicht die mathematische Informationstheorie zuständig sei.

Bild 97. Zum Vergleich von der Auffälligkeit (a) mit eine Experiment von Frank (b) und historischen Untersuchungen von Fechner (c).

Bild 98. Die Konstruktion des Goldenen Schnittes (a). Die Abfolge der Kreisbögen ist durch 1 und 2 gekennzeichnet. Auch im alten Pentagramm tritt das Verhältnis auf (b).

---- 126 ----

Neben dem Goldenen Schnitt gibt es zu Bildern nur noch die mathematischen Betrachtungen von Birkhoff um 1930 [Bir33], auch [Mas70], [Völ82], S. 284ff. Die wichtigsten Beispiele und Zusammenhänge zeigt Bild 99. Sein Maß M berücksichtigt Symmetrien und Komplexität. In der Praxis hat es sich kaum bewährt. Eigentlich wurde es nur von Birkhoff benutzt und auf Sterne, Vasen usw. angewendet

M

V  E  R  HV  F . C

Bild 99. Zusammenstellung für das ästhetische Maß von Birkhoff.

Es bedeuten: Die Komplexität C ist die minimale Anzahl der geraden Linien, auf denen wenigstens eine Polygonseite liegt. Die Vertikalsymmetrie V = 1, falls ein Polygon zu einer vertikalen Achse symmetrisch ist, sonst 0. Da Gleichgewicht ist E = 1, falls V = 1 ist, ebenfalls ist E = 1, falls das Zentrum K des vom Polygon eingeschlossenen Gebietes senkrecht über einem Punkt innerhalb einer Horizontalstrecke des Polygons liegt, welche das Polygon von unten her stützt, jedoch derart, dass die Längen beide grösser als 1/6 der gesamten Horizontalbreite des Polygons sind. Die Rotationssymmetrie R ist gleich dem Minimum der beiden Zahlen q/2 und 3, falls Rotationssymmetrie vorliegt mit Winkel D = 360°/q, wobei D der kleinste Drehwinkel für Deckungsgleichheit ist. In allen übrigen ist R = 0. Die Beziehung Horizontal-Vertikal beträgt HV = 2, falls alle Seiten des Polygons auf den Linien eines gleichförmigen Horizontal-Vertikal-Netzes liegen. HV = 1 gilt, falls wenige Ausnahmen ---- 127 ----

vorhanden sind oder sich das Polygon in ein anderes Netz von zwei parallelen Geradescharen vollständig einfügt. In den übrigen Fällen gilt HV = 0. Die Erfreuliche Form F = 0 liegt vor, wenn jeder vom Zentrum K (Schwerpunkt) ausgehende Halbstrahl das Polygon in genau einem Punkt schneidet, sonst gilt F = -2. In einem längeren Fortbildungsseminar am Institut für Städtebau und Architektur der Bauakademie der DDR zur Informationstheorie versuchte ich 1985 u. a. die Auffälligkeit auf das übliche Wohnhaus zu übertragen. Dabei ging ich davon aus, wie wahrscheinlich ein Kind ein Haus beschreiben würde: 1. Es ist ein Dach über dem Kopf und 2. hat es Türen und Fenster. Das führte zu umfangreichen Diskussionen mit den teilnehmenden Dozenten und Professoren. Schließlich wurde ein Dozent beauftragt, während seines gerade bevorstehenden Kurzurlaubs an der Ostsee Häuserfotografien anzufertigen. Er kam mit den 24 Fotografien von Bild 100 zurück.

Bild 100. Die 24 Häuserfotografien zur Bestimmung ihrer „Schönheit“.

---- 128 ----

Die Bestimmung der Flächenanteile von den Dächern bzw. Türen + Fenster zur Gesamtfläche ergaben zu meiner Freude ziemlich genau je |37 % So definierte ich als Summe von beiden ein Maß für die „Schönheit“ des Hauses. Doch als ich damit dann auch noch die Rangfolge der „Schönheit“ festlegte und die Häuser danach anordnete, gab es deutlichen Protest. So wurde beschlossen, die Fotografien in Strichzeichnungen umzusetzen, um so insbesondere den ästhetischen Vorteil des Strohdachs zu unterdrücken (s. Bild 101). Dann gaben 10 Professoren ihre Reihenfolge an [Völ88].

Bild 101. Umzeichnungen von Bild 100.

Das dann ermittelte Ergebnis als Vergleich von 21 Urteilen ist nicht ganz einfach darzustellen. Hier seien nur die zwei wichtigsten Extreme für Bild 102 ausgewählt. Die schlechteste Korrelation zwischen dem Rechnerergebnis und einem Experten war besser, als jene zwischen den am besten übereinstimmenden Experten.

Bild 102. Korrelationen zu Einschätzungen der Schönheit des Hauses.

---- 129 ----

Als ich dann auf die „Schönheit“ der Hochhäuser hinwies, entstand weiterer Protest. Ich erhielt für zwei Jahre Publikationsverbot. Offensichtlich wurde es dazu genutzt, um an gerade im Bau befindlicher Architektur, künstliche bzw. zusätzliche Dächer einzubauen (Nicolai-Viertel?!). Außerdem entstanden neue Proteste gegen die Auffälligkeit. Schließlich wies mich ein Physiologe11 ausdrücklich auf das Weber-Fechner Gesetz hin (Abschnitt 5.3.5). Dort steht ja auch der Logarithmus, und der Faktor vor der Auffälligkeit kann leicht als Bewertung im Sinne von Abschnitt 5.4.5 angesehen werden. Weiter ist zu beachten: der Goldene Schnitt gilt nur für Bilder, die Auffälligkeit dagegen für alle Wahrnehmungen. Die informationstheoretische Mathematik der Auffälligkeit ist also im Gegensatz zur Zirkel-Lineal-Konstruktion des Goldenen Schnittes allgemein [Beu89], [Hag58].

5.7.2 Zahlenwerte zum Vergleich Der Goldener Schnitt und die Auffälligkeit werden zuweilen durch ganzzahlige Verhältnisse genähert. Für die wichtigsten Werte und deren Abweichungen gilt dabei: Verhältnis Goldener Schnitt Auffälligkeit +3,5 % +4,9 % 2:3 -----1,8 % 3:5 -0,7 % +0,7 % 5:8 +0,4 % -----7:11 Die Abweichungen sind also relativ gering. Deutlicher ist die Abweichung zum massenhaft benutzten DIN-Format [Tuc??]. Es ist dadurch festgelegt, dass bei jeder Halbierung eines Bogens das Seitenverhältnis exakt erhalten bleibt. Für den Vergleich gilt dann: Goldner Schnitt, Bild 98: Minor : Major = (—5 - 1)/2 ........... | 0,618033988... Auffälligkeit: Wahrscheinlichkeit = 1-1/e............................. | 0,632120558... DIN-Format Seitenverhältnis = 1/—2.................................... | 0,707106781... Der häufige Gebrauch von DIN-Formaten hat unser Gefühl für den Goldenen Schnitt beeinflusst und es daher näher an die Auffälligkeit bewegt. Erstaunlich ist es, dass der Zahlenwert des Goldenen Schnittes auch in anderen Zusammenhängen auftritt. Einmal sind das die Zahlen, die Fibonacci in seinem Buch „Liber abadi“ bei der Vermehrung von Kaninchen fand. Er beginnt mit einem Kaninchenpaar und fragt, wie viele Kaninchen in den folgenden Generationen vorhanden sein werden. Seine These war, dass jedes Paar pro Monat ein neues Paar gebiert. Dabei setzte er Unsterblichkeit. Dabei ergibt sich die Reihe [Wor77] F(1) = 1, F (2) = 1 und F(n)=F(n-1)+F(n-2). Es entsteht so die Zahlenfolge 1, 1, 2, 3, 5, 8, 13, 21, 34 .... , die gegen (—5 - 1)/2 konvergiert. F(n) ist auch direkt berechenbar: F n

1

 5



n



 1  5

22 ˜

5

. n

In der Natur, z. B. bei Blütenblättern sind die Fibonacci- Zahlen deutlich bevorzugt. Z. B. ist ein vierblättriges Kleeblatt sehr selten. Auch Kettenbrüche können zum Goldenen Schnitt führen 1

x a 

.

1 b 

1 c 

1 d ....

Für a = b = c = d = e = ... folgt wiederum x = (1+ —5)/2. Schließlich sei noch ein weiteres Pflanzenbeispiel mit Bild 103 erwähnt. Es gibt die 3 typischen Blattanordnungen: gegen-, wechselständig sowie umlaufend. Für den letzten Fall gilt der 11 Leider finde ich den Schriftwechsel hierzu nicht mehr. Deshalb kann ich auch nicht den Namen nennen. Dennoch gilt ihm auch hier mein besonderer Dank

---- 130 ----

harmonische Winkel 137,5° | (1 - g)˜360°, wobei für g wieder erstaunlich genau der mehrfach oben genannte Wert des Goldene Schnitts folgt. Wie gering die Anweichung für das spiralförmige Muster nur sein darf, zeigen die Simulationen und u. a. die Dolde der Golddistel, die Samen der Sonnenblume und Brokoli. Für alle diese Fakten gibt es keine wirklich einleuchtende Erklärung. Sie treten einfach auf [Völ07], S.62 ff.

Bild 103. Zum spiralförmigen Wachstum mit „Goldenem Schnitt“.

5.7.3 Eigenschaften von Texten Im Abschnitt 5.1.2 sind die Superzeichen eingeführt. Ihr Prinzip lässt sich allgemeiner fassen. Interessant ist bereits der Anteil der Wörter je Satz. Er ist deutlich vom jeweiligen Textgebrauch abhängig. Einen ersten Überblick dazu gibt Bild 104. Daraus ist deutlich die zunehmende Komplexität der Sätze vom Filmdialog bis zu philosophischen Texten zu erkennen.

Bild 104. Die Verteilung der Wörter je Satz je nach der Anwendung.

---- 131 ----

Werden die Wörter je Satz (W) mit den Silben je 100 Wörter (S) als Mittelwerte bestimmt, so kann damit ein Lesbarkeitsindex abgeleitet werden L (in %) | 230 - 0.96˜(W + 0.78˜S ) | 240 - W + 0,8˜S. Das dazu gehörende Nomogramm zeigt Bild 105a. Zeitweilig wurde er zur Forderung für Schulbücher benutzt. Je nach der Klasse waren 60 bis 100 % gefordert. Bei einigen Fachzeitschriften werden ähnliche Werte für Vorschläge zur Überarbeitung herangezogen. Inzwischen entstanden viele Formeln für die Lesbarkeit. Einige Beispiele zum Handbuch von Word zeigt Bild 105b. Die verschiedenen Methoden liefern je nach ihrem ursprünglichen Bezug abweichende Ergebnisse erzeugen. Daher hat sich eine Verbreitung dieser Methoden nicht durchsetzen können und das, obwohl sie heute relativ einfach entsprechender Software-Programmen zu nutzen wäre.

Bild 105. Beispiele für die Lesbarkeit von Texten.

Mit statistischen Analysen sind auch typische Kennzeichen einzelner Autoren zu finden. Zwei besonders einfache Auswertungen zeigt Bild 106. Viele detaillierte Ergebnisse ab 1957 und ein sehr umfangreicher Überblick dazu stammen von Fucks und sind in Bild 107 leicht modifiziert gezeigt [Fuc68]. Er unterscheidet Wissenschaftler q und Literaten x, die verschiedene Flächen belegen und Schwerpunkte besitzen. Die meisten Autoren besitzen einen festen Punkt im Diagramm. Nur wenige wie z. B: Goethe sind „wortgewaltig“. Sie verlagern ihn im Laufe ihrer Lebenszeit. Das ermöglicht sogar nachträgliche Änderungen in ihren Werken zu erkennen und zeitlich einzuordnen.

Bild 106. Beispiele für auf Autoren bezogene statistische Kennwerte.

---- 132 ----

Bild 107. Die Lage der Orte verschiedener Autoren in einem Diagramm aus Wörter/Satz und Silben/Wort.

Für Musik gab es leider keine ähnlich guten Ergebnisse. Erst mit der Krümmung als zweite Ableitung der Statistik fand Fucks einen eindeutigen Zusammenhang mit Zeitabschnitten [Fuc68]. Seine Vermutung, dass um 1900 eine Zweiteilung beginne, hat sich aber nicht bestätigt (s. Bild 108). Für mehrere Anwendungen in der Literatur und Musik hat das Zipfsche Gesetz beachtliche Bedeutung. Einige Beispiel zeigt Bild 109. Seine ursprüngliche Fassung (auch harmonisches Gesetz genannt) geht auf Beobachtungen von Estop und Zipf ab 1949 zurück. Es betrifft einen experimentell fast immer bestätigten Zusammenhang [Zip48]: Werden die N Wahrscheinlichkeitswerte p einer Gesamtheit nach ihrer Größe als Rang R geordnet, so gilt mit einem Koeffizienten K

p R |

K . R

---- 133 ----

Bild 108. Zur geschichtlichen Entwicklung der Musik.

Da sich die Steigung der Näherungsgerade je nach Anwendung ändern kann, wurde zusätzlich die Texttemperatur T eingeführt. So ergab sich das 1957 von Mandelbrot und Zipf eingeführte ZipfMandelbrot-Gesetz [Man61]: p( R)

K ˜ R 1/ T |

1 . R ˜ ln N

Aus einer späteren Näherung leitet Meyer-Eppler die folgende Entropie ab [Mey59], S. 112 H|

ld( N )  ld ln( N ) . 2

Zur Korrektur der Abweichungen bei den kleinen Rängen führte Mandelbrot die Konstante R0 = Rmax/(Rmax-1) hinzu (Rmax= maximalen Rang). So entstand das harmonische Gesetz: 1/ T p R K ˜ R  R0 .

Bild 109. Beispiele für das Zipfsche Gesetz, a) für Texte nach Frank [Fra69], b) für die Wörter der deutschen Sprache (Limas-Korpus) und der englischen Sprache, c) für aufgeführte Musik [Mol56 + 68]. In Ergänzung zum Bild noch einige Beispiele: Die Beethoven-Sonate A-Dur op. 3 enthält im 2. Satz 1630 Noten mit 71 Tonhöhen. Mit einem Korrelationskoeffizienten U2 = 0.855 ergeben sich K = 0,625, T = 0,708 sowie H = 5,124 Bit/Note. Für ausgewählte Alphabete beträgt T für Deutsch 0,46; 0,54; 0,66 und 0,71; für Russisch 0,88; Hebräisch 0,82; Englisch 0,72; 0,77 und 0,90 (Details in [Völ82], S. 218ff.) Genauere Untersuchungen führte Frank mit dem Limas-Korpus von 1970 ---- 134 ----

durch. Er erfasst deutsche Texte der Gegenwartssprache, u. a. 500 Textstellen mit je etwa 2 000 Wortformen aus Trivialliteratur, Zeitungstexten, Romanen, Fachaufsätzen usw. Sein Umfang beträgt reichlich 106, darunter 116 000 verschiedene Wortformen. Bereits 1954 analysierte Ernst Lau die Zeilenzahl aller Gedichte von Goethe und Schiller und fand dabei das Ergebnis von Bild 110 [Lau54]. Ohne sich auf das Zipfsche Gesetz zu beziehen, fiel ihm der „ungewöhnliche“ Verlauf bei Schiller auf. Er folgerte, dass es für die „Senke“ Ursachen geben müsse. Da Schiller oft Geldsorgen hatte, dürfte er wohl wegen des üblichen Zeilenhonorars seine Gedichte teilweise verlängert haben. Das hat damals in der DDR sehr harte Kritik der Germanisten ausgelöst und Prof. Lau fast den Institutsdirektor (Optik u. Spektroskopie) gekostet. In anderen Fällen, Zusammenhängen wurden deutlich später ähnliche Fakten bekannt. Die Geraden im Bild entsprechen dem Zipfschen Gesetz mit K = 2,80 und T = 0,45 und bei Goethe mit U2 = 0,92. Bild 110. Gedichtlängen bei Goethe und Schiller.

Sehr lange war die Autorschaft des Johannesevangeliums unsicher. Zuweilen wurde der Autor von der Apokalypse vermutet. Deshalb erfolgte bereits 1960 eine Anwendung der Textstatistik zur Entscheidung. Da die Apokalypse 10 412 Wörter besitzt, musste zum Vergleich das Johannesevangelium in zwei Teile zu je 8 500 Wörtern zerlegt werden. So ergaben sich Bild 111 und die folgenden Übergangsmatrizen. Damit war die Annahme mit sehr hoher Wahrscheinlichkeit widerlegt. Das war der Beginn für sehr viele statistische Untersuchungen, von denen nur wenige oben beschrieben sind. Es ist jedoch nicht erklärbar, warum diese Methoden ab etwa 1980 aufhörten, obwohl dann die Rechentechnik effektiv helfend zur Verfügung stand. Bild 111. Zu Apokalypse und Johannes-Evangelium. Johannes-Evangelium 1 Johannes-Evangelium 2 Artikel Substantiv Artikel Substantiv Artikel 8 674 6 689 Substantiv 148 32 121 21

Apokalypse Artikel Substantiv 6 1106 379 92

Abschließend zur Kommunikation mit Texte seien noch zwei Beispiele gegeben. Mittels Ja/NeinRateversuchen kann die Entropie je Buchstabe ermittelt werden. Bild 112a zeigt einen experimen---- 135 ----

tellen Verlauf und b) statistisch ermittelte Ergebnisse. Die Entropie für den Einzelbuchstaben sinkt von etwa 4,7 Bit/Buchstabe auf den Grenzwert von rund 1,7 Bit/Buchstabe. Bei den Pointen von Witzen und dem Eintreten von Tragik ist es deutlich anders. Intuitiv hat dafür bereits Freud die Begründung gegeben [Fre85]. Bild 113 zeigt einen experimentell ermittelten Verlauf für Witze. Die Entropie steigt hierbei von etwa 1,5 Bit/Zeichen auf gut 2 an.

Bild 112. a) Ein Rateversuch beim Text, b) das gemitteltes Ergebnis.

Bild 113. Informationsfluss beim Witzerlebnis.

5.8 Leistungen von Shannon Cloude Elwood Shannon lebte vom 30.04.1916 bis 24.02.2001. Er zählt zu den bedeutsamsten Wissenschaftlern. Ohne seine Theorie würde die meiste heutige Informationstechnik bestenfalls technisch funktionieren, aber wohl kaum verstanden werden. Dabei muss betont werden, dass es zur Zeit seiner Arbeiten noch keine Digitaltechnik gab. Er erhielt keinen Nobel-Preis, weil es ihn für dieses Gebiet nicht gibt. Für die fast äquivalente Fields-Medaille der Mathematiker wären andererseits neue mathematische Grundlagen notwendig gewesen. Von Shannon gibt es nur wenige, aber dafür immer wissenschaftlich sehr fundamentale Arbeiten hoher Qualität. Seine wichtigsten Lebensdaten und seine Literatur sind: 1936 - 1938 Magister (PhD) „Boole’sche Algebra bei Relais“ 1940 Dissertation „Algebra für theoretische Genetik“ 1941 Fellow of the IAS, Princeton 1940 - 1945 Grundlagen zur Kryptographie (Geheimhaltung USA) 1941 - 1972 Mathematics Department der Bell-Laboratorien 1948 „Mathematical Theory of Communication“ Informationstheorie (Eingangsdatum aber 24.3.1940) 1958 Professor am MIT (Massachusetts Institute of Technology) 1960 Kybernetik, Shannon Maus, Labyrinth usw.

---- 136 ----

Publikationen von Shannon A Mathematical Theory of Communication, Bell Systems Techn. J. 27 (Juli 1948), S. 379 - 423 und (Oktober 1948) S. 623 - 656. (eingereicht 24.3.1940). (Auch in: University Illonois Press 1949). Teil 2 auch: „Communication in the Presence of Noise“. Proc. IRE 37 (1949) pp. 10 20, (eingereicht am 24.03.1940), Übersetzt in: Mathematische Grundlagen der Informationstheorie. R. Oldenbourg, München - Wien, 1976 Prediction and Entropie of printed English Bell Sys. Techn. J. 30 (1951) 1, 50ff. A symbolic analysis of relay and switching circuits (Eine symbolische Analyse von Relaisschaltkreisen), Transactions American Institute of Electrical Engineers 57; 1938, S. 713 723 (Eingang 1.3.38, revidiert 27.5.38; = seiner Master Thesis v. 10.8.37) Die mathematische Kommunikationstheorie der Chiffriersysteme. Bell Systems Technical Journal 28 (1949) S. 656 - 715 (Ursprünglich 1.9.45) Datenglättung und Vorhersage in Feuerleitsystemen Technical Report Bd. 1; Gunfire Control (1946) S. 71 - 159, 166f. (Nur Auszug vorhanden) Die Philosophie der PCM Proc. IRE 36 (1948), S. 1324 - 1331 (Eingang 24.5.48) Vorführung einer Maschine zur Lösung des Labyrinthproblems. Transactions 8th Cybernetics Conference 15. - 16.3.1951 in New York. Josiah Macy Jr. Foundation, (1952) S. 169 - 181 Eine Maschine, die beim Entwurf von Schaltkreisen behilflich ist (Proc. IRE 41 (1953) S. 1348 1351, (Eingang 28.5.53, revidiert 29.6.53) Eine gedankenlesende Maschine. Bell Systems Memorandum 18.3.53 (Typoskript 4 Seiten) Vorhersage und Entropie der gedruckten englischen Sprache. (Prediction and Entropie of printed English) Bell Systems Technical Journal 30 (1951) S. 50 - 64 (Eingang 15.9.1950) Ein/Aus, Ausgewählte Schriften zur Kommunikations- und Nachrichtentheorie. Verlag Brinkmann + Bose, Berlin 2000. Mehr Details und die vollständigen Arbeiten enthält [Roc09]. Wichtige Geschichtsdaten

1876 1924 1928 1930 1933 1940 1946 1948 1948 1949 1949 1954 1956 1960 1962 1963 1965 1987

Fechner: Untersuchungen zu ästhetischen Bilderrahmen. Küpfmüller: Systemtheorie R. V. L. Hartley (*1888) formuliert den logarithmischen Zusammenhang zwischen Signalzahl und Information. Birkhoff: ästhetisches Maß Kotelnikow (1908*) formuliert als erster Grundlagen für ein Abtasttheorem. 24.3. Eingangsdatum der Shannon-Arbeit im JIRE. Dennis Gabor (1900 - 1979) führt als kleinste Signaleinheit logon ein. Norbert Wiener (1894 - 1964) führt den Begriff der Information ein. J. W. Tukey benennt als kleinste Nachrichteneinheit „Bit“ (binary digit). Informationstheorie, Claude Shannon Shannon-Fano-Kodierung Carnap-Entropie Moles ästhetische Wahrnehmung H. Frank: Maß der Auffälligkeit Renyi: D-Entropie Bongard-Weiß-Entropie Marko: bidirektionale Information Hilberg deterministische Informationstheorie

---- 137 ----

Zusammenfassung zur S-Information

x x x x x x x x x x x x

Das primäre Ziel ist die Nachrichten- (teilweise auch Speicher-) Technik. Ihre Entropie und Kanalkapazität bestimmt die theoretisch möglichen Grenzen. Sie liefert Grundlagen zur Fehlererkennung und -korrektor sowie Komprimierung und Kryptografie. Entscheidend für Berechnungen sind die Wahrscheinlichkeit bzw. Häufigkeit von Signalen. Es ist weder sinnvoll noch notwendig, die Inhalte der Zeichen zu berücksichtigen. Für die Quellen-Codierung sind Algorithmen Codebäume oder Tabellen wichtig. Primär gilt die Theorie für diskrete Zeichen. Mit zusätzlichen Störungen kann sie auf kontinuierliche Signale erweitert werden. Generell entstehen beim Übergang zwischen kontinuierlich œ diskret Unschärfen und Fehler. Bei der Anwendung bewirkt das Sampling-Theorem Grenzen der Genauigkeit. Einen Ausweg ermöglicht die kontinuierliche Digitaltechnik. Mittels der Kanalkapazität kann die minimal je Bit notwendige Energie bestimmt werden. Für die vielen nicht nachrichtentechnischen (z. B. künstlerischen) Anwendungen ist die Auffälligkeit besonders nützlich.

---- 138 ----

6. P-Information Das P steht für potentiell (lateinisch potens mächtig, vermögend, fähig, reich, stark, können). In der Physik bedeutet potentielle Energie, dass sie irgendwo existiert und unter bestimmten Bedingungen wirksam werden kann. Eine gespannte Feder oder eine elektrische Batterie besitzen in diesem Sinne potentielle Energie. Ganz ähnlich existiert potentielle, also P-Information in einem Informationsspeicher. Mittels des Wiedergabevorgangs (kurz Wiedergabe) kann sie zur Wirkung gebracht werden und so das Informat erzeugen. Schematisch zeigt diese Zusammenhänge Bild 1. Ein typischer stofflich-energetischer Informationsträger würde in einem (passenden) realen kybernetischen System und dessen Umgebung das zu ihm gehörende Informat bewirken. Bei der Speicherung wird die entsprechende black box (Abschnitt 2.2) durch ein komplexes System (auf dem rot umrandeten grauen Untergrund) ersetzt. Der dann interne Speicher kann langfristig mehrere stofflich-energetische, stabile Zustände annehmen. Sein eigentlich (primärer) Energieträger bewirkt das mittels des Aufzeichnungsvorganges (kurz Aufzeichnung). Aus diesem Zustand kann dann mittels Wiedergabe erneut ein Informationsträger erzeugt werden, der möglichst gut dem primären Informationsträger entspricht. Er bewirkt in dem realen Empfangssystem und dessen Umgebung schließlich das Informat. Im Idealfall ist es identisch mit jenem Informat, dass mittels des realen Systems der primäre Informationsträger erzeugt hätte. Gegenüber dem klassischen Prozess der W-Information (in Bild 3.1) ergeben sich so weitere Besonderheiten: Zwischen der Aufzeichnung und Wiedergabe besteht eine Zeitdifferenz. Dadurch entspricht das entstehende Informat dem, was in der Vergangenheit bewirkt worden wäre oder gar geschehen ist. Der Unterschied zwischen primären und wiedergegebenen Informationsträger ruft auch ein etwas anderes Informat hervor als jenes, was damals bewirkt worden wäre oder eintrat. Schließlich gibt es meist die Möglichkeit den Speicher für eine Neuaufzeichnung zu löschen.

Bild 1. Die wichtigsten Zusammenhänge der Informationsspeicherung. Teilweise entspricht die Speicherung, wie Bild 2 zeigt, einer Übertragung. Daher können auch für sie etliche Ausagen und Methoden, z. B. kein Inhalt der Zeichen, Fehlerbehandlung, Komprimierung usw. übernommen werden. Bild 2. Übertragung von Bild 1 in einen unterbrochenen Übertragungskanal. Stattdessen wird der Speicher als Empfänger bzw. Sender eingeschaltet. Die Wiedergabe kann zudem beliebig oft wiederholt werden. ---- 139 ----

Im Deutschen sind „Speicher“ und „speichern“ hoch abstrakt. In dieser Allgemeinheit kommen sie in anderen Sprachen kaum vor. Die Herkunft ist lateinisch spica, die Ähre, spicarium das Vorratshaus. Davon ist recht früh der Kornspeicher (als Gebäude) abgeleitet. Später wird Speicher auch für das Lager und die Lagerung von Waren, Gegenstände, Vorräten usw. benutzt. Schließlich entstehen technische Einrichtungen, wie Warmwasserspeicher, Speicherbecken usw. Erst ab den 1950er Jahren erscheint Speicher innerhalb der Informations- und Rechentechnik als Informations- und DatenSpeicher. Inhaltlich verwandte Begriffe zu Speicher sind Andenken, Archiv(-ierung), Denkmal, Erinnerung, Gedächtnis, Gedenken, Museum, Protokoll und Sammlung. In anderen Sprachen werden fast nur speziellere Begriffe benutzt, z. B. englisch store (Vorrats-, Warenhaus), storage (Lagerraum für Geld, Waren usw.) und storage battery (Akkumulator). Außerdem gibt es amnesia, attic, cache, elevator, granary, lethe, loft, mem, memory, mention, mind, mnemonic, pantheon, recollection, record(ing), register, reminder, reservoir, retrospection und stockpile. Französisch gibt es commémorative, entrepôts, grenier, mémoire, rappel, réminiscence, silos, souvenir; italienisch: accumulare, deposito, memoria, memorizzare, reminiscenza, ricordo, rievocazione, rimessa, soffitti und spanisch: acuerdo, conmemoración, desván, evocación, memoria, memorias, recordatorio, recuerdo, rememoración, reminiscencia, retentiva. Für die Informationsspeicherung ist deshalb eine genügend allgemeingültige Definition erforderlich. Sie könnte mittelbar so lauten: Alles Speichern dient der Unterbrechung/Aufhebung des Zeitablaufes. In der Gegenwart wird durch die Aufzeichnung etwas für die Zukunft festgehalten. Für die Obsternte und -lagerung demonstriert das Bild 3. Einen umfassenden Überblick zu allen möglichen und nicht nur den technischen Speichern enthalten die drei Bände [Völ03, 05, 07].

Bild 3. Zur Erklärung der Speicherung mittels Äpfel. Sie wird hier durch kühle Lagerung und ein Schutzgas stabilisiert. Die Verdeutlichung des Unterschiedes zwischen Original und Gespeichertem demonstriert das Beispiel von Bild 4. Das original subjektive Erlebnis der „Aufführung“ unterscheidet sich deutlich von der auf das Akustische eingeschränkten Wiedergabe. U. a. fehlen das Erleben der Künstlerpersönlichkeit (z. B. Charisma) und des Dabeiseins. Aber auch das reine Hörerlebnis weicht deutlich vom Originalen ab. So fehlt zumindest der wirklich erlebte Raumeindruck. Denn selbst mit vielen Kanälen und Lautsprechern wird abgesehen von den technischen Grenzen der Übertragung bestenfalls nur ein ähnliches 3D-Schallfeld erzeugt. Schließlich fügt der Wiedergaberaum auch seine spezifische Raumakustik (u. a. Nachhall) hinzu. Weiter sei noch erwähnt, dass deshalb auch oft wichtige Zusatzdaten fehlen, z. B. über den Ort und Zeit der Aufzeichnung. Sie müssen dann extra hinzugefügt werden. Selbst jede noch so gute Photographie ist kein detailgetreues Abbild, sondern bestenfalls ein auf das 2D-Bildliche begrenzter, räumlich-zeitlicher Ausschnitt der Wirklichkeit. ---- 140 ----

Bild 4. Grenzen und Möglichen einer Übertragung. Die Menschheit hat viele Methoden für Einblicke in die Zukunft entwickelt. Das trägt wesentlich dazu bei, dass wir sicherer leben. Doch weil wir behaupten, dass die Vergangenheit unabänderlich feststehe, wurde kaum ein Weg zur Rückrechnung entwickelt. Wie unsicher die Vergangenheit sein kann, das demonstrieren die beiden Beispiele von Bild 5. Beim Billard sind aus der Geschwindigkeit und Richtung kurz vor dem Erreichen des Lochs durch Rückrechnung weder der Ort noch die Zeit für den ursprünglichen Stoß zu ermitteln. Selbst unter Beachtung der Reibungs- und Stoßverluste würde sich der Weg bis nahezu ins Unendliche fortsetzen (b). Bei einer Stellung im Schachspiel (c) können wir einigermaßen gut den nächsten Zug voraussehen, aber nur dann, wenn wir wissen, wer am Zug ist. Das ist jedoch nicht immer eindeutig aus der Stellung abzuleiten. Noch weniger zu bestimmen ist, welches der letzte Zug war. Das scheint ein Widerspruch zu den Gesetzen der Physik zu sein, denn sie gelten alle unverändert auch rückwärts (t o -t). Dennoch ist die ständig gerichtet ablaufende Zeit äußerst gewiss. Das kann aber fast nur mittels der Thermodynamik begründet werden (Abschnitte 2.5 und 5.4.1).

Bild 5. Beispiele für die Schwierigkeiten oder gar Unmöglichkeiten, gültige Berechnungen zur Vergangenheit auszuführen. Einen schematischen Überblick zum Verhältnis von Vorher- und Rücksage zeigt Bild 6. Aus einem, als gespeicherte Vergangenheit bekannten Ereignis kann meist ein gegenwärtiges Ereignis erklärt werden. Obwohl aus Gesetzen und Daten meist eine recht brauchbare Vorhersage möglich ist, ---- 141 ----

besteht für eine Rücksage fast nie diese Möglichkeit. Ein Vergleich mit dem Laplace-Dämon (Bild 7) zeigt die dafür erforderlichen, aber nicht erfüllbaren Forderungen.

Bild 6. Zum Verhältnis von Vorher- und Rücksagen. Wegen der Schwierigkeiten bezüglich Vergangenheit und Zukunft wurden u. a. mehrfach Zeitreisen erdacht. Die vielleicht erste hypothetische Variante hat 1895 Wells mit seiner Zeitmaschine vorgestellt. Heute werden Wurmlöcher und ähnliches sogar wissenschaftlich diskutiert. Zunächst muss dabei vorausgesetzt werden, dass die Vergangenheit (und Zukunft) trotz fehlender Rückrechnung irgendwie real existierten. Zusätzlich ist es wichtig, dass in der „besuchten“ Vergangenheit nichts geändert werden darf oder kann. Doch eigentlich ist ja schon die rein materielle Anwesenheit von Zusätzlichem (dem Zeitreisenden) eine Änderung der Vergangenheit. Denn selbst der Maxwellschen Dämon von 1867 (s. Bild 7) erfordert allein für jede Beobachtung die minimale Bit-Energie des Abschnitts 5.3.7. Folglich sind existierende Speicherungen immer die wesentliche, ja notwendige Basis für Geschichte, Archäologie, Kriminalistik, Museen usw. Doch Speichern erfolgt aber nicht nur absichtlich durch den Menschen. Es geschieht auch ständig in der Realität ohne Zutun des Menschen. Dadurch entstehen u. a. stabile Gebilde und Strukturen. Die ganze Evolution der Welt und des Lebens ist weitgehend durch Speicherung erfolgt und es geschieht noch immer mit dem Entstehen und Vergehen. Physikalisch wesentlich ist dabei die zwar nicht beweisbare, aber wohl dennoch vorhandene Ständigkeit. Vielleicht sind bereits die Objekte (Teilchen) Gespeichertes. Deutlich anders ist es bei den unveränderlichen (ewigen) Gesetzen und Konstanten. Hier ahnen wir nicht einmal wo oder wie sie in der Natur „gespeichert“ sein könnten. Allgemein gäbe es ohne Speichern Vieles nicht. So hätten wir kein Gedächtnis, könnten daher weder andere wiedererkennen, noch uns selbst erkennen. Gemäß Freud gäbe es dann kein Ich und Wir. Ein derartiger Mensch würde nur in der Gegenwart leben und nichts von der Vergangenheit wissen und könnte daher auch nichts von einer Zukunft ahnen oder sie gar planen. Traurig genug ist schon die deutlich schwächere Demenz. Da ohne Speichern kein Vergleich mit der Vergangenheit möglich ist, könnten wir uns keine Entwicklung, Evolution usw. oder gar Zeit vorstellen. Es gäbe auch keine Genetik und damit fixierte Arten und keinen geordneten Ablauf des Lebens. Undenkbar oder gar unmöglich wären Tabus, Verhaltensregeln, Sitten, Gebräuche und Gesetze. Insgesamt ist also Speichern immer ein tiefes menschliches Bedürfnis. Woher wissen wir dann aber eigentlich, dass die Vergangenheit unabänderlich feststeht? Wird sie etwa deshalb in der Geschichte immer wieder neu Interpretiert? Insgesamt ist somit Speichern fundamental für unser gesamtes Wissen, das aber nicht voll identisch mit Information ist (in Kapitel 6). Daher gilt:

Auch wenn die Vergangenheit unveränderlich feststeht, benötigen wir für ihr damaliges Geschehen unbedingt damals Gespeichertes. ---- 142 ----

Bild 7. Der Maxwellsche Dämon beobachtet die Geschwindigkeit der Moleküle und öffnet die Tür für schnelle Moleküle, die von links bzw. langsame, die von rechts kommen. Die hierfür notwendige Energie ist aber größer als der erreichbare Gewinn.

6.1 Grundlagen Speichern ist ein mehrstufiger Prozess: Mit der Aufzeichnung wird der stabile Speicherzustand erzeugt. Teilweise wird erst danach und zusätzlich seine hinreichende Stabilität bewirkt (z. B. chemische Entwicklung beim klassischen Film). Dann kann – oft mehrfach – die Wiedergabe erfolgen. Vielfach muss vor der Aufzeichnung das Speichermedium erst gelöscht werden. Für einem Informationsspeicher sind notwendig: Das stoffliche Speichermedium, in dem die Speicherung als Speicherzustand (energetisch) festgehalten wird und die technischen (oft elektronischen) Einrichtungen zum Aufzeichnen, Wiedergeben und Löschen, die dazu Energie benötigen. Für ein Speichern ist Dreierlei erforderlich: 1. Ein gerichteter Zeitablauf (Zeitpfeil), der aber nicht aus den Naturgesetzen folgt. Denn selbst Einstein behauptete für die physikalische Zeit: „Der Unterschied zwischen Vergangenheit, Gegenwart und Zukunft ist für uns Wissenschaftler eine Illusion, wenn auch eine hartnäckige.“ Dennoch ist er für die Speicherung, zumindest zum Erkennen des Unterschieds von Änderungen und Stabilitäten wesentlich. 2. Eine zeitliche Veränderung der Welt, denn sonst wäre Speicherung ja überflüssig. Es gibt eben ein Werden und Vergehen. Dennoch erfordert jede Wissenschaft die Beständigkeit als eine wesentliche Voraussetzung. Typisch sind dabei die ewigen Gesetze mit den dazu gehörenden ewigen Gesetzen, Konstanten und Teilchen. 3. Die (beeinflussbaren) Irreversibilitäten. (Lateinisch ir- un-, nicht; vertere kehren, wenden, drehen sowie revertere umkehren, zurückkehren, sich wenden an). Sie sind Grundlage für die erreichbaren stabilen Speicherzustände, welche erst danach (potentiell) als Zeichen (Informationsträger) für das Vergangene nutzbar sind. Ihre Stabilität wird teilweise durch die Statistik der Thermodynamik und die Quantenphysik gefährdet. Vieles vergeht schließlich einfach wie Schall und Rauch. Selbst von unser leiblichen Hülle bleibt nur – und das auch nicht für ewig – ein Häufchen Asche und eine Grabinschrift zurück. Der Speicher-Zustand ist wesentlicher Bestandteil der Speicherung. Jedoch die meisten Speicherungen bestehen aus mehreren bis sehr vielen örtlich unterschiedlich gelegenen Speicherzellen (s.u.). Jede von ihnen besitzt vorwiegend ein genau abgegrenztes Volumen. Für das dann meist zeitlich nacheinander jedoch einzeln sowohl die Aufzeichnung, Wiedergabe als auch Löschung erfolgen muss. Der „Inhalt“ (eigentlich der Informationsträger) jeder Speicherzelle wird durch eine hineingebrachte Energie aufgezeichnet. Er betrifft fast immer die Z-Information, den Zeichenträger. Das dazu gehörende Informat kann erst bei der Wiedergabe und Weiterleitung an ein passendes System erzeugt werden. Bei allen Prozessen und Zuständen der Speicherung ist die Energie eine ganz wesentliche Größe. Betont zeigt das Bild 8. Die meisten Speicherzellen sind binär und können ---- 143 ----

nur die zwei Zustände 0/1 annehmen. Einige Speicherzellen sind auf mehrere diskrete Zustände ausgelegt (z. B. Flash-Zellen) sie können dann 4 Zustände annehmen und so 2 Bit speichern. Recht selten sind Zellen mit 8 Zuständen für 3 Bit.

Bild 8. Die Energie als eine besonders wichtige physikalische Größe bei der Speicherung.

6.1.1 Die Grenzzelle In einem Speichermaterial ist für eine Speicherzelle je Bit das Volumen und die notwendige Energie gemäß einer Grenzzelle deutlich räumlich begrenzt (Bild 9). Für eine kleinstmögliche Speicherzelle mit 1 Bit existieren mehrere Grenzen. Bild 9. Das Volumen der Speicherzelle in einem Speichermaterial. Die Speicherzelle muss gegenüber ihrer Umgebung und damit auch gegenüber den anderen Speicherzellen gut messbare Unterschiede aufweisen (s. Bild 10). Für die minimale Energie gilt dabei nach Abschnitt 5.3.7 E t k˜T˜ln(2), also E/Bit t 3˜10-21 J # 5˜1011 Hz # 5˜10-22 cal # 26 mV. Möglich sind auch Teilchen oder Quanten. Andererseits gibt es in jedem Material eine maximal mögliche Energiedichte. Der rein theoretische Höchstwert ist durch die Einstein-Relation E = mc2 gegeben. Doch sogar in Kernkraftwerken ist davon nur ein sehr geringer Teil nutzbar. Für die Speicherung ist zusätzlich eine langfristige Stabilität der Energiedichte E/V zu garantieren (V = Volumen). Nach vielen Abschätzungen (Kondenstor-, Magnet-Energie usw.) ergibt sich dafür Emax/V d 0,5 J/cm3 [Völ67]. Das entspricht etwa auch der Grenze der Klassischen Physik mit ca. 1000 Atomen. Eventuell ist für einen Speicher auch die Masse zu beachten. Dafür kann dann die Massedichte von Festkörpern zu etwa 1 bis 10 g/cm3 angenommen werden. Für die Wiedergabe, die einem Mess---- 144 ----

prozess entspricht, ist eine energetische Kopplung mit dem Speicherzustand erforderlich, dem dabei Energie entnommen werden muss. Hierbei begrenzt letztlich die Heisenbergunschärfe 'E˜'t t h die Möglichkeiten. Deshalb gehört auch zu kleineren Energien eine langsamere Wiedergabe und umgekehrt. Folglich ist die bestimmende Maßeinheit für die Speicherzelle nicht die Energie in W/s, sondern die Wirkung in EnergieuZeit (Ws2). Wird 'E vom Abschnitt 5.3.7 in die Heisenbergunschärfe eingesetzt, so folgt 't t

h ˜ ln(1  z ) 5 ˜1011 t . k ˜T ˜ z T

Bei Zimmertemperatur T | 300K und einem Störabstand z | 60 dB (1:1000) folgen etwa 10-13 s. Recht ähnliche Zusammenhänge treten auch in der Nachrichten- und Messtechnik auf. Für digitale Logikschaltungen ist es z. B. das Produkt aus Schaltzeit mal Energie. Allgemein wurde das bei der Speicherung bisher kaum beachtet. So wundert sich z. B. Schrödinger [Sch51] bzgl. der Genetik, dass die Nukleinsäuren (DNS) mit ihren geringen Energieschwellen hinreichend lange stabil sind. Wird jedoch die technisch gesehene, sehr langsame Duplikationszeit (ca. 2000 Sequenzen/s) berücksichtigt, so entstehen Werte, die durchaus mit der Erfahrung übereinstimmen.

Bild 10. Zur Ableitung der Elementarzelle für die Speicherung. Einen Überblick zu existierenden Energiedichten zeigt Bild 11. Für die Speicherung wird dabei nur der grüne Bereich genutzt. Ergänzend weist Bild 12 aus, wie viele Atome je Bit entsprechend dem jeweils erreichten Stand der technischen Speicher benötigt wurden. Seit etwa 2005 waren keine wesentlich veränderte Werte verfügbar. Auffällig ist, dass der Streubereich mit der Zeit zunimmt. Daher ist eine Vorhersage für die Zukunft beachtlich unsicher. Neben den Energie- und Volumengrenzen der Speicherzelle gibt es andere bei der Aufzeichnung und Wiedergabe. Bei der Aufzeichnung muss in das kleine Bit-Volumen die zur Veränderung notwendige Energie eingebracht werden. Damit dabei keine Nachbar-Bit verändert werden, ist eine hohe Energiekonzentration erforderlich. Bei den Magnetköpfen setzt hier vor allem die Technologie der Spaltherstellung Grenzen (Breite | nm, Länge | Pm). ---- 145 ----

Bild 11. Überblick zu den Energiedichten mit Hervorhebung des Speicherbereiches.

Bild 12. Anzahl der Atome je Bit, die für technische Speicher jeweils notwendig waren. Eine theoretische Grenze für das minimale Volumen lässt sich für optische Verfahren herleiten. Hier setzen die Abbildungsfehler und die von der Wellenlänge O abhängige Beugung die Grenze. Werden nur die prinzipiell unvermeidlichen Beugungsfehler berücksichtigt, so beträgt bei einer Apertur An der Durchmesser des Brennflecks D | 0,6˜O/An und seine Länge L | O˜An. Das Brennvolumen ist daher unabhängig von der Apertur und beträgt

VBr | O3. ---- 146 ----

Bereits mit sichtbarem Licht ist damit ein Volumen möglich, das (heute) kaum von einem technisch genutzten Verfahren erreicht werden kann. Die Energie eines Photons beträgt h˜c E h ˜Q .

O

Darin sind v die Frequenz des Photons und c | 3˜108 m/s die Lichtgeschwindigkeit. Bei der Bündelung auf das Brennvolumen V herrscht dort die Energiedichte

E VBr

w

h˜c

O4

.

Die Auflösung nach der Wellenlänge ergibt

h˜c . w Mit einer hinreichend kurzen Wellenlänge und nutzbaren Bündelungsverfahren wären theoretisch so beliebig hohe Energiedichten erreichbar. Daher gibt es für die optische Aufzeichnungsdichte keine theoretische Grenze. Jedoch wegen der nur möglichen Energiedichte des Speicherzustandes von w | 0.5 J/cm3 folgt eine Grenzwellenlänge von 25 nm, also fernes ultraviolettes Licht. Dieses Volumen von 500 nm3 würde eine Speicherdichte von rund 1022 Bit/m3 ermöglichen. Obwohl für die Halbleiterlithographie Strichbreiten um 20 nm möglich sind, dürfte lange noch nicht ein Volumen mit allseitig diesen Abmessungen erreichbar sein. Für die Zukunft bestehen hier noch deutliche Reserven. Bei der Wiedergabe ist eine „Messkopplung“ mit dem Speicherzustand notwendig. Damit Nachbarzellen nicht mit erfasst werden, ist auch hier die hohe räumliche Konzentration notwendig. Maximal kann dabei die gesamte Energie des Speicherzustandes zurückgewonnen werden. Dabei wird jedoch automatisch der Speicherzustand zerstört. Nichtzerstörende Wiedergabe kann folglich nur deutlich weniger Energie, nämlich bis zur Stabilitätsschwelle E0 genutzt werden. Wegen des Wirkungsgrades der Wiedergabewandler wird die nutzbare Energie jedoch noch zusätzlich geringer. Während Magnetköpfe Wirkungsgrade bis über 90 % ermöglichen, sind z. B. bei der magnetooptischen Wiedergabe nur wenige ‰ erreichbar. Die schließlich verfügbare Energie muss dann mit gutem Störabstand in ein technisch nutzbares Signal verstärkt werden. Trotz allem ist es dennoch oft möglich, nacheinander beliebig viele Wiedergabevorgänge ohne Zerstörung zu realisieren. Insgesamt ergibt sich so für die drei Speicherdichten S die Beziehung: SAufzeichnung t SSpeicherzustand t SWiedergabe Letztlich bestimmt damit fast immer die Wiedergabe die Grenze die erreichbare Speicherdichte. Für die Beständigkeit (Lebensdauer) einer Speicherung ist dagegen fast nur der Speicherzustand zuständig. Zur seiner Abschätzung kann die Arrhenius-Gleichung von 1896 benutzt werden. Für die Halbwertszeit tH (Wahrscheinlichkeit für 50 % Sicherheit von) gilt

O

4

'E

t0 ˜ e k ˜T

tH

. Darin bedeuten T die absolute Temperatur, k | 1,36˜10-23 J/K die Boltzmann-Konstante und t0 eine Zeitkonstante. Letztere beträgt für Elektronenbahnen |3·10-15 s, für Gitterschwingungen |10-4 s. Folglich gibt es also keinen absolut sicheren Speicherzustand. Die Fehlerrate kann jedoch durch tiefere Temperatur (Abschnitt 6.2) und eventuelle Fehlerkorrektur (Abschnitt 5.5.) deutlich verbessert werden. Eine grobe Abschätzung ist auch über die Maxwellsche Geschwindigkeitsverteilung von 1860 möglich. Danach besitzen Teilchen mit der Energie E die relative Wahrscheinlichkeit f ( E ) ˜ dE

2

k ˜T



3 2

E ˜e



E k ˜T

dE . S Darin ist k wieder die Boltzmann-Konstante. Für einige absolute Temperaturen T zeigt Bild 13 den Verlauf der Verteilung. Die Stabilität eines Speicherzustandes ist nur durch jene Teilchen (Gebiete)

---- 147 ----

gefährdet, deren Energie oberhalb der Energieschwelle E0 liegt. In der Praxis liegt sie fast immer deutlich rechts vom Maximum der Geschwindigkeitsverteilung vmax

2 ˜ k ˜T . m

Für die Fehlerwahrscheinlichkeit ist über alle Teilchen mit einer Energie E t E0 zu integrieren. In Bild 13 ist es bei 3 000 K rot hervorgehoben. Mathematisch folgt dann als Näherung die Wahrscheinlichkeit f (t E0 )

2

S

E

˜

 0 E0 ˜ e k ˜T . k ˜T

Bild 13. Maxwell-Geschwindigkeitsverteilung zur Bestimmung der Fehlerwahrscheinlichkeit. Fehler bewirkt nur das rot gekennzeichnete Gebiet jenseits der Energieschwelle E0.

6.1.2 Vielfalt der Speicher Während die typischen Eigenschaften der Speicherzelle und ihre Grenzen gut bestimmbar sind, war ähnliches für die damit aufgebauten Speicher längere Zeit nicht möglich. Immer war viel zu wenig Speicherkapazität verfügbar. So wurde jede Möglichkeit für die technische Realisierung von Speichern genutzt. Bereits 1970 weist Lerner [Ler70] die Vielfalt von Bild 14 aus. Über einen beachtlich langen Zeitraum hat sie noch deutlich weiter zugenommen. Neben den bisher beschriebenen statisch stabilen Speicherzellen gab es dabei auch solche, die dynamisch funktionierten, z. B. Oszillatorschwingungen einlaus oder die ein Speichermaterial systematisch durchwanderten. In den letzten Jahren hat sich diese Entwicklung jedoch radikal geändert. Ab etwa 1995 wurde – zunächst ziemlich unvermittelt – reichlich Speicherkapazität verfügbar (Abschnitt 6.1.3). Dadurch reduzierten sich, zunächst langsam die Speichervarianten. Heute besitzen praktisch nur noch zwei bzw. drei Varianten eine größere Anwendungsbreite: Die elektronischen und magnetischen Speicher, bei den magnetischen die Festplatte und das Magnetband. Sie werden später ausschließlich etwas genauer behandelt (Abschnitt 6.3). Die zunächst so erfolgreichen optischen Medien wie CD, DVD usw. sind bereits durch die Flash-Speicher und den Internet-Abruf (z. B. mp3) so gut wie verdrängt. Eventuell könnten jedoch in der Zukunft noch effektivere Lösungen auftreten. Dazu gehören vielleicht die Holografie (Abschnitt 6.6.1) und neuartige elektronische Varianten (Abschnitt 6.5). Sehr unsicher ist, ob durch die Quantenphysik bessere oder effektivere Lösungen entstehen werden (Kapitel 8). Während früher alle Versuche zu einer Systematik der Speicher mehr oder weniger schnell scheiterten, besteht nun infolge der entstandenen Einschränkungen etwas mehr Sicherheit. Dabei sind vier Hauptgruppen zu unterscheiden: 1. Anwendung der Signal-/Zeichenvarianten des Gespeicherten in Speicherzellen: Werte (Zahlen) als gemessene Ausprägungen mit kontinuierlichen oder diskreten Eigenschaften. Orts- und Zeitangaben als x-, y- z- und/oder t-Größen. Werte längs eines Weges (z. B. Rille einer Schallplatte) f (x). Sprache, Musik usw. als zeitlicher Ablauf f (t). Abläufe komplex in Raum und Zeit, u. a. Film/Videos f (x, y, z, t). Funktionen, Algorithmen, Gesetze usw. zur erneuten späteren Ausführung. Teilweise könnte dabei von einer indirekten Speicherung gesprochen werden. 2. Für statische Speicherzellen prinzipiell (auch historisch) nutzbare (physikalische) Methoden: Mechanisch: Löcher, Stifte, Nocken usw. z. B. als Loch-Band oder -Karte, bei Spieluhren usw., Rillenverbiegung bei Edison-Walze und Schallplatte. Festkörper: Geänderte Verbindungsstrukturen, Kristall-Strukturen (z. B. kristallin-amorph, bei CD-RW, evtl. für zukünftige xRAM), Volumenänderung. Chemie: Änderung der Verbindung. ---- 148 ----

Magnetisch: Großer Vorteil der Hysterese, z. B. Magnetband, Disketten, Festplatten, Ferritkerne, Bubbles und evtl. künftige MRAM. Optisch: Hell-dunkel, Reflexion oder Absorption, z. B. für Schrift, Druck, Bar- u. QR-Code, Fotografie und CD. Elektrisch: Kondensatorladungen (dRAM leider refresh), Ferroelektrika, Flash, EPROM und künftige FeRAM. Elektronisch: Viele Arten Flipflop u. a. beim sRAM, verlangt Erhalt der Betriebsspannung, historisch Speicherröhre. Ohmisch: Ähnlich amorph-kristallin, vielleicht künftige Anwendungen des Memristors. Induktiv: Theoretisch denkbar, aber wohl nie genutzt. Quantenphysikalisch: Bestenfalls in Ansätzen bei sehr tiefen Temperaturen erprobt.

Bild 14. Zur Speichervielfalt um 1970 nach Lerner. ---- 149 ----

3. Varianten von Raum und Zeit bei der Speicherung. Die Speicherung verlangt im einfachsten Fall für den Ein- und Ausgang einen Informationsträger ohne zeitlichen Verlauf. Er wird im Raum des Speichermediums gemäß f (x, y, z) festgehalten. Doch hiervon gibt es verschiedene Varianten. Werden dazu alle möglichen Funktionskombinationen, auch die anderer Anwendungen ergänzt, so folgt Bild 15. In dieses Schema können dann die verschiedenen Stufen von Speicherungen als mehrfache Übergänge eingetragen werden (Bild 16)

Bild 15. Überblick zu allen Funktionsübergängen mit Hervorhebung der Speicherprozesse.

Bild 16. Beispiele für die Übergangsschritte u. a. ausgewählter Speicherprozesse. 4. Die Auswahl, Adressierung der einzelnen Speicherzellen: Je nach dem Speicherprinzip erfolgt sie recht unterschiedlich. Beispiele sind mechanische Schalter, optische oder magnetische Fokussierungen, mechanische Bewegungen mittels Motoren, z. B. bei magnetischen und optischen Speicherungen, Lichtablenkung, elektronische Auswahleinrichtungen, weitgehend mit zusätzlichen Codierungen und RAS-CAS-Speicherungen (Abschnitt 6.2.1). ---- 150 ----

6.1.3 Kenndaten Die Leistungsfähigkeit der Speicher wird meist auf Bit oder Byte bezogene Werte der Speicherkapazität, Datenrate, Zugriffszeit, Volumen (|Speicherdichte), Preis und Zuverlässigkeit (|Fehlerrate) bestimmt. Einen Überblick mit den wichtigsten Zusammenhängen und Teilparametern zeigt Bild 17 (oben). Es galt bis etwa 1990. Gemäß dem unteren Bild sind später viel mehr Parameter einzubeziehen. Auf weitere Details muss hier wegen der Vielfalt der Einflussgrößen auf [Völ07] verwiesen werden.

Bild 17. (oben) Früher Überblick zu den Kenndaten von Speichern; (unten) zum Vergleich die heutigen vielen Kenngrößen von Speichern und ihrer Zusammenhänge. Bereits 1965 stellte ich wohl als erster fest, dass es einen hoch korrelierten Zusammenhang zwischen Speicherkapazität und Zugriffszeit gibt [VÖ67a]. Das damalige Schema entspricht genau dem Bild 18a). Für jede Speichertechnologie existieren nämlich effektive technologische Lösungen nur in einem relativ engen Zugriffs-Kapazitätsbereich. Damals wurde noch die Speicherkapazität unseres Gehirns um mehrere Größenordnungen überschätzt (s. Abschnitt 6.8). Durch den schnellen technologischen Fortschritt waren bereits um 1970 alle Grenzen deutlich verschoben (Bild 18b). Außerdem wurden damals die drei Zugriffsgrenzen für den elektronischen, motorischen und menschlichen Zugriff erstmals deutlich. ---- 151 ----

Bild 18. Die Zusammenhänge von Speicherkapazität und Zugriffszeit für 1965 und 1970. Den etwa heute gültigen Stand zeigt Bild 19. Jetzt sind auch die verschiedenen menschlichen Gedächtnisse und die genetischern Speicher korrekt eingetragen (Kapitel 6.7). Auch die zuvor besprochene Reduzierung auf relativ wenige Speicherarten ist deutlich erkennbar. Werden die Obergrenzen für den Quotienten aus Kapazität/Zugriffszeit analysiert, so folgen die typisch zeitabhängige Werte 1950: 107 Bit/s; 1965: 109 Bit/s, 1980: 1011 Bit/s und 2000: 1013 Bit/s. Trotz ihrer Maßeinheit sind es aber keine Datenraten. Sie entsprechen eher dem Schalt-Leistungs-Produkt binärer Schaltungen und den Betrachtungen bei der Grenzzelle im Abschnitt 6.1.1. Auf mit eingezeichneten Daten für die genetische und neuronale Speicherung – einschließlich der menschlichen Gedächtnisse – wird im Kapitel 6.8 eingegangen. Bild 19. Die heute typischen Werte für Speicherkapazität und Zugriffszeit. ---- 152 ----

Weitere Details zum Speichereinsatz vermittelt Bild 20. Der Anstieg bei den Halbleiterspeichern (Arbeitsspeichern für Rechner) M wächst etwa (exponentiell) gleich bleibend steil. Dagegen zeigen die primären (externen) Speicher N um 1985 einen steileren Anstieg, der wesentlich auf neue Technologien bei den Festplatten zurückgeht (Abschnitt 6.3.4). Die sekundären(Archiv-) Speicher verhalten sich ähnlich O. Sehr große Speicherkapazitäten werden für Datenbanken usw. ab 1970 erreicht P Q. Jedoch auf allen technischen Informationsspeichern erreicht die Datenmenge bereits vor 2000 den Stand der gesamten schriftlich gespeicherten Informationsmenge S.

Bild 20. Pauschaler Überblick zur totalen Nutzung von Speichern. Noch erstaunlicher ist die Preisentwicklung der Speicherkapazität in Dollar/MByte (Bild 21). Infolge der erheblichen Änderungen des Geldwertes gelten die Werte allerdings nur recht grob. Dennoch ist der steile und gleichbleibende Abfall über alle Technologien um mehr als zehn Zehnerpotenzen ungewöhnlich hoch. Er ist sogar deutlich steiler, als er nach der ökonomischen Faustregel: „Bei 10facher Erhöhung der Produktion nur halber Preis“ zu erwarten wäre (Bild 22). Der dann noch steilere Abfall des Bit-Preises ab 1995 ist nur dadurch zu erklären, dass ab diesem Zeitpunkt den Anwendern ziemlich unvermittelt mehr als genug Speicherkapazität zur Verfügung steht. Davor war sie immer sehr knapp und daher wertvolles (teures) Gut. Ab diesem Zeitpunkt treten auch veränderliche Tagespreise auf. Z. T. werden zumindest zeitweilig Halbleiterfertigungsstätten stillgelegt. Bei den Festplatten usw. erfolgen erhebliche Zusammenschlüsse. Dadurch sinkt die Zahl der Konkurrenten. Der zu diesem Zeitpunkt erreichte Papier- bzw. Film-Preis dürfte dabei kaum von Einfluss sein. Die Zugriffszeiten (Abstand von der Kenntnis der Zelle bis zum Zugriff) verändert sich sowohl mit den Jahren als auch mit der Speicherkapazität dagegen nur unwesentlich Das zeigen die Grenzen des elektronischen, mechanischen und manuellen Zugriffs in Bild 18b recht deutlich. Ähnliches gilt auch für die nutzbaren Datenraten. Daher gibt es für beide keine vergleichbaren Diagramme. ---- 153 ----

Bild 21. Die langfristige Preisentwicklung bei den technischen Speichern.

Bild 22. Zur ökonomischen Faustregel mit mehreren Vergleichen, insbesondere des Transistorpreises, der grob dem der Speicher entspricht. Nur bei Materialien ist sie grob erfüllt. ---- 154 ----

Für viele Anwendungen ist schließlich noch die Beständigkeit (Verfügbarkeit) der Aufzeichnungen wichtig. Hierzu zeigt Bild 23 einige Daten: Sie betreffen dabei drei sehr unterschiedliche Einflüsse: 1. Die Gültigkeit der Daten, also wie oft bzw. in welchen Abständen die Werte aktualisiert werden müssen (unten im Bild). 2. Die zuverlässige technische Beständigkeit der Daten (u.a. Arrhenius-Gesetz: Abschnitt 6.1.1; Mitte bis z. T. oben im Bild). 3. Die Nutzbarkeit der Gerätetechnik, teilweise begrenzt durch moralischen Verschleiß, also den Ersatz durch neue Technik und damit nicht mehr Verfügbarkeit der alten Geräte (ganz oben).

Bild 23. Beispiele zur Nutzbarkeit von gespeicherten Daten.

6.2 Elektronische Speicher Die kontinuierliche Elektronik benutzt vor allem Widerstände, Kondensatoren, Induktivitäten, Filter, Verstärker und Oszillatoren, die digitale fast ausschließlich kombinatorische und serielle Schaltungen. Sie werden allerdings in den verschiedenen Lehrbüchern (Hochschulen und Universitäten) unterschiedlich bezeichnet (Bild 24). Kombinatorische Schaltungen heißen dann auch Schaltwerk, statische Logik, binäre Schaltungen, Zuordner oder Codierer. Dagegen werden sequentielle Schaltungen als Schaltnetz, Folge-Schaltungen und dynamische Logik bezeichnet. Bild 24. Die beiden fundamentalen Begriffe und Schaltungen der digitalen Elektronik. Speicher kommen in den üblichen Darstellungen bestenfalls mittelbar vor. Das ist bereits deshalb besonders erstaunlich, weil die Speicher zumindest für die Mikroelektronik schon immer die technologischen Grenzen bestimmten. Genauer betrachtet sind aber die kombinatorische Schaltung und die Speicher die Grundlagen aller binären Schaltungen. Denn aus ihnen lassen sich – was anders nicht möglich ist – alle digitalen Schaltungen ableiten und herstellen (Bild 25). Die fälschlich meist als eigenständig deklarierte sequentielle Schaltung, leitet sich dann folgerichtig aus der Zusammenschaltung von kombinatorischen Schaltungen und Speichern ab. Ergänzend kann aus zwei kontinuierlichen Verstärkern (Röhren oder Transistoren) oder gleichwertig aus zwei kombinatorischen Schaltungen mittels Rückkopplung ein Flipflop als Speicher erzeugt werden. Die kombinatorischen Schaltungen entstehen nur als Schaltung oder müssen kompliziert simuliert werden. ---- 155 ----

Bild 25. Ableitung aller binären Schaltungen aus kombinatorischen Schaltungen und Speichern. Wegen ihrer Fundamentalität, der späteren Anwendung bei den Flash-Speichern (Abschnitt 6.2) und den Möglichkeiten bei der Quantenelektronik (Kapitel 8) fasst Bild 26 die grundlegenden kombinatorischen Funktionen bis zu zwei Eingangsgrößen zusammen. Den Vergleich des typischen Verhaltens der drei wichtigen binären Schaltungen stellt ergänzend Bild 27 gegenüber. Sie zeigen deutlich unterschiedliche Eigenschaften, und die sequentielle Schaltung enthält immer interne Speicher, deren aktuelle Zustände ihr Signalverhalten bestimmen.

Bild 26. Die binären logischen Funktionen bis zu zwei Eingangsvariablen.

---- 156 ----

Bild 27. Gegenüberstellung der drei wichtigsten binären Schaltungen. Für kombinatorische Schaltungen und Speicherzellen entstanden weitgehend zeitlich nacheinander mehrere Schaltkreisserien, sehr bald auf der Grundlage der integrierten Schaltkreise. Hierzu gibt Bild 28 einen verknappten Überblick. Die ersten DRL-Schaltungen (diode resitor logic) wurden bald durch die z. T. noch heute benutzten TTL-Schaltkreise (transistor transistor logic) abgelöst. Die I2L (integrated injection logic) wurde und wird z. T. immer noch für Sonderzwecke eingesetzt. Für hohe Geschwindigkeiten und schnelle Rechner wurden bis etwa 1997 die ECL-Schaltungen (emitter coupled logic) eingesetzt. Heute sind die schnellen und stromsparenden CMOSSchaltungen (complimentary metal oxide semiconductor) eindeutig vorherrschend; weitere Details s. [Völ89].

Bild 28. Überblick zu den Schaltkreisserien der elektronischen Bauelemente. ---- 157 ----

Die fundamentale elektronische Speicherzelle ist das Flipflop (kaum gebräuchlich ist deutsch: binäre Kippschaltung). Ihre Wirkungsweise ist leider nicht einfach zu beschreiben. In Bild 29a ist sie aus zwei Bipolar-Transitoren aufgebaut. Die beiden Widerstände R12 und R21 bewirken eine starke Rückkopplung. Wird einer (z. B. R12) entfernt, so kann über R2 und R21 der Transistor T1 gesteuert werden. Dabei entsteht die Kurve T1 in b). Ganz analog kann durch Entfernen von R21 der Transistor T2 gemäß der Kennlinie T2 gesteuert werden. Beide Kennlinien schneiden sich im Instabilitätspunkt auf der Trennlinie. Wird die komplette Schaltung in Betrieb gesetzt, so kann nur einer der beiden Endpunkte mit den Zuständen Q oder Q angenommen werden. Welcher auftritt, hängt von Zufälligkeiten ab, die u.a. durch etwas abweichende Transistoren, R21 z R12 und/oder R1 z R2. bestimmt sind. Durch zusätzliche Stromeinspeisungen (Steuerung) kann zwischen den beiden Zuständen umgeschaltet, also logisch auf 0 oder 1 gesetzt werden. So entsteht die Speicherzelle des Flipflop.

Bild 29. Zum Aufbau und der Wirkungsweise des Flipflop. Auf den Flipflop lassen sich die Schaltkreisserien von Bild 28 übertragen. Dann entstehen die Varianten von Bild 30. Bei der gezeigten 4-Transistor-MOS-Zelle dienen die beiden seitlichen MOSFET (Feld-Effekt-Transitor) der Zellenauswahl in komplexen Speicherschaltungen (s. u.). Da in der Halbleitertechnologie jedoch ein Widerstand mehr Fläche als ein FET benötigt und damit teurer ist, werden sie immer durch zusätzliche FETs ersetzt. So entsteht die klassische 6-Transistor- Speicherzelle. Doch sehr bald wurde sie weitgehend durch die CMOS-Speicherzelle ersetzt. Dabei sind die Transistoren T1 und T2 komplementär zu T3 und T4. Die einen sind n-MOS-, die anderen p-MOSTransitoren. Ihre Ein-Aus-Werte verhalten sich reziprok. Das demonstriert das rechts stehende Schema vom CMOS-Ersatz. In der Anwendung sind also für die beiden Speicherzustände nur diagonal gegenüberliegenden Transistoren leitend. Das hat zur Folge, dass beide Zustände äußerst stromarm sind. Es fließen nur sehr kleine Restströme. Lediglich beim Umschalten zwischen den Zuständen wird mehr Strom benötigt. Er wird zum Umladen der verschiedenen Schaltkapazitäten benötigt. Das ist u. a. der Grund weshalb die Taktfrequenz nur so hoch wie unbedingt notwenig gewählt wird (z. B. bei den elektronischen Uhren).

Bild 30. die Speicherzellen in den verschiedenen Schaltkreisserien.

6.2.1 Speicherschaltungen Einzelne Speicherzellen werden sehr selten benutzt. U. a. kommen sie als Flag für Entscheidungen bei der Programmierung oder zum Um- bzw. Ein/Aus-Schalten von Baugruppen zur Anwendung. Ansonsten werden mehrere Speicherzellen zu einer Speicherschaltung zusammengefasst. Dann müssen die einzelnen Speicherzellen oder zusammengefasste Mehr-Bit-Zellen (z. B. Byte) direkt ausgewählt, adressiert werden. Dafür gibt es mehrere Varianten (Bild 31). Werden die Zellen zur Datenspeicherung benutzt, dann sind sie auf dreierlei Art auswählbar. Besonders häufig ist der ---- 158 ----

Betrieb als RAM (random access (addressable) memory), dabei wird mittels einer Adresse nur eine Zelle für das Aufzeichnen oder Wiedergeben festgelegt. Bei der zweiten Betriebart SAM (serial addressable memory) werden die Zellen zeitlich nacheinander ausgewählt. Die dritte Betriebsart CAM (content access memory) ist sehr aufwändige und wird immer noch recht selten benutzt. Zur Auswahl werden die Inhalte der Speicherzellen benutzt. Schließlich können Speicherzellen noch so zusammengeschaltet werden, dass mittels ihrer Speicherinhalte die logischen Funktionen einer Schaltung verändert werden. Auf diese insgesamt vier möglichen Fälle wird im Folgenden eingegangen (s. Bild 41). Bild 31. Einteilung der Zugriffsarten auf einzelne Speicherzellen. Werden mehrere Speicherzellen in Reihe aneinandergefügt, so ergeben sich etwa die Möglichkeiten von Bild 32. Eine viel benutzte Schaltung ist das Master-Slave-Flipflop (a, MS-FF). Dabei werden zwei Flipflop (FF) in Reihe geschaltet und verzögert getaktet. Über eine meist vorangehende kombinatorische Schaltung wird das erste FF (master) auf 1 (S = set) oder 0 (R = reset) gesetzt. Im nächsten Takt wird dieses Bit den slave übergeben und der master kann ein neues Bit übernehmen. So können Zeitfehler (Wettläufe, hazards) bei der Informationsverarbeitung unterdrückt werden. Werden mehrere MS-FF in Reihe geschaltet, so entsteht ein Schieberegister (b). Bei der Fehlerkorrektur (Abschnitt 5.5) wurde hiervon bereits Gebrauch gemacht. Sie lassen sich u. a. zum Datenverschieben (Multiplizieren und Dividieren) benutzen. Die Punkte in Bild 32d entsprechen dabei den einzelnen FF. Werden bei ihnen Ausgang und Eingang verbunden, so entstehen Umlaufregister. Für sie lassen sich die vier Schaltungsarten nach c) unterscheiden. Sie ermöglichen dann z. B. eine Wandlung zwischen parallel und seriell anfallenden bzw. erforderlichen Daten.

Bild 32. Die wichtigsten Betriebsarten für in Reihe geschaltete Fliflops (FF). Die Umlaufspeicher hatten früher umfangreiche Anwendungen bei den Laufzeitspeichern per Draht usw. Sie werden heute noch bei elektronischen Bildsensoren für Fotoapparate und Videokameras eingesetzt. Dabei kommen Lösungen gemäß den vier Varianten von Bild 33 zum Einsatz. Wenn eine Signalkette längere Zeit umläuft, so entstehen dabei Verluste. Daher ist bei jedem Umlauf ein Refresh (Regenerierung) der zurückkommenden Daten mit der Schaltung R erforderlich.

---- 159 ----

Bild 33. Die vier Möglichkeiten für digitale Umlaufspeicher. Eine recht spezielle Betriebsart von in Reihe geschalteten Speicherzellen ist der Stack (englisch Stapel, Haufen, Warteraum, Miete, Schacht, Schornstein, deutsch auch Kellerspeicher). Er entspricht (Bild 34a) einem Tellerstapel in Gasstätten: Der zuletzt (pusch) aufgelegte Teller muss als erster wieder entnommen (pop) werden. Auch eine Nadel, auf die Zettel aufspießt werden, verhält sich so. Deshalb wird dabei von LIFO (last in first out) gesprochen. Seine Erfindung erfolgte in den 50er Jahren. Wahrscheinlich schufen ihn mehrere Forscher unabhängig voneinander, erkannten aber zunächst nicht seine fundamentale Bedeutung. Vielfach wird die Dissertation von Kämmerer genannt. Er verwendete ihn um 1950 bei den Vorarbeiten zur OPREMA (Optik-Rechen-Maschine auf Relais-Basis), die von ihm 1955 beim Carl-Zeiss-Werk in Jena fertig gestellt wurde. Der Stack ist heute in allen Rechnern unbedingt notwendig, z. T. kommt er gleich vierfach vor (Programmiersprache Forth). Er ist wohl die einzige Schaltung, die nie als Hardware realisiert wurde, sondern immer nur per Software ausgeführt wird, also per indirekter Adressierung nach (b). Bild 34. Ein Tellerstapel (a) zur Erklärung des Stack (b), der immer per Software in einem adressierbaren Speicher nachgebildet wird. Eine weitere einfache Speicherschaltung ist der Cache (englisch Versteck, geheimes Lager). Er soll einen langsamen Datenaustausch zwischen dem Speicher und der Daten-Nutzung (z. B. zur CPU) beschleunigen. Er besteht (Bild 35) aus einem kleinen, sehr schnellen Speicher (meist sRAM, s. u.) und einer Kontroll-Logik. Durch seine Programmierung sollen die nächsten erforderlichen Daten bereits vor der Anforderung bereit stehen. Die Logik muss also quasi vorausdenken (look ahead). Dabei gibt es Treffer (hit, engl. treffen, bestätigen schlagen) und Fehler (miss engl. vermissen, fehlen, verpassen). Um möglichst viele hit zu erreichen sind komplexe Programme erforderlich. Meist werden HitRaten von 60 bis 80 % erreicht Bild 35. Zum Cache (a) und seine Leistung (b). ---- 160 ----

Das RAM ist eine besonders wichtige Speicherschaltung. Zum Betrieb sind zumindest drei zusätzliche Schaltungen erforderlich: 1. Die einzelnen Speicherzelle müssen direkt adressiert werden. 2. Mit einem Aufzeichnungsverstärker muss der ausgewählten Zelle der zu speichernde Wert eingeprägt werden. 3. Bei der Wiedergabe ist das (oft sehr) kleine Wiedergabesignal auf den standardisierten Pegel zu verstärken. Ein sehr einfaches Schema dafür zeigt Bild 36a. Weil die Zuleitungen auf einem Halbleiterchip begrenzt sind, werden die Zellen für Aufzeichnung und Wiedergabe einzeln über Multiplexer angesteuert. Da schon lange für die vielen Zellen die Multiplxer nicht mehr ausreichen, entstand die Matrixansteuerung (b).

Bild 36. Einfaches Prinzip der der Speicherschaltungen. Einer der allerersten Speicherschaltkreise, der „7481“ entstand in den 1960er Jahren. Er nutzt die TTL-Technik und speichert nur 16 Bit. Daher ist sein Aufbau so einfach, dass noch die vollständige Schaltung als Bild 37 gut darstellbar ist. Die Xi und Yi adressieren über die durch sie erzeugte Matrix immer genau eine Speicherzelle. SV sind sie Schreibverstärker, getrennt für 0 und 1. Rdyn sind steuerbare Widerstände an denen die Wiedergabe- (Lese-) Spannung getrennt für 0 und 1 abfällt. Sie wird über die Leseverstärker LV zu den (Read-) Ausgängen R0 bzw. R1 verstärkt

Bild 37. Vollständiges Schaltbild des TTL-Speichers 7481 aus den 1960er Jahren für 16 Bit. ---- 161 ----

Den Aufbau eines heute typischen Speichers zeigt Bild 38. Auf einem Chip befinden sich davon meist mehrere. Die große Speichermatrix von Bild 38a wird durch den Spalten- und Zeilen-Encoder adressiert. Damit die externen Anschlüsse weiter reduziert werden, erfolgt ihre Versorgung über je einen Puffer (Speicher). Diese werden nacheinander per CAS und RAS (column bzw. row address strobe) mit der Zeilen- bzw. Spaltenadresse gefüllt. Alle Speicherzellen sind mit Schreib-Lese-Verstärker gekoppelt. Diese Kopplung ist detaillierter in (b) für die einzelne CMOS-Speicherzelle dargestellt. Da die Auswahl der Zeile und der Spalte erfolgen muss, sind hier nicht 6 sondern 8 Transistoren vorhanden. Mit B sind die einzelnen 0/1-Bit-Leitungen gekennzeichnet.

Bild 38. Aufbau einer vollständigen Speichermatrix mit hervorgehobener CMOS-Speicherzelle. Auf einen Chip befinden sich meist mehrere Matrizen. Die verschiedenen Adressierungsverfahren verlangen je nach Speicherkapazität unterschiedlich viele Leitungen nach Außen. Dabei müssen Bit- und Byte-Zugriff unterschieden werden. Die Zusammenhänge zeigt Bild 39. Dabei sind zusätzlich noch die Leitungen für die Stromversorgung und Daten-Ein-Ausgabe zu addieren. Bild 39. Zusammenhang von Adressierung, Speicherkapazität und Leitungszahl. Der Assoziativ-Speicher (lateinisch ad- hin, zu und socius Gefährte) ist meist als CAM (content addressed memory) bekannt und hat nichts mit dem assoziativen Gesetz der Mathematik gemeinsam: a+b+c = (a+b)+c = a+(b+c) bzw. a*b*c = (a*b)*c = a*(b*c). Er ist auf sehr schnelle Suche in Datenbanken spezialisiert. Er sei mit dem Auszug aus einer großen Datenbank zur Partnersuche erklärt. Nr. Name 45 Meyer 46 Müller 47 Schulze 48 Altmann 49 Schmidt 50 Lindner Maske u

weiblich 0 1 0 0 1 0 0

Alter 30 35 27 40 30 28 25 – 35

ledig Kinder 0 0 1 1 1 2 1 0 2 0 1 0 1 u

---- 162 ----

Hobby Theater Briefmarken Foto Foto Reisen Foto Foto

Marke * *

Gesucht werden z. B.: unverheiratete, männliche Personen im Alter von 25 bis 35 Jahren mit dem Hobby Foto. Hierzu sind nur die gelb gekennzeichneten Spalten als Maske notwendig. Die Spalten Kinderzahl und Name sind dabei unwichtig. Sie erhalten den Vermerk „don’t care“, bleiben in der Tabelle daher farblos. Zeilen, wo unerwünschte Werte auftreten, sind in der Tabelle blau gekennzeichnet. Die Zeilen, wo alles Gewünschte zutrifft, erhalten in der Spalte Marke ein „*“. Nur sie sind bezüglich der Anfrage von Interesse und werden daher ausgegeben. Die hohe Geschwindigkeit der Auswahl wird durch eine voll parallele Auswahlbearbeitung der vollständigen Datenbank erreicht. Allerdings sind dafür Speicherzellen mit 10 Transistoren und viele Anschlüsse nach außen notwendig. Das hat eine Verbreitung des aus den 1950er Jahren bekannten Prinzips weitgehend verhindert. Weitere Details ergeben sich aus dem typischen Schaltbild von Bild 40.

Bild 40. Typischer Aufbau eines assoziativen Speichers CAM. a) Die Aufteilung und Struktur der Datenbank, b) ihre Betriebsweise und c) die komplexe Speicherzelle. Die drei wichtigsten Beispiele für Speicherung von Funktionen als PLD (programmable logic device) zeigt Bild 41. Dabei existieren je eine AND- und eine OR-Matrix. Durch ihre Reihenschaltung können von den n Eingängen zu den m Ausgängen alle möglichen logischen Funktionen realisiert werden. An den Kreuzungsstellen müssen hier zunächst als Speicherzellen (statt der Dioden) ---- 163 ----

gedacht (benutzt) werden. Je nachdem ob sie mit 1 oder 0 programmiert sind, sind dazu die ErsatzDioden vorhanden oder nicht. Je nach der Programmierung zum Ausgang unterschiedliche Funktionen wirksam. Während bei einer PLA (programmable logic array) beide Matrizen programmierbar sind, ist bei der PAL (programmable array logic) nur die AND-Matrix und beim PROM nur die OR-Matrix.

Bild 41. Die drei PLD-Varianten.

6.2.2 Die dRAM Die im vorherigen Abschnitt behandelte Speicherzelle mit dem Flipflop benötigt mehrere Transistoren je Bit. Damit ihre 0/1-Informationen nicht verloren gehen, muss sie ständig mit Strom versorgt werden. Daher wird bei ihnen vom sRAM (static) gesprochen. Eine völlig andere Speicherzelle ist das dRAM (dynamic). Es wurde ab 1966 von Dennard bei IBM entwickelt. 1970 stand es im Schaltkreis Intel 1103 zur Verfügung. Es benötigt je Bit nur einen Transistor und eine Kapazität. Dadurch wurden die Chipfläche und damit der Preis erheblich verringert. Der erste damit ausgestattete Rechner war die IBM 370/145 von 1970. Das zugrundeliegende Kondensator-Prinzip war Schon bei den Relais- und Röhrenrechnern erfolgreich im Einsatz. Schematisch zeigt die Funktionsweise Bild 42a. Der Kondensator C kann mittels der Schalter 1 oder 0 auf entsprechenden Pegel gebzw. entladen werden. Leider haben aber Kondensatoren immer Verluste (z. B. Leckströme), die durch den Widerstand R beschrieben sind. Deshalb klingt eine 1-Spannung exponentiell ab b). UC

t  § · U1 ¨1  e R˜C ¸ . © ¹

Für den 1-Pegel wird daher eine untere Grenzspannung Um festgelegt. Wird sie erreicht, so muss der 1-Pegel wieder regeneriert werden. Das leistet der Taktgenerator (c) mit dem Schalter S1. Über einen Operationsverstärker wird so der deutlich größerer Halte-Kondensator CH auf den 1-Pegel aufgeladen. Danach öffnet S1 und anschließend schließt S2 und regeneriert so wieder C auf den 1Pegel. Diese Vorgänge heißen refresh und erfolgen mit dem Takt periodisch in wenigen Ps. Die reale Hableiter-Schaltung der 1-Transistorzelle zeigt d). Der Transistor ersetzt im Wesentlichen die Schalter und die Anschaltung der jeweils ausgewählten Speicherzelle. Sie ist beispielsweise in (e) grün unterlegt. Der Refresh-Teil ist dagegen braun hervorgehoben. Er wirkt zeitlich nacheinander auf die vielen Speicherzellen einer Matrixzeile benutzt. Der Gesamt-Takt beträgt dann einige hundert Ps. Nur so lässt sich der Gesamtaufwand hinreichend gering halten. Der Betrieb erfolgt taktweise verschoben mit den Signalen )1 bis )4. Für das periodische Regenerieren ist ein beachtlicher Stromaufwand erforderlich. ---- 164 ----

Bild 42. Das Prinzip der dynamischen 1-TranstistorSpeicherzelle. Der Gesamtaufbau eines Speichers mit dRAM-Zellen (Bild 43) ist viel komplexer als jener mit sRAM-6-Transistorzellen nach Bild 38. Um die Zeit bis zum nötigen refresh deutlich zu verlängern, werden zum Vergleich je Halbzeile Dummy-Kondensatoren mit C/2 eingesetzt a). So ergibt sich für die Entladung der Speicher- und Dummy-Kondensatoren der Verlauf von b). Für die Taktfrequenz wird dann nur die Differenz zwischen den Spannungen von C und C/2 gemessen. Ein typischer Speicher enthält zumindest 4 Matrizen symmetrisch zum Decoder angeordnet.

Bild 43. Aufbau eines einfachen heute schon lange veralteten 64 kBit dRAM-Speicher von etwa 1980. Die Schaltkreise für mehrere MBit sind im Prinzip sehr ähnlich aber deutlich komplexer. ---- 165 ----

Auch für die milliarden Speicherzellen eines heutigen Speicherchips sind nach Außen nur wenige Anschlüsse (pin) möglich. Das erfordert hochkomplexe Schaltungen mit mehreren zusätzlichen Baugruppen, wie Energieversorgung, Verstärker, Refresh, Taktung und Buffer usw. Daher stehen nur noch kleine Bruchteile der Chipfläche für die eigentlichen Speicherzellen (in mehrere Matrizen) zur Verfügung. Das umfangreiche Geschehen beim dRAM bedingt beachtliche Zeitverluste und einen hohen Energieverbrauch. Bereits beim 1-GBit-Chip sind es etwa 5 Watt. So galt bereits 1980 für einen 64-KBit-Speicher bezüglich der Chip-Aufteilung und des Energieverbrauchs die folgende Aufstellung (in %). Inzwischen ist der Anteil der Speichermatrizen noch deutlich weiter gesunken und die Leistungsaufnahme hat infolge höherer Taktfrequenzen und trotz der Reduzierung der Betriebspannung auf wenige Volt erheblich zugenommen. So ist aktive Kühlung erforderlich. Leider waren keine neueren Daten verfügbar. Baugruppe Speichermatrizen Decoder Taktgeneratoren Leseverstärker Sonstiges Freifläche

Fläche 50 15 10 7 10 8

Leistung 4 4 60 25 7 0

6.2.3 ROM-, PROM-Speicher Bei einigen Anwendungen werden nicht alle Speicherfunktionen benötigt. Im Grenzfall genügt die wiederholbare Wiedergabe. Das ist z. B. bei Betriebssystemen der Fall. Auch Bücher usw. können hier eingeordnet werden. Die „Information“ wird dafür z. B. mit einem Produktionsprozess eingeprägt. Im erweiterten Sinn können sogar sämtliche „Spuren“ und Überbleibsel der Vergangenheit hierzu gezählt werden. So entstand das ebenfalls recht universelle ROM-Prinzip (read only memory). Es wird zuweilen auch minimaler Speicher genannt (Bild 44).

Bild 44. Das ROM im Vergleich zum vollständigen RAM. Im Laufe der Entwicklung wurden mehrere Prinzipien benutzt. Einen Überblick dazu gibt Bild 45. Die Speichermatrizen (a) können dabei recht unterschiedlich gestaltet sein. Bei den älteren, typischen Varianten (b) wird der Halbleiter-Chip zunächst universell, aber unvollständig hergestellt. So kann er für den späteren, letzten Herstellungsschritt vorbereitet gelagert werden. Je nach den Forderungen der speziellen Anwendung wird die endgültige Speicherbelegung später mit der „letzten“ zusätzlichen Maske produziert. Das geschieht gemäß den ocker gekennzeichneten Varianten (b). Bei der Entwicklung digitaler Schaltungen erfolgt zunächst eine Simulierung auf Großrechnern. Danach wird die Hardware produziert und die Software bestimmt im letzten Schritt (meist unter Zeitnot) den speziellen Schaltkreis. Deshalb ist er gewöhnlich fehlerbehaftet. Früher musste dann der Schaltkreis durch einen neuen ersetz werden. So entstanden die Varianten c) bis e). Hierbei sind in ROM-Zellen, die farbig gekennzeichnete Abschnitte enthalten. Sie können durch Anlegen von festgelegten Spannungen in einem (meist externen) Programmiergerät von 0 zu 1 bzw. von 1 zu 0 ---- 166 ----

geändert werden. Solche Bauelemente heißen PROM (programmable ROM) Formal ist bei ihnen zwar eine Aufzeichnung möglich. Sie kann jedoch nur einmal und dann sehr viel langsamer erfolgen.

Bild 45. Beispiele für ROM- (b) und PROM-Schaltkreise c) bis e). Um nicht immer neue Chips verwenden zu müssen, entstand um 1970 das EPROM (erasable ROM; Intel 1702). Diese FETs (Feldeffekt-Transitoren) erhielten unter dem Gate ein Floating Gate. Das ist eine leitende Fläche, die bestens isoliert im SiO2 eingebettet ist (Bild 46a). Werden im Kanal zwischen Source (S) und Drain (D) sehr schnelle Ladungsträger erzeugt, so können einige auf das Floating Gate tunneln. Wegen der sehr guten Isolierung bleiben sie dort über Jahrzehnte gefangen. Sie verschieben die typische FET-Kennlinie (b). Die Entfernung der Ladungsträger (das Löschen) gelingt nur durch Bestrahlung mit ultraviolettem Licht. Dazu erhält der Keramik-Chip ein UVdurchlässiges Quarzfenster (c). Zu dieser Löschung muss der Chip jedoch ausgebaut und für etwa 10 Minuten in einem speziellen UV-Löschgerät bestrahlt werden. Danach kann ein EEPROM erneut und anders mit schnellen Ladungsträgern programmiert werden.

Bild 46. a) Die Halbleiterstruktur vom EPROM, b) die normale und programmierte Kennlinie, c) Keramik-Gehäuse mit Quarzfenster. Die Weiterentwicklung zum EEPROM (electrically EPROM) zeigt Bild 47. Zunächst wurde das Floating-Gate mit einem kurzen Fortsatz dichter zum Drain gebracht und ein zweiter FET-Teil zur Ansteuerung und Programmierung ergänzt. Dadurch kann auch das Löschen durch ein spezielles Tunneln beim eingebauten Chip erfolgen (c). Um die Geschwindigkeit beim Löschen und neu Beschreiben zu erhöhen entstand schließlich die Weiterentwicklung zum Flash-Speicher (englisch Blitz). Ganz wesentlich war dabei das neu eingeführte blockweise Löschen und Schreiben. So entstanden mehrere Flash-Arten. Größere Anwendungsbreite haben dabei das NOR- und NAND---- 167 ----

Flash erlangt. Ihre typischen Eigenschaften fasst die Tabelle zusammen. Die entsprechenden Strukturen zeigt Bild 48.

Bild 47. Vom EPROM über den EEPROM zum Flash.

Vorteile

Nachteile Schnittstelle Zellgröße Lesen Programmieren (Byte) Programmieren (KByte) Löschen Leistungsaufnahme Fehleranfälligkeit

NOR Wahlfreier Lesezugriff 60 - 90 ns für 16 Bit-Wort Ersatz für EEPROM Höhere Zuverlässigkeit Mikroprozessortauglich Höherer Platzbedarf Programmieren 0,2 MB/s Löschen 0,08 MB/s SRAM-ähnlicher Bus groß schnell schnell langsam langsam relativ hoch gering

Bild 48. Strukturen der wichtigsten Flash-Arten. ---- 168 ----

NAND Platzbedarf | 2/5 NOR Programmieren 2 MB/s Löschen 5 MB/s Massenspeicher, z.B. Speicherkarten Nur serieller Zugriff mit 15 Ps/Seite (528 Bytes) gemultiplextes I/O klein langsam langsam schnell schnell gering erheblich, wird korrigiert

Infolge der sehr hohen thermischen Belastung der Speicherzellen beim Schreiben und Löschen ist die fehlerfrei nutzbare Anzahl der Zyklen begrenzt. Um dennoch eine lange Betriebszeit zu sichern, ist in (NAND-) Flash-Speichern ein Algorithmus implementiert, der durch Adressenumsortierung eine möglichst gleichmäßige Belastung aller Speicherzellen bewirkt. Dadurch ist allerdings das Zurückhohlen gelöschter Inhalte wesentlich erschwert und zuweilen nicht mehr möglich. Das ist bei der Anwendung von Flash-Karten und USB-Sticks zu beachten. Für eine besonders hohe Datensicherheit wurde bereits 1982 von Xicor das NV-RAM entwickelt (englisch nicht vergänglich, flüchtig) (Bild 49). Jede Speicherzelle besteht dabei aus einem sRAM und E2PROM (bzw. Flash). Das sRAM ist dabei der ständige Arbeitsspeicher. Die Besonderheit besteht darin, dass periodisch mit festlegbarem Takt die jeweils aktuelle Information des sRAM in den E2PROM (Flash) kopiert wird. Wenn dann ein Stromausfall oder Rechnerabsturz erfolgt, so sind die nahezu letzten Daten immer noch verfügbar. Zum Weiterarbeiten können sie zurückgespielt werden. Die so doppelt vorhandene BitZelle bewirkt, dass nur recht kleine Speicherkapazitäten verfügbar sind.

Bild 49. Funktion und Struktur eines NV-RAM. Die Vielfalt der Festwertspeicher ist recht umfangreich, deswegen zeigt Bild 50 einen Überblick, der einmal ihre Einteilung betrifft a), aber auch die typischen Eigenschaften bezüglich der zum Programmieren erforderlichen Zeit sowie deren zulässige Anzahl b) berücksichtigt. Auf die möglichen Weiterentwicklungen der elektronischen Speicher wird noch im Abschnitt 6.5 eingegangen.

Bild 50. Überblick zu den Varianten der programmierbaren Speicher. ---- 169 ----

6.3 Magnetische Speicher 6.3.1 Ursprung des Magnetismus Alle Elemente, Materialen usw. besitzen physikalische Eigenschaften, wie Masse, Dichte, Leitfähigkeit usw. Eine Besonderheit ist der Magnetismus dar. Er tritt zumindest makroskopisch nur bei sehr wenigen Stoffen, vor allem bei Eisen, Nickel und Kobalt auf. Die meist vorhandene Hysterese ist für die Speicherung sehr vorteilhaft, denn sie ermöglicht eine beständige Speicherung ohne externe Energiezufuhr. Außerdem ist die Aufzeichnung meist beliebig oft ohne Materialschädigung wiederholbar. Wegen beider Eigenschaften dürfte die magnetische Speicherung auch langfristig vorteilhaft bleiben. Leider ist der Magnetismus jedoch ein kompliziertes physikalisches Phänomen, das nur quantenphysikalisch erklärt werden kann (Kapitel 8). Für das Verständnis ist es vorteilhaft, von einem einzelnen Wasserstoffatom auszugehen. (Bild 51). Entsprechend dem Bohrschen Komplementaritäts- bzw. Korrespondenzprinzip) setzt sich sein Quantenzustand aus den drei Spinvektoren, der Rotation des Atomkerns und des Elektrons sowie der Bewegung des Elektrons auf der Bahn um den Atomkern zusammen. Beim Elektronenspin gibt es zusätzlich die zwei Varianten von spin up (n) und spin down (p). Sie sind auf den Kernspin bezogen und können gemäß dem Korrespondenzprinzip auch als links bzw. rechts rotierend betrachtet werden. Alle Spins bewirken auch magnetische Momente. Bild 51. Die drei Spin-Vektoren eines Wasserstoffatoms. Bei den chemischen Elementen mit der Ordnungszahl Z besteht der Atomkern aus Z Protonen. Ihre gegenseitige Abstoßung wird durch einen „Kitt“ aus X t Z Neutronen beseitigt. Gegenüber der Umwelt wird die positive Ladung der Protonen durch Z Elektronen aufgehoben. Sie bewegen sich dabei entsprechend der Hauptquantenzahl n in den Schalen K, L, M usw. In jeder Schale kreisen Elektronen auf Kreis- bzw. Ellipsen-Bahnen gemäß den Nebenquantenzahlen l, die auch Drehimpulsquantenzahl heißen: 1 = s (sharp); 2 = p (principal); 3 = d (diffuse) und 4 = f (fundamental) usw. Durch das Pauli-Verbot ist die Anzahl der Elektronen in jeder Schale gemäß der folgenden Tabelle so festgelegt, dass im Atom keine Elektronen mit gleichen Quantenzahlen vorkommen. Der Faktor 2u der Tabelle gilt infolge der beiden Elektronen-Varianten spin up (n) und spin down (p). n 1 2 3 4 5 6

Schale K L M N O P

maximale Anzahl der Elektronen 2 = 2 u 1s 8 = 2 u 2s + 6 u 2p 18 = 2 u 3s + 6 u 3p + 10 u 3d 32 = ... + 14 u 4f 50 = ... + 18 u 5g 72 = ... + 22 u 6h

Zustände 1s2 2s2, 2p6 3s2, 3p6, 3d10 4s2, 4p6, 4d10, 4f14 ... 5g18 ... 6h22

Hieraus folgt das System der Elemente nach Mendelejew. Die Erstbelegung einer Schale erfolgt immer bei den Alkalimetallen 3Li, 11Na, 19Ka, 37Rb, 55Cs und 87Fr (einwertige Elemente). Die Gesamtenergie eines Atoms wächst aber nicht nur mit den Hauptquantenzahlen Z. Daher wird in einigen Fällen mit der Elektronenbelegung einer Schale begonnen, bevor die darunter liegende voll aufgefüllt ist. Das ist erstmalig bei den Übergängen 3p o 4s o 3d der Fall (Bild 52a bis c). Diese „Unregelmäßigkeit“ wiederholt sich dann mehrfach und z. T sogar komplexer. Zunächst folgt 4p o 5s o 4s. Dann treten sogar teilweise „Rücksprünge“ um 2 Schalen auf 6s o 4f o 5p o 6p und 7s o 5f o 6d o 7p. Wird so eine Schale mit Elektronen belegt bevor die darunter liegende voll ---- 170 ----

aufgefüllt ist, so schirmt sie dadurch die darunter liegenden Elektronen gegenüber äußeren Einflüssen ab. In den voll gefüllten Schalen müssen immer gleichviel Elektronen mit spin up und down auftreten. Das ist dann nicht mehr notwendig. So treten dort dann Elektronen mit einem bevorzugten spin up oder spin down auf. In Bild 52d erfolgt das z. B. bei der Nebenquantenzahl 3d. Während sich normalerweise alle Spins des Atoms – vor allem die magnetischen Komponenten – nach außen weitgehend kompensieren, tritt dadurch ein deutlich ausgeprägtes magnetisches Moment auf. Das ist erstmalig und besonders stark ausgeprägt bei Eisen, Nickel und Kobalt der Fall. Deutlich schwächer wiederholt es sich u. a. bei den Seltenerdmetallen, wie Lanthan (57), Cer (58), Praseodym (59), Neodym (60), Promethium (61), Samarium (62), Europium (63), Gadolinium (64) usw.

Bild 52. Quantenzustände der Elemente a) bis c) und Elektronenbelegung der Schalen für Eisen d). Die magnetischen Momente der Atome in einem Kristall richten sich gemeinsam aus. Dabei entstehen makroskopisch, beachtlich große Magnetfelder. Für einen kubischen Kristall zeigt das Bild 53a. Bild 53. Magnetische Strukturen eines FeKristalls a) bis c) und so bewirkte Wände d) bis f). Dabei tritt auch ein beachtliches Magnetfeld in der Umgebung auf. Gesamt-energetisch ist das jedoch ungünstig. So bilden sich im Kristall mehrere magnetisch unterschiedlich ausgerichtete Bereiche aus (b). Sie sind durch dünne Wände getrennt, in denen der Richtungswechsel von Atomschicht ---- 171 ----

zu Atomschicht erfolgt. Dadurch werden die externen Magnetfelder reduziert. Sehr stark erfolgt das dann, wenn sich zusätzlich Wände ausbilden, in denen nur eine 90°-Drehung erfolgt c). Insgesamt sind daher die Wandtypen von d) bis f) möglich. Störstellen im Kristallaufbau fixieren die Wände an ihren Orten. Dadurch treten recht unterschiedlich geformte magnetische Bereiche auf. An der Kristall-Oberfläche lässt sich das gut mit magnetischen Flüssigkeiten sichtbar machen. So ergibt sich etwa Bild 54a. Hier sind die magnetischen Bereiche, die weißschen Bezirke so orientiert, dass sich in einiger Entfernung die Gesamt-Magnetisierung aufhebt. Das magnetische Material erscheint pauschal unmagnetisiert. Durch ein von außen einwirkendes magnetisches Feld H werden unterschiedliche Kräfte auf die einzelnen Bereiche ausgeübt. Dabei treten drei Effekte auf (b): 1. Das Feld eines Bereiches dreht sich mehr oder weniger stark in die Richtung des äußeren Feldes. 2. Eine Wand verschiebt sich so, dass sich ein benachbarter günstig orientierter Bereich vergrößert. 3. Der Vektor der Magnetisierung kippt in die entgegengesetzte Richtung. Wird danach das äußere Feld wieder entfernt, so können sich Dreh- und Wandverschiebeprozesse teilweise wieder zurückbwegen. Die Umklappeffekte sind aber irreduzibel. Dadurch verbleibt eine magnetische Remanenz c). Das Material erscheint magnetisiert. Es muss also zwischen der Material-Eigenschaft magnetisch und dem Zustand magnetisiert unterschieden werden.

Bild 54. Die Magnetisierungseffekte a) bis c) erzeugen eine Hysterese-Kurve d). Werden die Auswirkungen des äußeren Feldes als extern nachweisbares Magnetfeld gemessen, so entsteht eine Hysterese-Kurve c). Dabei treten in einzelnen Abschnitten die drei Effekte unterschiedlich stark auf. Insbesondere in den gelb gezeigten Abschnitten überwiegen die Klappprozesse. Sie lassen sich sogar hörbar machen. Dazu ist eine Spule um das Magnetmaterial zu legen. Jeder Klappprozess erzeugt in einen Impuls. Die Aufeinanderfolge der elektronisch verstärkten Impulse erzeugt so das Barkhausen-Rauschen.

6.3.2 Von den Maßeinheiten zur Hysterese Für die weitere Betrachtung ist es notwendig, die magnetischen Maßeinheiten einzuführen. Leider ist aber im SI (System International) keine magnetische Basiseinheit eingeführt worden. Sie werden stattdessen von der Elektrotechnik abgeleitet. Daher sind die magnetischen Größen recht unanschaulich. So wird die magnetische Feldstärke H in A/m gemessen. Das kann aber bestenfalls indirekt als Stromstärke in einer Spule verstanden werden. Deshalb wird zuweilen in der Fachliteratur oft noch das alte, eigentlich nicht mehr zugelassene Örsted benutzt. Das Verständnis wird weiter dadurch erschwert, dass es im Magnetismus keine Quellen, nämlich getrennte Nord- und Südpole ---- 172 ----

gibt. Alle magnetischen Felder besitzen daher geschlossene Feldlinien ohne ersichtlichen Ursprung. Sie gehen dabei sowohl durch das Material als auch durch die umgebende Luft. Infolge der magnetischen Leitfähigkeit des Magnetmaterials (Permeabilität P) besitzen sie dabei unterschiedliche Intensität. Zum besseren Verständnis der magnetischen Maßeinheiten für die magnetische Speicherung ist es vorteilhaft, sie tabellarisch mit den Maßeinheiten des stationären (fließenden) Stromes und der Elektrostatik (elektrische Ladungen und Feld) zu vergleichen.

So wie das elektrische Feld E im Material eine Stromdichte i in A/m2 bewirkt, so ruft die magnetische Feldstärke H im Magnetmaterial eine magnetische Flussdichte B in T (Tesla) hervor. Der realen Stromstärke I = i˜A (Stromdichte i u Fläche A) in Ampere entspricht den magnetischen Fluss ) = B˜A (Flussdichte B u Fläche A) in Weber = V˜s. Da es beim Magnetismus kein Pendant zum Draht und Kondensator, sondern nur räumliche Gebilde (wie Spulen) gibt, wird bevorzugt die Flussdichte B (entspricht i) und nicht der Fluss ) (entspricht I) benutzt. Das erfordert beachtliches Umdenken. Außerdem ist es beim Magnetismus üblich, bevorzugt die Erscheinungen im Material zu betrachten. Im Vakuum gibt es die magnetische Feldkonstante P0 = 4˜S˜10-7 H/m (Induktionskonstante = absolute Permeabilität von lateinisch permeare durchgehen, durchdringen). Sie vermittelt zwischen dem erregenden Feld H und dessen Wirkung, der magnetischen Flussdichte B, die auch Induktion (lateinisch inducere hineinführen) genannt wird. Im Stoff verändert sich die Flussdichte um den einheitenfreien Faktor der relativen Permeabilität Pr. Für die Permeabilität des Materials gilt somit P = P˜Pr. Nur für stark magnetischen Materialien (z.B. Eisen) gilt Pr » 1. Bei Speicher-Betrachtungen ist es nützlich, die Differenz zwischen Vakuum (bzw. Luft) und dem Material zu betrachten. Dazu wurde die Suszeptibilität F = P - 1 als relative und ebenfalls einheitenfreie Größe eingeführt (lateinisch suscipere aufnehmen, sus aufwärts, empor und capere nehmen, fassen). So folgt die durch das Material bedingte, zusätzliche Wirkung Bi. Sie wird meist als Magnetisierung, magnetische Polarisation oder magnetisches Moment M bezeichnet. Eigentlich ist M bereits seit 1954 nur als Ausnahme zulässig. In einem besonderen Maßsystem gilt mit ihr aber recht einfach M = B - H. Insgesamt gilt die folgende Übersicht: ---- 173 ----

Die typisch magnetischen Materialeigenschaften, wie die Hysterese, werden optimal an einem geschlossenen Ringkern gemessen. Da dann keine Feldlinien aus dem Material heraus gelangen, ist die Messung besonders übersichtlich. Neben dem wirksamen Magnetfeld H wird dabei meist die Magnetisierung M statt der Induktion B benutzt. Das hat den Vorteil, dass bei großen Feldstärken für M eine Sättigung eintritt, während B weiter ansteigt. Bild 55a zeigt als Ergänzung zu Bild 54d eine typische Hysteresekurve bei einem etwa sinusförmigen Wechselstrom mit sehr großen Maximalfeldstärken. Dabei entsteht die Grenzkurve (Grenzhysterese) um das grün dargestellte Feld. War zuvor das Material unmagnetisiert, so wird zu Anfang nur einmal die Neukurve durchlaufen. Ab der Feldstärke HS wird die konstante Sättigungsmagnetisierung MS erzeugt. Bei Rückkehr aus der Sättigung zur Feldstärke H o 0 verbleibt im Material die Remanenz MR (lateinisch remanere zurückbleiben). Sie ist fundamental für die magnetische Speicherung und tritt auch analog bei der Rückkehr aus der negativen Sättigung auf. Damit sie verschwindet, muss (zumindest kurzzeitig) ein Gegenfeld mit der Koerzitivfeldstärke HC einwirken (lateinisch coercere zusammenhalten, einschließen). Ein Magnetmaterial und damit eine magnetische Speicherung lassen sich besonders zuverlässig durch ein abklingendes Wechselfeld löschen. Dabei werden abnehmende Schleifen innerhalb der Grenzhysterese erzeugt (Bild 55b). Generell befinden sich sogar alle möglichen Magnetisierungen innerhalb der Grenzhysterese (Bild 55d und e). Für die Speicherung ist die Remanenzkurve Bild 55e besonders wichtig. Sie entsteht dann, wenn das Material bis zur Spitzenfeldstärke HSp magnetisiert und danach das Feld abgeschaltet wird. Die dann jeweils verbleibenden Remanenzwerte MR bestimmen die Kurve. Sie ist sehr nichtlinear und muss daher für kontinuierliche Speicherungen kompliziert linearisiert werden. ---- 174 ----

Bild 55: a) Zur Erklärung der Hysteresewerte: b) Entmagnetisierung und löschen. c), d) Unterschleifen. e) Remanenzkuve. Nicht alle Hystereseschleifen sind der bisher betrachteten ähnlich, vielmehr existiert ein großer Variantenreichtum. Einige typische Beispiele zeigt Bild 56. Darin ist N der normale (häufigste) Fall mit recht großer Koerzitivfeldstärke. Weichmagnetische Materialen besitzen dagegen eine möglichst kleine Koerzitivfeldstärke und zeigen dann ein Aussehen wie etwa F. Die Rechteckschleife R war zumindest bei den Magnetkernspeichern notwendig. Daher stammt die rechts gezeigte Kurve mit ihren Unterschleifen. Sie wird aber oft auch bei aktuellem Speichermaterial angestrebt. Schließlich gibt es viele Sonderformen. Ein Beispiel zeigt S.

Bild 56. Beispiele für mögliche HystereseKurven. Magnetische Feldlinien verlaufen oft nur teilweise im magnetischem Material mit der relativen Permeabilität Pr » 1. Meist durchdringt der andere Teil die Luft mit Pr | 1. In Bild 57a ist das magnetische Material z. B. ein Ellipsoid. Wirkt darauf ein äußeres Feld Hext, so bilden sich an seinen Enden Pole aus, die ein dagegen gerichtetes Feld Hemg hervorrufen. Für die Feldstärke im Material wird deshalb nur der Anteil Hint = Hext - Hemg wirksam. Das Geschehen wird etwas unglücklich als Entmagnetisierung (englisch demagnetization) bezeichnet. Da das interne Feld Hint nicht gemessen werden kann, muss es berechnet werden. Für ---- 175 ----

einen geschlossenen Magnetkreis möge sich durch Messung die rote Kurve ergeben haben (c). Durch die Entmagnetisierung entsteht die grüne Kurve. Sie ist vor allem von der Geometrie des magnetischen Materials (seine Formanisotropie) bestimmt. Dafür kann ein formabhängiger, Entmagnetisierungsfaktor N berechnet werden (Details z. B. in [Völ07], S. 318). Er bestimmt dann den Verlauf der blauen Entmagnetisierungsgeraden (d und e). Ein deutlich anderer Fall liegt bei einem fast geschlossenen Magnetkreis vor, der nur durch einen recht engen Luftspalt unterbrochen ist b). Das ermöglicht die Berechnung mit in Reihe geschalteten magnetischen Widerständen, genauer ihren reziproken Leitwerten /Material und /Luft. Da der Luftspalt ein völlig lineares Feldverhalten besitzt, kann auch er durch die Gerade der Entmagnetisierung N dargestellt werden (e). Seine BWerte werden von der roten Materialkurve abgezogen und es entsteht die grüne Kurve. Auffällig ist dabei, dass hierdurch die Koerzitivfeldstärke nicht verändert wird.

Bild 57. Zum magnetischen Feld im Material und in Luft, sowie zur Entmagnetisierung und dem Entmagnetisierungsfaktor N. Es gibt eine große Vielfalt magnetischer Materialien, die sich von sehr verschiedenen Legierungen und Kristall-Strukturen ableiten. Dabei existieren die beiden Hauptgruppen mit betont weich- oder hartmagnetischen Eigenschaften (Bild 58). Die weichmagnetischen Werkstoffe sind vor allem durch möglichst kleine Koerzitivfeldstärken HC o 0, hohe Permeabilitäten PR o f und/oder hohe Sättigungsmagnetisierung MS gekennzeichnet. Z. T. werden die Höchstwerte erst durch Wasserstoffglühen erreicht. Dabei verschwinden alle magnetischen Störstellen im Maetrial, an denen die magnetischen Wände bei Magnetisierungsänderungen unerwünscht hängen bleiben. Vielfach besitzen die weichmagnetischen Materialien auch geringe Wirbelstromverluste, deren Größe durch die grün gekennzeichnete Fläche der Grenzhysterese in den Bildern 55 und 56 gegeben ist. Sie werden vor allem für Magnetköpfe, Abschirmungen, Drosseln und Transformatoren (Übertrager) angewendet. Die hartmagnetischen Werkstoffe sind vorwiegend durch ein möglichst großes Energieprodukt MRuHC (gleich der inneren Fläche von der Grenzhysterese) gekennzeichnet. Für sie sind besonders kleine, kristallin voneinander isolierte Mikropartikel vorteilhaft. Seit einigen Jahrzehnten werden dabei sogar Einbereichsteilchen möglich. Ihre Abmessungen sind so gering, dass in ihnen keine magnetische Wand existieren kann (Bild 54). Ihre Anwendungen sind Speichermaterial, Dauermagnete für Motoren und Antriebe sowie Lautsprecher und Haftmagnete. ---- 176 ----

Bild 58. Überblick zu den wichtigsten magnetischen Materialien.

6.3.3 Magnetbandaufzeichnungen Magnetische Speicher hat es in sehr großer Vielfalt gegeben. Abgesehen von den frühen Ferritkernspeichern besitzen sie alle heute ein mehr oder weniger kompaktes magnetisches Speichermedium, auf das mit einem Magnetkopf geschrieben und dann auch gelesen werden kann. Um ausgewählte Speicherzellen zu erreichen ist daher eine mechanische Relativbewegung zwischen Zelle und Magnetkopf erforderlich. Dabei werden heute nur noch die lineare Bewegung eines Magnetbandes oder die Rotation von Festplatten benutzt. In einigen Sonderfällen existieren immer noch Magnetkarten (Gesundheits-, Kontokarte, für Rechner usw.). Bis vor reichlichen zehn Jahren gab es im beachtlich großen Umfang noch rotierende flexible Disketten. Sie sind durch elektronische Karten und USB-Sticks völlig abgelöst. Somit ergeben sich die Forderungen von Bild 59.

Bild 59. Forderungen für die magneto-motorischen Speicher. ---- 177 ----

Alle magnetomotorischen Speicher verlangen also 3 Komponenten, die nur im Zusammenhang für ein Gerät bestimmte Eigenschaften besitzen müssen. x Ein Magnetmaterial: Band, Festplatte oder Karte, x dazu passende (induktive) Magnetköpfe und x mechanische (Motor-) Antriebe. Hier werden zunächst nur einige bedeutsame Magnetbandtechniken behandelt. Im Abschnitt 6.3.4 folgen die Festplatten und schließlich einige Ergänzungen im Abschnitt 6.5.3. Die Geschichte der motorischen Speicher fasst stark verkürzt Bild 60 zusammen.

Bild 60. Die wichtigsten historischen magnetomotorischen Speicher. ---- 178 ----

Den Beginn der magnetomotorischen Speichertechnik weist ein Artikel in der amerikanischen Zeitschrift „The Electrical World“ aus. Hierin beschreibt 1888 Smith einen „elektrischen Phonographen“ (Bild 60 oben links). In einem Baumwollfaden sind Eisenfeilspäne bzw. Stahlpulver eingearbeitet. Dieser Faden wird mittels zwei Aufwickelspulen durch eine elektrische Spule bewegt. Bei der Aufzeichnung magnetisieren Ströme, die durch ein Kohlemikrofon verändert werden, den Faden. Die so entstandene magnetische Remanenz bewirkt bei der Wiedergabe in der gleichen Spule eine Induktionsspannung, die ein Telefonhörer in Schall zurückverwandelt. Leider war das nur eine Idee, die nie erprobt wurde. Das erste brauchbare Gerät schuf Poulsen (Patent 1898). Das Gerät führte er auf der Pariser Weltausstellung 1900 vor und erhielt dafür den ersten Preis. Die Messingwalze besitzt 12 cm Durchmesser und 38 cm Länge. In ihre Oberfläche ist eine vertiefte Spiralspur eingefräst, in die ein Stahldraht von 1 mm Durchmesser und 150 m Länge präzise aufgewickelt ist. Der Draht ist das Speichermaterial und führt zugleich den Kopf. Schnelles Drehen der Kurbel bewirkt eine Draht-Geschwindigkeit um 20 m/s. Das ermöglicht ca. 1 Minute Aufzeichnung. Erst Ende der 1970er Jahre wurde eine Walze mit Kaiser Franz Joseph I. entdeckt, die er am 20.9.1900 besprochen hatte: „Diese Erfindung hat mich sehr interessiert, und ich danke für die Vorführung derselben.“ Bereits 1900 wird ein Gerät in der Schweiz als Telefonbeantworter eingesetzt. 1902 ersetzt Poulsen den Messingzylinder durch zwei Spulen mit aufgewickeltem Draht. So kann er die Spielzeit erheblich verlängern. Ab 1906 werden solche Geräte in Deutschland für die Diktiertechnik eingesetzt. Schwierigkeiten bereitet der unkontrollierbare Drall des Drahtes, wodurch starke Pegelschwankungen auftreten. Deshalb führt Poulsen 1907 einen deutlich dünneren Stahldraht ein. Er wird durch den Magnetkopf hindurch geführt. Doch nun reißt der Draht leicht. Er muss dann verknotet werden. Dazu muss sich aber der Kopf „öffnen“ können. Eine breite Anwendung erreicht die Drahttontechnik ab etwa 1920 durch Einführung der elektronischen Verstärkung. Solche Geräte wurden lange Zeit als black box bei Flugzeugen und wegen ihrer Kleinheit zur Spionage eingesetzt. 1918 entwickelte Stille das flache Stahlband und vermeidet so den Drall-Effekt des Drahtes. Das Stille-Patent wurde von E. Blattner erworben und der entwickelte daraus die großen Blattnerphone für die BBC, die ab 1929 bis in die 1940er Jahre im Einsatz waren. Die drei grundlegenden Entwicklungen der magnetomotorischen Studiotechnik (des Rundfunks) erfolgten 1928 mit dem Magnetband durch Pfleumer, 1932 mit dem Ringmagnetkopf von Schüller (s. Bild 61) sowie 1936 bei AEG und Telefunken durch Volk mit dem Dreimotoren-Laufwerk. Den Aufbau dieser Gerätetechnik zeigt das Schema rechts unten im Bild 60. Die Magnetspulen befinden sich ohne Schutz(!) auf den beiden Tellern. Der Motor unter dem linken Teller bremst im Betrieb das Band so, dass ein guter Kontakt mit den Magnetköpfen auftritt. Nach dem Abspielen des Bandes wickelt er das Band wieder zurück. Der rechte Motor wird zur Aufwicklung und zum Vorspulen des Bandes benutzt. Die entscheidende Qualitätssteigerung bewirkt jedoch der Synchronmotor, der die unmagnetische Stahlwelle, den Capstan exakt antreibt. Gegen ihn wird das Band mit der gummibelegten Andruckrolle gedrückt. Damals erreichte die Aufzeichnungsqualität allerdings noch nicht die der Schallplatte. Jedoch ihre großen Vorteile waren das Mithören, die sofortige Wiedergabe, das Cuttern und Löschen. Den großen Sprung zur höchstmöglichen Audioqualität erreichten 1940 Braunmühl und Walter Weber mit der Hochfrequenzvormagnetisierung, die Braunmühl nur zufällig entdeckt hatte (Bild 63). Nach dem Krieg wurden alle deutschen Patente frei und so setzte sich diese Technik als Spitzenstandard für akustische Aufzeichnungen weltweit durch. Nach dieser kurzen Geschichte zum Beginn der magnetomotorischen Speicherung sind noch einige Ergänzungen zu den Magnetköpfen, dem Magnetband und der HF-Vormagnetisierung nützlich. Der Drall-Effekt bei Poulsen ergibt sich durch die zur Führung notwendige schräge Lage der beiden Kopfpole am Band. Wenn es dann bei der späteren Spulenaufwicklung verdreht, dann treten starke Pegelschwankungen auf. Diesen Effekt unterdrückte Stille durch ein gewalztes flaches Stahlband und ermöglichte so das Blattnerphone-Gerät (Bild 60 Mitte). Doch hierbei ist es recht unpraktisch, ---- 179 ----

dass sich die beiden Magnetpole auf den entgegengesetzen Seiten des Bandes befinden müssen. Deshalb entwickelte Schüller den Ringkopf. Hierbei ist es relativ unanschaulich, warum die Feldlinien vom Magnetband fast vollständig den langen Weg durch den magnetischen Kern des Ringkopfes nehmen. Hierzu muss sein Magnetmaterial sehr große Permeabilitäten PR > 1000 besitzen. Der Schüller-Kopf ist noch heute wichtig. Erst in den letzten Jahrzehnten entstanden Weiterentwicklungen durch integrierte und magnetoresitive Köpfe (Bild 80).

Bild 61. Die wichtigsten Entwicklungsstufen der Magnetköpfe. Das Magnetband von Pfleumer bestand aus Papierstreifen, auf die er feines Eisenpulver geklebt hatte. Als er es 1928 der Presse vorführte, war er besonders stolz, wenn das Band zerriss und er es mühelos und augenblicklich wieder zusammenkleben konnte. Die Klebestelle war praktisch unhörbar. Zusätzlich vermeidet ein solches Band den sehr gefürchteten „Drahtsalat“ und hat einen deutlich geringeren Kopiereffekt. Auf Vorschlag der AEG übernahm die Badische Anilin- und Sodafabrik die Entwicklung. 1932 standen die ersten Versuchsbänder mit Eisenpulver auf Acetylcellulose zur Verfügung. 1934 lieferte die BASF 50 km Band für die Funkausstellung. 1935 wurde statt des Eisenpulvers der schwarze Magnetit Fe3O4, später das braune J-Fe2O3 benutzt. 1939 verließen bereits 5 000 km Band das Werk. Bereits vor 1945 bestritten die Deutschen Rundfunkanstalten 90 % der Sendezeit mit Bandaufnahmen. Nach dem Kriege wurde eine alte Anlage in Gendorf (Marke Geneton) wieder in Betrieb genommen und das 1943 nach Wolfen ausgelagerte Werk produzierte eine beachtliche Menge. Nur kurzzeitig gab es schlechtere Massebänder, bei denen der Magnetit gleichmäßig in die Schicht eingebracht war. Die üblichen Magnetbänder bestehen immer aus einer Unterlage, die sehr hohen mechanischen Forderungen genügen muss. Das vorwiegend verwendete, genaue ausgewählte Polyester muss dafür speziell verstreckt werden (Bild 62 oben links). Die Standardbreite liegt dabei im m-Bereich, die Länge bei etwa 1 km. Für die Magnetschicht werden zunächst in großen Mengen Pm-große Magnetit-Kristallite hergestellt, die dann fein und möglichst gleichmäßig verteilt in ein Bindemittel mittels einer Kugelmühle emulgiert werden (Bild 62). Der sehr laute Prozess kann dabei durchaus mehrere Tage dauern. Weil sich die einzelnen Partikel (Bild Mitte) durch die magnetische Anziehung zu Agglomeraten zusammenlagern, muss mit dem Bindemittel erreicht werden, das es die Partikel so umgibt, dass sie als Einzelteichen wirken. Diese Emulsion wird dann gefiltert und schließlich auf die Unterlage als Schicht unter dem Einfluss eines Magnetfeldes gegossen. Dabei muss auf der meterbreiten Folie überall die gleiche Pm-dicke Schicht entstehen. Nach einer schnellen Vortrocknung erfolgt in einem mehrere Meter langen Trockenschrank die Festigung der Schicht auf der Unterlage. Anschließend wird mit einem Kalander die Bandoberfläche verdichtet und geglättet. Dennoch bleiben an der Oberfläche gewisse störende Rauheiten bestehen. Sie führen u. a. zu einer Abstandsdämpfung bei hohen Frequenzen und erhöhen auch das Modulationsrauschen (s. u.) als folge der ungleichmäßigen Verteilung magnetischer ---- 180 ----

Kristallite in der Magnetschicht. Schließlich müssen aus dem m-breiten Rohband mit hoher Präzision die Magnetbänder in die gewünschte Breite geschnitten und konfektioniert werden. Der hoch komplexe und aufwändige chemische Chargen-Prozess kann, wie oben in Bildmitte angedeutet ist, in einigen Fällen durch einen rein physikalischen, besser reproduzierbaren Prozess verbessert werden (s. Bild 66). Vom klassischen chemischen Bandprozess bleibt dann nur die Folienherstellung.

Bild 62. Prozess und Teilstufen der Magnetbandherstellung. Vor allem für die Schallaufzeichnung war es notwendig, von der stark nichtlinearen Remanenzkurve (Bild 55e) nur den geradliniegen Teil zu benutzen. Entsprechend Bild 63a stehen dafür zwei Möglichkeiten zur Verfügung. Sie wurden beide auch bereits von Poulsen benutzt. Im ersten und häufigeren Fall wird vom Ursprung der Neukurve (grün) eine Gleichfeldvormagnetisierung nach A1 benutzt. Die nutzbare Aussteuerung ist dabei recht klein. Außerdem entsteht infolge der statistischen Partikelverteilung und der Oberflächerauheit des Bandes ein erheblich störendes Rauschen. Es wurde bereits im Zusammenhang mit Bild 5.35/36 behandelt. Der zweite Weg (rot) beginnt bei der negativen Sättigung -MRS und führt auf der Grenzhysterese zum Arbeitspunkt A2. Jetzt tritt ein sehr großer Aussteuerungsbereich auf. Jedoch infolge der statistischen Schwankungen von -MRS tritt nun indirekt ein mindestens ebenso großes Rauschen auf (s. o.). Das wurde theoretisch zunächst nicht erwartet. Denn ganz formal sollte der Arbeitspunkt A2 bei M = 0 liegen. Aber wegen des Ausgangspunktes -MRS schwankt er sehr stark. In der Folgezeit gab es noch viele Untersuchungen, um diese Störung zu mindern oder gar zu vermeiden. 1940 versuchte es Braunmühl 1940 mit Gegenkopplung. Unvermittelt verschwand dabei das Rauschen völlig. Nach vielen Untersuchungen stellte sich heraus, dass infolge eines zufälligen Phasenfehlers durch eine nicht eingeplante positive Rückkopplung eine Hochfrequenzschwingung entstanden war. Das Wirkungsprinzip ist bis heute nicht exakt geklärt. Lediglich von Camras gibt es eine anschauliche Beschreibung Dabei wird (Bild 63b) die HF-Schwingung näherungsweise rechteckig (rot) um das Nutzsignal (grün) schwingend angenommen. Indirekt entstehen dadurch infolge der beiden Spitzenwerte der HF-Schwingung zwei ver---- 181 ----

schobene Remanenzkurven (rot und blau). Da die HF-Schwingung für eine Aufzeichnung und Wiedergabe zu hochfrequent ist, wird nur der grüne Mittelwert wirksam b). So ist das Wiedergabesignal verzerrungsfrei und sehr rauscharm d). Der entstehende Klirrfaktor besitzt (wider Erwarten) zwei deutlich ausgeprägte Minima kmin1 und kmin2 e). Das Minimum kmin2 ist besser einzuhalten und wird daher meist benutzt. Zum maximal erreichbare Pegel Umax gehört ein beachtlicher Klirrfaktor.

Bild 63. Zwei verschiedene und die HF-Vormagnetisierung der magnetischen Signalspeicherung. Mit der HF-Vormagnetisierung war der Höchststand der magnetischen Schallaufzeichnung erreicht. Die Qualität übertraf alles was jemals erhofft wurde. Schnell wurde sie zur Stereotechnik erweitert. Noch heute entsprechen die damaligen Aufnahmen sextrem hohen Ansprüchen. Daher entstanden viele künstlerisch wertvolle Musikaufnahmen. Natürlich setzten die Nazis die Technik auch für ihre Kriegspropaganda ein. Mit leidlich transportablen Geräten gab es sogar Frontberichterstattung. Es war ein Glück, dass die sowjetische Armee hunderte wertvolle Aufnahmen mit nach Russland nahm und sie dort lagerte. In den 1980er Jahren konnte sie Dr. Klaus Lang nach Deutschland zurückholen und der Öffentlichkeit zugänglich machen. Weitere kleine technische Fortschritte nach Kriegsende machten die Qualität der Studiotechnik dann so hochwertig, dass sie sogar für die Super-Audio-CD vollauf genügte, also die übliche CD-Qualität übertrifft. Natürlich wurde die hohe Qualität der magnetischen Aufzeichnung erst nach Kriegsende international bekannt. Mit dem Beginn der amerikanischen Besatzung requirierten z. B. John Mullin und Herbert Ort etwa zwölf hochwertige K6-Maschinen mit 50 Bändern und verschifften sie in die USA. Hier stieß die Technik auf großes Interesse der Firma Ampex. So übernahm bald die USA die Führung bei den Weiterentwicklungen. Da alle deutschen Patente für nichtig erklärt waren, bestand dabei sehr große Freiheit. Die Weiterentwicklung von der K6 (Bild 63b) führte zu transportablen Studiogeräten wie die sehr viel benutzte „Nagra“ von Kudelski c), den ersten Heimtonbandgeräten, wie das „BG19“ der DDR von 1950 f), dem Grundig „Reporter 500 L“ von 1952 e) und schließlich 1977 zum meistverkauften „Walkman“ von Sony e). So wurde es für jeden möglich, Schallaufnahmen selbst zu gestalten, zu nutzen und zu kopieren. Natürlich gab es dabei sehr schnell Urheberschutzprobleme. a) zeigt noch eine typische Studiomaschine von Sander und Jansen von etwa 1970.

---- 182 ----

Bild 64. Einige Beispiele für Magnetbandgeräte. Die Fortschritte in der Audiotechnik waren sehr vielfältig. Sehr deutlich waren sie beim Magnetband. Das nutzbare Energieprodukt stieg bei den Magnetpartikeln auf ein Vielfaches (Bild 65). Bild 65. Der Fortschritt bei Magnetpartikeln für das Magnetband. ---- 183 ----

Diese Fortschritte ermöglichten es mehrfach die Bandgeschwindigkeit zu halbieren. Außerdem wurden sehr schmale Spuren möglich, bei der CC (compact cassette) bis zu vier und in der Studiotechnik auf Halbzollband bis zu 24 Spuren. In der DDR gab es infolge der komplexen Prozesse bei der Bandherstellung immer wieder deutliche Engpässe. Deshalb organisierte Prof. Reichard von der TU Dresden um 1962 ein Dreiergespräch mit Ardenne und mir (H. Völz). Dabei entstand die Idee eines völlig neuartigen Metalldünnschichtbandes. Auf eine Polyesterfolie wurde eine nm-dünne Metallschicht (Fe, Ni, und/oder Co) aufgedampft. Mit der Vakuumtechnologie von Ardenne und der Forschung der Arbeitsgruppe Magnetische Signalspeicher (AMS) in der Akademie der Wissenschaften konnten die ersten Ergebnisse bereits 1966 auf der Intermag vorgestellt werden [Ard66]. Ab 1975 wurde dieses Band dann bei rund 30 Interkosmosspeichern, die in der AMS für die UdSSR entwickelt und hergestellt wurden, äußerst erfolgreich eingesetzt (Bild 67). Die Grundtechnologie zeigt Bild 66. Entscheidend war die Entwicklung der Schrägbedampfung. Nur sie ermöglichte hinreichend große Koerzitvfeldstärken. Leider konnte das Verfahren in keine Großproduktion der DDR überführt werden. So verkaufte Ardenne die Technologie mit den Vakuumanlagen nach Japan zu Matsushita, wo erst nach 1980 eine leicht abgewandelte Variante für Videorecorder als MEBand (metal evaporated) erschien.

Bild 66. Die Bedampfungsmethode für das Metalldünnschichtband mit Ausbildung schräg liegenden hochkoerzitiven Magnetsäulen als Mikroskopaufnahme.

Bild 67. Die Kosmosspeicher für die UdSSR aus der DDR. Der R1 mit 6˜106 Bit, 115 Bit/mm und 280u110u85 mm3. Geschwindigkeiten u.a. 1:4. Der R3m mit 200 MByte, 860 Bit/mm, Transponierung Aufzeichnung/Wiedergabe: 2 MBit/s : 4096 Bit/s, 250u230u594 mm3, zusätzlich Elektronik. ---- 184 ----

Es entstanden dann viele Sondergeräte für die Diktier- und Videotechnik, Geheimdienste, Forschung, Digitaltechnik usw. Insbesondere erlangte die Magnetbandtechnik auch für die entstehenden Groß-Computer beachtliche Bedeutung. In den 1940er Jahren standen zunächst als Speicher nur Ferritkerne und teilweise Trommelspeicher zur Verfügung. Mit der Magnetbandtechnik konnte die Speicherkapazität auf das Vielfache vergrößert werden. Wegen der digitalen Daten war die Linearisierung der Remanenzkennlinie unwichtig. Das vereinfachte einiges, jedoch die Zugriffszeiten auf auszuwählende Daten war leider sehr groß. So entstanden bald meterhohe Geräte mit mechanischen Bandpuffern vor den Spulen. Dadurch konnten die trägen Massen der Spulen verzögert nachgesteuert werden, während das Band dazwischen mit je einem vor- und rückwärts laufenden Capstan ruckartig schnell beliebig bewegt wurde. Typische Beispiele hierzu zeigt Bild 68. In den 1980er entstand dann die relativ schnelle (Fest-) Plattentechnik (folgender Abschnitt). Die großen Bandgeräte verschwanden wieder. Zusätzlich entstanden die wesentlich einfacheren Bandspeicher für sehr große Datenmengen.

Bild 68. Digitale Rechenspeicher; a) mit losen Bandpuffern in den Schächten; b) mit Vakuumpuffern; c) kleine Tischgerätevariante mit mechanischen Hebeln zum Ausgleich; d) Ansicht eines typischen Trommelspeichers mit sehr vielen Magnetköpfen rund um die Trommel. Heute ist die Magnetbandtechnik bei fast allen Anwendungen durch die komprimierten Dateien (mp3 usw.), Festplatten und elektronischen Speicher (Flash-Karten, USB-Sticks usw.) ersetzt. Eine beachtliche Anwendung besitzen lediglich noch die vom Magnetband abgeleiteten Magnetkarten u.a. bei den Konto-, Gesundheits- und Schlüsselkarten für Hotels, auf Schiffen usw. (Bild 69)

Bild 69. Beispiele für vom Magnetband abgeleitete Anwendungen, ehemals auch beim Sparbuch und Taschenrechner. ---- 185 ----

Immer noch unersetzbar ist die Magnetbandtechnik für die digitale Langzeitspeicherung sehr großer Datenmengen. Nach beachtlich vielen abgelösten Varianten existieren nur noch DLT-Varianten (DEC linear tape). Wegen der Lizenzkosten gibt es noch den wenig abgewandelten, sehr ähnlichen aber firmenoffenen Standard LTO (linear tape open). Beide Techniken werden fast nur zur Archivierung wichtiger Massendaten eingesetzt. Das geschieht in sehr großen, mit Robotern automatisierten Bandbibliotheken (tape library) mit Tausenden von Magnetbändern (Bild 71). Sie sind meist in mehreren Regalen, teilweise sogar Räumen gelagert. Hierfür ist zumindest einstweilen kein Ersatz zu erwarten (Gründe hierfür im Abschnitt 6.4). Im Betrieb holt einer von mehreren Robotern das gewünschte Band aus dem Lager und übergibt es einem Laufwerk. Das spezielle ½-Zoll-Band (8 Pm dick) ist auf einer Spule im staubdichten Kunststoffgehäuse von 101,6 u 101,6 u 25,4 mm3 untergebracht (Bild 70). Es wird mit einer „Schlaufe“ aus der Kassette ins Laufwerk gezogen und dann zum Lesen oder Schreiben über mehrere Rollen am Kopf vorbei geführt. Die Magnetschicht wird dabei nur vom Kopf berührt. Nach Benutzung wird es zurückgespult und vom Roboter ins Lager eingefügt. Der Kopf benutzt leicht schräg gestellte Spalte, wie sie in der Videomagnetbandtechnik eingeführt wurden (Bild 72). Dadurch ist eine „rasenfreie“ Aufzeichnung extrem hoher Speicherdichte möglich. Seit 2005 (DLT-S4) werden mindestens 448 Spuren benutzt. Die Kapazität liegt bei einigen TByte, die Datenrate ist t120 MByte/s. Ergänzend zeigt Bild 73 einen geschichtlichen Überblick zur Entwicklung der Bandspeicher.

Bild 70. Prinzip und Aussehen der digitalen Datenspeicherung DLT. a) So wird das Magnetband über mehrere Rollen und dem Magnetkopf aus dem Gehäuse (h) in das Speichergerät gezogen. Die Kopplung erfolgt hierbei über ein Hilfsband d), e), g). Die Aufzeichnung erfolgt auf 448 schräg verschachtelten Spuren b) mittels eines schräg stehenden Kopfes beim Vor- und Rücklauf. ---- 186 ----

Bild 71. Beispiele für Bandbibliotheken, a) für manuelle Auswahl, b) ein Roboter nimmt ein Band auch dem Archiv, c) typischer Ausschnitt aus einer roboterbetrieben Bandbibliothek.

Bild 72. Erzeugung der rasenfreien Speicherung, wie sie ursprünglich bei der Videobandaufzeichnung und ähnlich bei den DLT-Bandspeichern und auch bei Festplatten (nächster Abschnitt) erfolgt. Hierbei überschreibt die aktuelle Spur teilweise die vorangehende. Infolge der Schrägstellung der Nachbarspuren (1 und 3) stören sie nicht die Wiedergabe der abgetasteten Spur (2). Es ist jedoch ein erhöhter Schreibaufwand erforderlich, wenn in einer Spur nur Teile ersetzt werden müssen. Bild 73. Geschichtliche Entwicklung der unterschiedlichen Bandspeicher.

6.3.4 Rotierende Magnetspeicher Ein Magnetband wird linear am Magnetkopf vorbei bewegt. Mit rotierenden Speichern ergeben sich deutlich andere Techniken. Das Prinzip wurde schon sehr früh bei akustischen Wasserspielen, Orgelwerken, Spieluhren, Musikautomaten usw. verwendet [Völ05], S. 576ff. Auch bei der Magnetspeicherung ist es daher sehr früh vorhanden. Bereits 1929 besaß Tauschek mehrere Patente für Schrift lesende Maschinen und Trommelspeicher. Außerdem gab es viele unabhängige Ansätze [Bil77]. Ab 1947 waren derartige Massenspeicher bei Rechnern im Einsatz. Dennoch erteilte das Deutsche Patentamt erst im Juni 1957 das Patent für eine Anmeldung von Dirks vom 17.6.1943. Lange Zeit hatte sich Billing, der bereits 1947 einen derartigen Speicher betrieb, als Erfinder gewähnt. Das Prinzip des Trommelspeichers zeigt Bild 74a. Ein rotierender Zylinder ist an seiner Oberfläche mit einer Magnetschicht versehen. Je Spur ist ein Magnetkopf im Einsatz. Ihre Spalte sind um Bruchteile eines Millimeters von der Schicht entfernt. Es besteht kein mechanischer ---- 187 ----

Kontakt. Da die Spuren recht dicht nebeneinander liegen, sind die Köpfe rundherum angebracht. Von Außen betrachtet ergibt sich so etwa Bild 68d. Jeder Kopf besitzt seinen eigenen Aufzeichnungs- und Wiedergabeverstärker. Dadurch ist mittels elektronischer Umschaltung ein sehr schneller Zugriff auf alle Daten möglich. Maximal muss eine Trommelumdrehung gewartet werden. Trotz ihres großen Volumens (innerer Hohlraum) waren sie ab 1947 bis in die 1970er Jahre umfangreich und erfolgreich in Rechenzentren für Daten und Programme in Betrieb. 1964 schuf dann Burroughs den deutlich anderen Scheibenspeicher, dessen Prinzip Bild 74b zeigt. Eine Weiterentwicklung ist der Plattenspeicher gemäß c). Mehrere Platten sind auf einer Achse übereinander angeordnet. Je Plattenseite existiert hier nur ein Kopf, der mittels eines Antriebes (actuator) auf die gewünschte Spur bewegt wird. Die Speicherkapazität je Volumen ist hier wesentlich günstiger, der Zugriff ist jedoch um die Einstellzeit der Köpfe auf die richtige Spur erheblich verlängert. Der erste leistungsfähige Plattenspeicher wurde 1956 als RAMAC (random access method of accounting and control) von Reynold B. Johnson in San Jose entwickelt und für den Rechner IBM 350 eingesetzt. Die 50 Platten hatten 24 Zoll (61 cm) Durchmesser, die Kapazität betrug ca. 0,1 MByte und die Flughöhe der Köpfe 30 Pm. Je Plattenseite gab es 100 Spuren mit je 50 Zeichen.

Bild 74. Beginn der rotierenden Magnetspeicher, a) Trommel-, b) Scheiben-, c) Plattenspeicher. Große Verbreitung erlangte der Wechselplattenspeicher (Bild 75). Hierbei sind die Speicherplatten zu einer Spindel (Stapel) zusammengefasst. Sie kann auf einem Unterteil gelagert und durch die Haube geschützt als Einheit transportiert werden. Im Betrieb wird sie in den Speichermodul eingesetzt. Wenn sie dort die Solldrehzahl (1 500, 2 400 oder 3 600 UpM) erreicht hat, werden die Köpfe mittels einer Tauchspule (voice-coil) zwischen die Platten geschoben und anschließend gegen das entstehende Luftpolster möglichst nahe an die Plattenoberfläche gepresst. Die Abstandsregelung bewirkt dabei ein Gleiter, ähnlich wie er unten bei der Festplatte beschrieben wird (Bild 80). Der mittlere Flugabstand beträgt |5 Pm. Sein Einsatz begann 1961 mit der IBM 1311. Auf 6 Platten zu 14 Zoll wurden 3,65 MByte erreicht. Bereits 1965 erschien der IBM 2314 als 10-Plattenspeicher mit 29 MByte. Solche Systeme waren bis Mitte der 1980er Jahre in Rechenzentren im Einsatz. Bild 75. Der Wechselplattenspeicher. Eine neue Qualität der Plattenspeichertechnik trat 1973 mit der Winchester-Technologie ein. Zu Beginn sollten in einem hermetisch abgeschlossenen Gehäuse zwei Plattenstapel mit je 30 MByte ---- 188 ----

enthalten sein. Daher die geheime Entwicklungs-Bezeichnung 30-30. Sie stimmt zufällig mit der Nummer der berühmten Winchester-Gewehre überein. So entstand der Name Winchester-Speicher (Bild 76a). Das Ziel der neuen Entwicklung war es, den relativ häufigen Kopf-Crash der Plattenspeicher durch Staub usw. mittels gründlich gefilterten Luftzutritts zu unterbinden. Allerdings entfiel dadurch der Austausch des Plattenstapels. Es konnten nur noch komplette Geräte ausgewechselt werden. Das war damals erträglich, weil 1969 Floppy (Disketten) mit 8 Zoll Durchmesser und 1972 bereits die 5¼-Disketten mit knapp 100 KByte entstanden waren (Bild 77). Seit langem heißen die Winchester-Speicher Festplatten (-speicher bzw. hard disc). Sie wurden gewaltig weiter entwickelt und erreichen bereits TByte. Zudem sind sie die einzig übrig gebliebene Variante aller rotierenden Magnetspeicher, von denen es zwischenzeitlich einen großen Variantenreichtum gab. Bild 76. a) Aufbau des anfänglichen Festplattenspeicher b) eine frühe Weiterentwicklung. Durch gute magnetische Abschirmungen konnte der Rotationsmotor in den Plattenstapel und der Aktuater in seine Nähe verlegt werden.

Bild 77. Die wichtigsten Disketten-Varianten. Heute wird praktisch keine mehr benutzt. Ein Plattenspeicher benötigt immer zwei Antriebe: den Antriebsmotor für die Rotation des Plattenstapels und den Aktuator (Schrittmotor, voice-coil) zur Bewegung der Magnetköpfe auf die jeweilige Spur. Obwohl beide Systeme immer magnetisch ausgeführt sind, dürfen ihre Streufelder aber nicht den speichernden Plattenstapel beeinflussen. Deshalb befanden sie sich Anfangs möglichst weit entfernt (Bild 76a). Durch komplexe Sonderkonstruktionen konnte der Motor in das Innere des Plattenstapels verlegt werden. Bei der Kopfsteuerung entstanden mehrere Varianten. Bild 78 (nächste Seite) zeigt einige Beispiele als Fotos. In a) bewegt ein Schrittmotor (rechts oben) den Kopf in guter Parallelführung über die Plattenstapel. Bei b) treibt der Schrittmotor (unten rechts) den Hebel für den Kopf über ein Stahlband an. Einen leicht abgewandelten Antrieb mit Motor rechts oben zeigt c). In d) ist der heute übliche, relativ einfache, tauchspulenähnliche Antrieb mit nur einer Drehachse für den Hebel zu sehen. Obwohl hierbei die Magnetisierungen immer etwas geneigt in der Spur entstehen, hat sich dieses Prinzip wegen seiner Verschleißarmut weitgehend durchgesetzt. Das Hebelsystem mit der angetriebenen Spule zeigt e). Zusätzlich sind im Bild noch einige Beispiele für die Gleiter f) bis h) und k) vorhanden. Bei ihnen sind recht gut die Spulen der noch klassischen Magnetköpfe zu sehen. Schließlich ist noch der erst 2006 von Hitachi hinzu gekommene Mikroaktuater TFC (thermal fly height control) zur Höhenregelung des Kopfes in i) und j) gezeigt. Er ist zwischen Gleiter und Kopf eingefügt. Details hierzu folgen unten.

---- 189 ----

Bild 78. Detail-Fotos zu älteren Festplatten. Die Entwicklung der Gleiter zeigt Bild 79. In a) ist das Prinzip seines Fliegens über der Platte angedeutet. Drei Kufen heben ihn von der Platte ab. Die vorhandenen Phasen bewirken, dass es vorne stärker als hinten erfolgt. Hinten befindet sich nämlich der Magnetkopf und so ist sein Arbeitsspalt der Plattenoberfläche sehr nahe (b). Für die Bewegung auf die richtige Spur ist der Gleiter kardanisch aufgehängt (c). So bleibt er auch bei den drei Bewegungsvarianten genau parallel zur Plattenoberfläche, selbst bei den schnellen seitlichen Bewegungen (a). Der braun unterlegte, mittlere Teil des Bildes (c) zeigt in fünf Beispielen die Entwicklung des Gleiters zu immer kleineren Abmessungen. Ab 1987 existieren integrierte Magnetköpfe, die daher nur noch als kleine rote Flecken gekennzeichnet sind (s. u.) Ab 1990 sind die Abmessungen der Gleiter und der Abstand zur Platte so gering geworden, dass aerodynamische Berechnungen für die Gleiterform wegen des Unterschreitens der freien Weglänge (|70 nm) nicht mehr möglich waren1. Alles muss experimentell erprobt werden und wurde so zum hoch gehüteten Firmengeheimnis. Schon ab 2003 existierten dabei z. B. nur noch 3 Gleitpunkte g). h) zeigt noch schematische Details zum Bild 78i und j. Bild 80 ergänzt diese Fakten durch drei Beispiele zum Aufbau der Magnetschicht. Während sie anfangs noch Magnetpartikel enthielt, folgten später aufgedampfte oder chemisch abgeschiedene Magnetschichten. In allen Fällen existiert aber eine Mehrschichttechnik, die oben eine Gleitschicht für den Gleiter trägt. Bild 80d) zeigt den Aufbau eines frühen integrierten Kopfes. e) und f) zeigen Varianten des magnetoresistiven Kopfes und zur Senkrechtspeicherung. 1

Bezüglich der Präzision der Plattenspeicher galt bereits 2000 der ins makroskopisch übersetzte Vergleich: Eine Boing 747 müsste mit 800facher Schallgeschwindigkeit über die Eroberfläche in weniger als 1 cm Abstand fliegen und dabei jeden Grashalm „erkennen“. Auf der Fläche von Deutschland dürften höchstens 12 nicht korrigierbare Fehler auftreten.

---- 190 ----

Bild 79. Überblick zur Gleiterentwicklung.

Bild 80. Aufbau der Magnetschichten und Struktur der integrierten Magnetköpfe. Insgesamt gab es bei den Festplatten vielfältige, gewaltige Entwicklungen. Innerhalb von etwa 50 Jahren stieg die Speicherkapazität auf das 108-fache. Auch die Speicherdichte nahm stark zu, denn die Abmessungen wurden ständig, wenn auch weniger intensiv reduziert (Bild 81). Die Kapazität der Disketten (nur von etwa 1970 bis maximal bis 2000 vorhanden) war immer ungefähr um den Faktor 10 kleiner. Die stärksten Weiterentwicklungen erfolgen ersichtlich bei den Magnetköpfen und den Gleitern (für eine Flughöhe bis zu 10 nm herab) und weniger intensiv bei den Speicherschichten. Ab 1980 entstanden integrierte Köpfe. Weitere Verbesserungen brachte die magnetoresistive Wiedergabe (1992) und ab 1997 stark verbessert als GMR (giant magneto-resistive). Dann folgte die Senkrechtspeicherung (2003), shingled magnetic recording 2013 (Kopfspalt schräg, kein Rasen, vgl. Bild 72) und 2017 die HAMR (heat assisted magnetic recording) mit Laser-Erhitzung, welche die wirksame Spaltlänge verkürzt und zusätzlich eine höhere Datensicherheit ermöglicht. ---- 191 ----

Bild 81. Die Entwicklung der Speicherkapazität und Abmessungen von Festplatten und Disketten. Umfangreiche Forschungen zur Senkrechtspeicherung erfolgten ab den 1970er Jahren vor allem in Japan. Hierzu leitete Iwasaki ein großes Institut. Dabei erwies es sich als recht schwierig, geeignete Magnetschichten und -köpfe zu entwickeln. Erst Mitte der 1980er Jahre wurden hexagonal einachsige Magnetmaterialien bekannt, deren leichte Achse senkrecht zur größten Ausdehnung lag. Daher die beachtliche Verzögerung der Anwendung bis 2010. Den GMR-Effekt fanden 1988 unabhängig voneinander Peter Grünberg (IBM Jülich) und Albert Fert (Universität Paris). Er erfolgt im metallischen Leiter durch die Streuung von Spin-Elektronen. Seine Anwendung durch IBM zählt mit zu den größten Fortschritten bei den Festplatten.

6.4 Speicherdaten und -grenzen Im Abschnitt 6.1.1 sind die Grenzen für eine Speicherzelle bestimmt und zwar bezüglich der Energie mit Emin t k˜T˜ln(2) sowie der Kantenlänge t 25 nm des kleinstmöglichen würfelförmigen Volumens. Woraus eine Speicherdichte von d 1022 Bit/m3 folgt. Beides verlangt jedoch vielfältige, technisch kaum zu erfüllende Voraussetzungen, wodurch sich unumgängliche Redundanzen ergeben. So müssen alle heute gebräuchlichen Bitzellen für den Zugriff auf einer Oberfläche angeordnet sein. Lediglich die Holografie (Abschnitt 6.6.1) könnte vielleicht einmal einen, dann allerdings auch indirekten Zugriff auf Bit-Zellen im Volumen ermöglichen. Bei fast allen heutigen Anwendungen erfolgt der Zugriff längs eines Weges. Daher wird in den Propagandadaten fast ausschließlich die (Längs-) Speicherdichte in Bit/mm angegeben. Senkrecht dazu müssen die Spuren jedoch deutlich breiter sein. Wird von der seltenen Ausnahme sich überlappender Schrägspuren abgesehen (Bild 72), dann ist sogar ein zusätzlicher Abstand (Rasen) erforderlich. Zusätzlich ist auch, zumindest bei den magnetischen Speicherungen, die notwendige Spurbreite sogar viel größer als die Längsspeicherdichte. Deshalb ist eine Symmetrie für beide Richtungen recht selten. Technisch realisierte Beispiele zeigt Bild 82a. Dabei gibt es Obergrenzen für beide Richtungen. In Spurrichtung (Längsspeicherdichte) liegt sie infolge des notwendigen Störabstandes der Signale bei etwa 104 Bit/mm. Quer zu den Spuren wird die Grenze vor allem durch ein zuverlässiges Finden und ---- 192 ----

Einhalten der Spur bestimmt. Hier werden nur in einigen Sonderfällen (z. B. bei Mikrofilm und DVD) etwa 1000 Spuren je mm erreicht. Als weitere notwendige Redundanz ist die Tiefe der BitZelle im Vergleich zur erforderlichen „Unterlage“ zu betrachten. Bei den Halbleitern ist das die Tiefe der erzeugten Strukturen (nm) zur notwendigen Dicke des Halbleitermaterials (mm). Beim Magnetband und der Festplatte ist es die Tiefe der Magnetisierung zur Dicke der Platte bzw. des Magnetbandes. Realisierte Beispiele hierzu zeigt Bild 82b. Die erreichte Flächenspeicherdichte ist auf ca. 107 Bit/mm2 begrenzt; die Plattendicke, Bandunterlage usw. übertreffen in keinem Fall 103 Speicherschichten je mm. Ergänzend sind im Bild die optische und die klassisch physikalische Grenze eingezeichnet. Nur mittelbar ersichtlich sind Grenzen, die sich z. B. durch die umfangreiche Zusatzelektronik bei Halbleitern ergibt. Deshalb ist auch der Sonderfall eingezeichnet, der sich dadurch ergibt, dass ein extrem kleiner Wandler an die extrem vielen Bit-Zellen bewegt wird (Einwandlerprinzip) und daher sein Volumen und das des „Antriebes“ vernachlässigt werden kann. Deshalb sind deutlich Online- und Offline-Medien gemäß der Tabelle zu unterscheiden. Einen strukturellen Überblick mit konkreten Techniken zu den Unterschieden gibt Bild 83.

Bild 82. Grenzen und Varianten der Speicherdichte; a) Flächen- und b) Volumenredundanz. Online-Medien x besitzen die komplette Technik zum Aufzeichnen und Wiedergeben z. B. Halbleiterspeicher und Festsplatten, x werden direkt, ohne zusätzliche Technik betrieben, x besitzen meist schnellen Zugriff, x verlangen größeres (redundantes) Volumen/Bit

Offline-Medien x benötigen ein zusätzliches Gerät zum Speichern und Wiedergeben, z. B. Magnetbänder, Disketten, CD, DVD, x benutzen das Volumen vorteilhaft zur Speicherung aus und sind daher wichtig zur Archivierung, vergrößern gewaltig die Speicherkapazität (Datenbanken) x durch die Trennung vom Gerät sind sie sehr gut für den Datenschutz geeignet (wegschließen!), x sie haben längere Zugriffszeiten, zumindest bezüglich des Auswechselns des Mediums, x es besteht die Gefahr des moralischen Verschleißes der Geräte. ---- 193 ----

Bild 83. Die verschiedenen Speicherverfahren aus Sicht von On- und Offline Medien. Für die nutzbare Speicherdichte ist es interessant, die Unterschiede von Trommel, Platte und Band zu analysieren. Fast immer erfolgte nämlich die technische Entwicklung nacheinander in der genannten Reihenfolge. z. B. magnetisch: Trommel, Platten und schließlich Band. Musikautomaten: von den Trommeln mit Stiften, Haken oder Löchern über Platten beim Orchestrion zum Band bei Drehorgeln und Repetierflügeln (Mignon-Flügel). Dabei wachsen nämlich sowohl die Komplexität der Technik als auch das Verhältnis vom Volumen der Technik zur genutzten Oberfläche für die Speicherung. Bei der folgenden Analyse wird zur Vereinfachung vom „eigentlichen“ Archiv-Volumen mit Verpackung (Quader) usw. abgesehen. Weiter sei für die drei Verfahren die gleiche Längsspeicherdichte vorausgesetzt. Dann interessiert nur noch das Verhältnis aus der für die Speicherung nutzbaren Oberfläche zum Volumen des Speichers. Beim Zylinder und der Trommel sind ihre Länge l und ihr Radius r entscheidend. Bei der Platte und dem Band sind es die Dicke d der Platte bzw. des Bandes und b die Breite des Bandes. Ferner sind der benutzte Außenradius ra und Innenradius ri zu beachten. Übliche Werte sind etwa ri | 0,3˜ra, also (ri/ra)2; | 0,1. So ergibt sich die Tabelle:

Volumen (ohne Archiv)

Zylinder V = S˜r2˜l

Platte V= S˜ra2˜d

Oberfläche

O = 2˜S˜r˜l

O = S˜(ra2 - ri2)

Oberfläche/Volumen

O V

2 r

O V



Band V = S˜ra2˜b S ˜b 2 O ˜ (ra  ri 2 ) d



1 0,9 2 ˜ 1  ri / ra | d d

Beim Zylinder nimmt das Verhältnis von Oberfläche zum Volumen, also die relativ nutzbare Speicherfläche, mit dem zunehmenden Radius r ab. Danach wären Trommeln mit kleinem Radius speichertechnisch im Vorteil. Jedoch die erforderliche Datenmenge fordert einen Mindestradius. Dann wird aber das Volumen schlechter genutzt. Die mathematischen Ableitungen des Verhältnisses für die Platte und das Band zeigen im Gegensatz zur intuitiven Anschauung keinen Unterschied. Der ergibt sich erst aus einer genaueren Analyse. Die Mindestdicke d der Platte wird auf ihre hinreichende Stabilität festgelegt. Dabei muss etwa d t 1 mm gelten. Selbst bei den flexiblen Disketten ist der Wert nur unwesentlich geringer. Beim Band ist dagegen die Dicke nur durch die maximale Windungszahl des Wickels und somit die Länge des Bandes begrenzt. Hier genügen aber bereits immer Werte mit d d 50 Pm. Daher ist bei jedem gegebenem Volumen die speichertechnisch nutzbare Oberfläche eines Bandes immer mindestens 20mal größer als bei einer Platte. Das gilt ---- 194 ----

dann auch für die mögliche Speicherkapazität. Das ist somit ein besonders wichtiger Grund dafür, dass das Magnetband auf längere Sicht das „letzte“ Speichermedium für große Datenbanken sein dürfte. Vertieft wird dieser Zusammenhang durch die in Bild 84 eingeordneten verschiedenen Techniken von linearer Bewegung (Band) und rotierenden Medien von Diskette und Trommel bis zur Festplatte.

Bild 84. Vergleich der archivierbaren linear bewegten und rotierenden Medien. Die weitere Grenzabschätzung kann bei den Halbleiterspeichern beginnen. Bereits im Abschnitt 6.2.2 wurde gezeigt, dass die eigentlichen Speichermatrizen nur noch einen recht kleinen Teil von der Halbleiteroberfläche einnehmen. Doch die totale Redundanz ist viel größer: Die Dicke des Chips ist erheblich größer als die Tiefe der Halbleiterstrukturen. Es folgen dann die notwendige Kapselung der Chips, ihre Unterbringung auf Leiterplatten, deren Einbau in Geräte, die für den Betrieb erforderlichen Klimaanlagen, die Freiwege zur Wartung usw. Daher dürfte für große Anlagen der relative, echt nutzbare Speicheranteil bei bestenfalls 1:1 000 liegen. Sogar bei OfflineSpeichern dürfte u. a. für die Lagerung z. B. der Kassetten der Bedarf für die Zugriffsroboter usw. eine ähnliche Redundanz bewirken. Deutlich zeigen solche Verhältnisse alle Archive und insbesondere auch die für Schallaufzeichnungen und Filme. Für sehr viele Anwendungen sind etwa Gerätehierarchien in vorwiegend vier Größenklassen zu beachten: Handgeräte |1 dm3 œ Standgeräte d1 m3 œ Räume |100 m3 œ Häuser | 106 m3 In einem sehr großen Gebäude dürften dabei ca. 10 000 Standgeräte unterzubringen sein. Das führt zu einem „bereinigten“ Speichervolumen von grob 1 m3 und mit der höchstmöglichen Speicherdichte von 1022 Bit/m3 würden dann selbst in einem sehr großen Gebäude nur 1022 bis 1024 Byte erreichbar sein. Aus noch umfangreicheren Abschätzungen in [VÖ07] gelten daher diese Grenzwerte auch für sehr große zusammengefasste Weltspeicher. Gemäß Bild 20 sind wir aber bereits heute nur noch einige Zehnerpotenzen davon entfernt. Aber die Datenübertragungsrate bleibt dabei, wie bereits im Bild 5.68 gezeigt ist, immer mehr zurück. Dazu zeigt Bild 85 mehr Details. Hier werden wahrscheinlich in der Zukunft neue Lösungen erforderlich sein. Vielleicht könnten sie sich aus den bereits angearbeiteten, eventuell möglichen neuen Speichern des nächsten Abschnitts ergeben. Es ist aber zu beachten, dass die Lösung deutlich anders sein muss, als der Cache für die Differenz zwischen Datenverarbeitung und Rechnerzugriff um 1985 (Bild 86).

---- 195 ----

Bild 85. Zur Entwicklung der erreichbaren Übertragungsraten.

Bild 86. Entstehung der Differenz zwischen der CPU-Geschindigkeit und dem Datenzugriff.

Bereits heute ist der Umgang mit Daten (bzw. das backup) weitgehend dreistufig geregelt. Für die dabei benutzten Betriebsweisen sind mehrere Bezeichnungen üblich, z. B. Hierarchisches SpeicherManagement, Highend Storage Management (HSM), Information-Lifecycle-Management (ILM), Direct Attached Storage (DAS), Hierarchical One Volume Manager (OVM-H) und Storage Area Networks (SAN). Den typischen Ablauf zeigt Bild 87. Die Aktualität und Art der Daten bestimmt ihre Einordnung in drei Stufen. Solange an einem Projekt gearbeitet wird, muss es möglich sein, sehr schnell auf alle notwendigen Daten zuzugreifen. Deshalb werden sie im ersten (gelb gezeichneten) RAID-Bereich gehalten. Wenn noch zuweilen Änderungen erfolgen, z. B. zu einer nachträglichen Korrektur, dann genügt der langsamere (braun gezeichnete) Zugriff. Ist die Produktion beendet, dann bedeutet z. B. die für Rückfragen recht lange Zugriffszeit keine Schwierigkeit. Es ist so ersichtlich, dass für jeden einzelnen Anwendungsfall die entsprechenden Auswahlkriterien und Algorithmen deutlich anders sein können. ---- 196 ----

Bild 87. Prinzip des 3-stufigen Backups von Daten.

6.5 Eventuell zukünftige Speicher Mehrfach wurde darauf hingewiesen, dass die Vielfalt der Speicher seit den 1970er Jahren, aber besonders intensiv durch die Preisentwicklung nach 1995, ständig abnahm. Dennoch könnten für die Zukunft neue Speicherarten wirksam werden. Sie dürften vor allem zur Ergänzung und sogar Ablösung der sRAM und dRAM neuartige rRAM (remanent) entstehen. Z. T. könnten sie dabei so schnell wie die sRAM sein. Aber vor allem verlieren sie beim Abschalten des Rechners oder einem Stromausfall nicht ihre Inhalte. Dadurch entfiele das zeitaufwändige Starten. Unmittelbar nach dem Wiedereinschalten könnte dort weitergearbeitet werden, wo beim Ausschalten aufgehört wurde. Natürlich wären dann neuartige Lösungen gegen Fremdzugriffe erforderlich. Diese Aussagen sind gewiss so unsicher, wie Prognosen es meist sind (lateinisch prognosis, im Voraus erkennen und prognosticare ahnen, vorhersagen, erheben). Dabei sind qualitative (inhaltliche) Voraussagen (wie diese) deutlich unsicherer als die rein quantitativen Extrapolationen. Dazu ist sinngemäß eine Aussage von Steinbuch zu erwähnen: Wenn Experten behaupten, dass etwas möglich sei, so ist es auch mit sehr großer Wahrscheinlichkeit realisierbar; wenn sie aber warnen, dass geht bestimmt nicht, dann ist äußerste Vorsicht angebracht. Denn ihr Denken bewegt sich weitgehend in ihren Erfahrungen und ist damit mehr oder weniger auf das schon vorhandene fixiert. Junge Wissenschaftler sind im Gegensatz zu Experten oder gar Managern deutlich kreativer und risikofreudiger. Im Artikel von 1963 bringt er dazu ein ungewöhnliches Beispiel [Ste63], das eventuell auch als „Witz“ gemeint sein könnte. Es geht von typischen Modekleidern der Jahre 1937, 1938, 1945, 1950, 1958 und 1961 aus und berechnet ein Kleid für 1987 (Bild 88) Bild 88. Eine seltsame Prognose nach Steinbuch.

---- 197 ----

Mit der angebrachten Vorsicht können die wahrscheinlich künftigen Speicherentwicklungen ausgehend vom Bild 89 eingeschätzt werden. Trotz der mehr als genügend vorhandenen Speicherkapazität wird seit etwa 20 Jahren intensiv an neuen Speichern geforscht. Z.T. existieren bereits Muster mit vielen MBit Speicherkapazität. Dabei gibt es vorwiegend drei Schwerpunkte:

Bild 89. Überblick und Geschichte zu Varianten und Anwendungen der verschiedenen Speicher. x x x

ROM-Speicher mit sehr großer Kapazität und über Jahrhunderte zuverlässig unveränderlichen Daten (gegen digital lost), z. B. in Glas eingebrannte Pixel, angeordnete Atome usw. Speicher sehr großer Kapazität mit kurzer Zugriffszeit. Ein Ansatz hierfür ist die digitale Holografie (Abschnitt 6.61). Aber auch der mechanische „Tausendfüßler“ von IBM und magnetische Wandverschiebungen werden in Laboren erprobt. Besonders wichtig könnte der Ersatz für sRAM und dRAM mit Datenerhalt ohne Betriebsspannung bzw. Refresch als rRAM (remant) in mehreren Varianten werden. Nur für sie werden im Folgenden kurz die wichtigsten Möglichkeiten und Eigenschaften beschrieben. Ausführlichere Ergebnisse etwa bis 2005 enthält u.a. [Völ07].

Die Erfahrung zeigt, dass oft nicht das technisch und/oder ökonomisch Beste, sondern sogar das Gegenteilige breit eingeführt wird. Wesentlicher sind dabei das verfügbare Kapital des Konzerns und/oder die Macht der Manager. Für eine mögliche Nutzung sind vor allem FRAM, MRAM und PCRAM weit fortgeschritten. Sie sind deshalb in den Speicherüberblick von Bild 90 eingeordnet und bezüglich besonders wichtiger Daten in der Tabelle den dRAM, sRAM und Flash gegenübergestellt. So werden ihre Besonderheiten deutlich. Für die Einführung neuer Speicher ist zu ---- 198 ----

beachten, dass die BitPreise der gebräuchlichen Arbeitsspeicher weiter sehr stark sinken. Darüber hinaus sind auch bereits weitere rRAM-Varianten umfangreich erprobt und untersucht. Teilweise stehen auch schon Muster zur Erprobung zur Verfügung. Im Folgenden werden für die bekannten rRAM die wichtigsten Besonderheiten und Eigenschaften kurz beschrieben. Ergänzt sei, dass Die Zugriffszeit bei der Wiedergabe bei allen Varianten, mit Ausnahme des dRAMs, bei 10 ns liegt.

Bild 90. Überblick zu den elektronischen Speichern und RAM.

6.5.1 Ferroelektrische RAM Die erste Abkürzung lautete FRAM. Sie benutzen die remanente Ferroelektrizität bei Kondensatoren (Ladungsspeicherung) oder teilweise die dadurch bedingte Verschiebung der FET-Schwelle. Der remanente Effekt wurde bereits 1920 von J. Valasek beim Rosette-Salz nachgewiesen. Um 1955 wurden die ferroelektrischen Perovskit-Kristalle, u. a. PZT, entdeckt. Um 1970 begannen umfangreichere Forschungen, damals waren bereits mehr als 1 500 Ferroelektrika bekannt. Bald wurden auch ferroelektrische Folien hergestellt, die permanent elektrisch polarisiert sind. Sie werden seit langen sehr erfolgreich bei Kondensatormikrofonen eingesetzt. Forschungen zu Speichern begannen in den 60er Jahren. 1992 versuchte Ramtron das PZT (später SBT). 1993 konnten erste 4 KBit-Speicher als Muster bereitgestellt werden. Dabei wurde auch der Name FRAM geschützt. Deswegen benutzen Konkurrenten ab ca. 1997 meist FeRAM, wobei derartige Speicher oft etwas umfassender sind. 1999 gab es bereits 256 kBit-Muster. Die typische Zellgröße ist 1 000 Linien/mm) sind auch noch lange Belichtungs---- 207 ----

zeiten, oft Stunden notwendig. Das alles erfordert eine sehr teure Technik, die zudem hochstabile (Temperatur und Feuchte) und erschütterungsarme Räume erfordert. Um nicht jedes Hologramm einzeln zu erzeugen, besteht auch die Möglichkeit ein Hologramm ein wenig schneller zu kopieren c). Dazu wird das ebenfalls (s. u. Bild 103e) auftretende reelle Bild benutzt c). Jedoch ist diese Kopie immer etwas schlechter als das Original.

Bild 102. Die Erzeugung (a) und Wiedergabe (b) sowie das Kopieren (c) eines Hologramms. Das Entstehen eines Hologramms ist recht komplex. Es kann aber vom Hologramm eines einzigen Punktes abgeleitet werden. Er erzeugt eine exakte Kugelwelle (blau in Bild 103a). Sie interferiert mit der ebenen Referenzwelle (rot). Auch hier müssen beide Lichtquellen von gleicher Frequenz und kohärent sein, also von einem einzigen Laser stammen. Dann entstehen helle und dunkle Ringe auf der Fotoplatte b). Besonders übersichtlich sind die Zusammenhänge dann, wenn die Fotoschicht nur etwa eine Wellenlänge dick ist (rosa im Bild a). Es wird dann von Dünnschichtholografie gesprochen. Bei der Phasengleichheit beider Wellen ergeben sich die hellen, sonst die dunklen (lichtundurchlässigen) Ringe von Bild 103b. Ihre Zusammenfassung ist eine Zonenlinse. Sie ist die Grundlage jeglicher Holografie. Im Schnittbild (a) erscheinen die hellen Ringe nur als blaue Ellipsen. Eine Zonenlinse weicht in ihren Eigenschaften deutlich von den sonst üblichen (Glas-) Linsen ab. Sie kann unter zwei Aspekten betrachtet werden. Erstens erzeugt sie als Sammellinse (e) aus parallel einfallendem Licht Brennpunkte, deren Orte aber deutlich von der Frequenz der Lichtquelle abhängen. Das steht in deutlichem Widerspruch zu den üblichen Linsen, die für alle sichtbaren Farben möglichst genau nur einen gemeinsamen Brennpunkt besitzen (sollen). Dieser „Nachteil“ der Zonenlinse hat aber auch Vorteile. Glas- und Kunststofflinsen sind fast nur für sichtbares Licht geeignet. Eine Zonenlinse ist dagegen für jede Lichtfrequenz, vom fernsten infrarot bis zum höchsten Ultraviolett, sogar bis zu Röntgenstrahlen geeignet. Nur mit ihr wurde es beim Röntgensatelliten ROSAT möglich, die Röntgenstrahlen im Weltall zu vermessen. Die zweite Eigenschaft der Zonenlinse wird deutlich, wenn man durch sie hindurch auf parallele Lichtstrahlen blickt. Sie scheinen dann je nach Farbe von virtuellen Lichtquellen an verschiedenen Orten zu kommen (f). Werden nun mehrere Lichtquellen an unterschiedlichen Orten benutzt, so überlagern sich die einzelnen Zonenlinsen auf der Fotoplatte additiv c). Dadurch ergibt sich schließlich für jede leuchtende Oberfläche ein Hologramm aus vielen Zonenlinsen. Obwohl alle Zonenlinsen eigentlich bis ins Unendliche aufgedehnt sind, genügen für die Wiedergabe nach Bild 102b annähernd die jeweils ersten 10 Ringe. So entspricht der Abschnitt von Bild 103c immer noch gut dem Hologramm der ursprünglichen 4 Punktquellen. In der Praxis ist es schwierig, so dünne Fotoschichten herzustellen, dass in ihnen nur eine Wellenlänge wirksam werden kann. Das ist in (a) durch die grüne Fläche angedeutet. Dabei entstehen nebeneinander (genauer übereinander) mehrere Ringstrukturen. Zu den blauen Ellipsen kommen noch die nur z. T. angedeuteten roten hinzu. Dadurch wird das Hologramm zwar unübersichtlicher, aber gleichzeitig erhöht sich die Qualität der Wiedergabe der Objekte. Bei der ROSAT-Anwendung mussten entsprechend der Dünnschichtholografie die lichtundurchlässigen Ringe aus Metall herge---- 208 ----

stellt und daher durch Querstäbe fixiert werden. Generell gibt es bei der Dünnschichtholografie auch noch die Möglichkeit, die Zonenlinse durch interferierende Reflexion zu gestalten. Dabei wird statt der undurchlässigen Ringe eine Vertiefung von O/4 benutzt d). Sie bewirkt, dass von diesen Vertiefungen reflektiertes Licht gemäß O/2 unwirksam wird. Auf diese Weise wird die Wirkung der Zonenlinse bei der nun aber nötigen Reflexion sogar noch verstärkt, also lichtstärker. Gleichzeitig wird so eine massenhafte Vervielfältigung mittels Pressung, wie bei einer CD, möglich (s. u.).

Bild 103. Zur Entstehung der Zonenlinse (a), ihr Aussehen (b), die Überlagerung von vier Punktquellen zum Hologramm (c), der Ersatz der Zonenlinse durch interferierende Reflexion (e). Die Zonenlinse als Sammellinse (e) und als Zerstreuungslinse (f). Die Zonenlinse heißt auch Fresnel-Zonenlinse oder Zonenfläche. Sie ist von der einfachen Fresnellinse zu unterschieden, die eine flache gerasterte Version einer normalen Linse ist. (Bild 104). Bild 104. Die sehr flache Fresnel-Linse entsteht mittels Pressen in Kunststoff. Gegenüber der üblichen (Glas-) Linse wird dabei der obere, blau gezeichnete Teil entfernt und der Rest platt gedrückt. Das Raster wird so fein gewählt, dass es praktisch nicht stört. Weil Bruchteile eines Hologramms genauso wie das größere Hologramm wirken, enthalten die Darstellungen unabhängig von der Abmessung immer den „gleichen“ Inhalt. Sie erzeugen auch bei einer Teilung des Hologramms immer noch vollständig die gleiche sichtbare Struktur. Bei dieser

---- 209 ----

Argumentation wird aber meist vergessen, dass mit der Größe des Hologramms sich auch die Feinheit (Auflösung) der Darstellung ändert. Das demonstriert beispielhaft Bild 105. Bild 105. Rekonstruktionen eines Hologramms von unterschiedlich großen Teilen. Von links nach rechts sinkt die Fläche auf 1/4; 1/16 und 1/100 des linken Bildes. Zunächst sind noch die Raster in den Quadraten, dann nur noch die Quadrate zu erkennen, bzw. zu erahnen. Das bisher beschriebene Transmissions-Hologramm wurde in ähnlicher Weise erstmals 1948 von Gabor erzeugt. Es wird auch Durchlicht-, Off-Axis-, Off-Line-, Seitenband- oder TrägerfrequenzHologramm genannt. Für seinen Aufbau existieren mehrere Varianten [Völ05]. Sie haben alle zwei erhebliche Nachteile: Erstens muss es von hinten beleuchtet werden. Der zweite Nachteil tritt nur bei den leicht zu vervielfältigen Dünnschicht-Hologrammen auf. Bei ihnen muss die Lichtquelle in ihren wichtigsten Eigenschaften (Frequenz, Einfarbigkeit und Kohärenz) ziemlich genau dem des Aufnahme-Lasers entsprechen. Tageslicht ist völlig ungeeignet. Mit ihm entsteht praktisch gar kein Bild. Beim kaum zu vervielfältigen und daher extrem teuren Dickschichthologramm wirken dagegen die übereinander liegenden und z. T. gegeneinander versetzen Zonenlinsen so, dass vom Weißlicht fast nur die richtige, d. h. die Aufnahmefarbe automatisch ausgefiltert wird. Erwähnt sei noch, dass nur mit deutlich erhöhtem Aufwand sich auch wenige Farben und/oder ein Rundblick (Panorama) als Hologramm realisieren lassen. Mit einem Laser anderer Frequenz erscheint das Bild (vgl. Bild 103e, f) größer oder kleiner. Dieser Effekt wird bei der Hologramm-Mikroskopie benutzt. Erfolgt die Erzeugung mit der Wellenlänge Oa und die Wiedergabe mit Ow, so beträgt die Vergrößerung V = Ow/Oa. Gegenüber dem üblichen Lichtmikroskop besitzt die Hologramm-Mikroskopie den sehr großen Vorteil der fast unbegrenzten Schärfentiefe, die sogar mehrere Meter erreichen kann. Zusätzlich ermöglicht sie ein deutlich größeres Beobachtungsfeld. Allerdings sind nur vergleichsweise kleine Vergrößerungen zu erreichen. Jedes Hologramm kann als eine spezielle mathematische, weitgehend vollständige Abbildung der Realität interpretiert werden. Seine Wiedergabe ist dann eine Rücktransformation [Ost89]. Beim Durchlicht-Hologramm befinden sich Referenzstrahl und Objekt auf der gleichen Seite der Fotoplatte. Es besteht aber auch die Möglichkeit, sie auf beiden Seiten einer (möglichst gut) durchsichtigen Fotoplatte anzuordnen (Bild 106a). Trotz der dabei entgegengesetzten Ausbreitungsrichtung der Referenz- und Objektwelle interferieren sie im Bereich der Fotoplatte. Folglich entstehen auch so Zonenlinsen, die dem Objekt entsprechen. Für die Betrachtung muss auch dieses Hologramm – wie jedes andere – genauso wie bei der Aufzeichnung beleuchtet werden. Das virtuelle Bild liegt dann genauso wie das ursprüngliche Objekt hinter der Fotoplatte. Folglich muss sich der Betrachter auf der Seite der Lichtquelle befinden. Damit liegt ein gewünschtes Reflex-Hologramm vor. Damit es möglichst gut sichtbar ist, sollte von hinten kein Licht einfallen. Recht gut bewährt sich eine später hinter der Fotoschicht angebrachte schwarze Fläche. Generell erscheinen jedoch die Bilder von Reflexions-Hologrammen deutlich flacher und unschärfer als die von Durchlicht-Hologrammen. Beim Reflexios-Hologramm besteht noch die Möglichkeit, es von der „falschen“ Seite zu beleuchten und zu betrachten. Um dies deutlicher zu zeigen, ist in Bild 106 die Fotoschicht violett dargestellt. In b) ist das Hologramm um 180° gegenüber der Aufnahmeposition gedreht. Dadurch entsteht ein reelles Bild vor dem Hologramm. Es ist jedoch – wie alle reellen Bilder von Hologrammen (vgl. Bild 99c) pseudoskopisch (griechisch pseudos Täuschung; skopein betrachten). Bei ihm sind gegenüber dem Original vorn und hinten vertauscht, bei hohlen Objekten auch innen und außen. Solch ---- 210 ----

ein Bild verhält sich zum Objekt wie ein Gipsabdruck zum Original. Durch die veränderte Blickrichtung kann der Vordergrund vom Hintergrund verdeckt sein. Hinzu kommt, dass derartige Bilder oft merkwürdig flach erscheinen. Diese Veränderungen bewirken, dass pseudoskopische Bilder oft schwer zu erkennen und zu interpretieren sind. Sie widersprechen unseren Seh-Erfahrungen.

Bild 106. Erzeugung und Betrachtung von Reflex-Hologrammen (a). Durch eine rückseitige Nutzung des Hologramms entsteht ein pseudoskopisches, reelles Bild (b). Eine neue Holographie-Technik entstand 1969 durch Arbeiten von Steve Benton, die zu einer künstlerisch nutzbaren Display-Holographie führen sollten. Von einem vollständigen Hologramm wird nur ein schmaler horizontaler Streifen, z. B. mittels eines Spaltes ausgewählt (Bild 107a). Von ihm wird ähnlich wie beim Bild 102c eine „ganzflächige“ Kopie angefertigt. Wird von ihr das virtuelle Bild reproduziert, so ist es, entsprechend dem schmalen Ausgangsstreifen, auch nur innerhalb eines schmalen Bereiches, dem virtuellen Spalt, sichtbar b). Das Hologramm kann dabei weiter aus verschiedenen seitlichen Richtungen betrachtet werden, jedoch nicht aus verschiedenen Höhen. Vom Objekt gehen so alle räumlichen „Höhen“-Informationen verloren. Dieser Nachteil hat jedoch auch Vorteile. Eine derartige Hologrammkopie kann mit weißem Licht beleuchtet werden. In verschiedenen Höhenpositionen ist dann das virtuelle Bild in einer jeweils anderen Regenbogenfarbe zu sehen c). Daher die Bezeichnung Regenbogen-Hologramm. Der Übergang zwischen den Farben erfolgt gleitend mit geringen Größenänderungen. Die so sichtbaren Farben der virtuellen Bilder haben nichts mit den Farben des Originals zu tun. Es existiert ja quasi nur ein Schwarzweiß-Bild, das mit einer Regenbogenfarbe „beleuchtet“ erscheint. Die optimale Breite des Streifens aus dem Master-Hologramm liegt bei etwa 4 mm (mittlere Pupillenöffnung). Ist sie breiter, so wird das virtuelle Bild unscharf; ist sie schmaler wird es lichtschwächer. Regenbogen-Hologramme können als Dünnschicht-Hologramme leicht massenweise vervielfältigt werden (Bild 103d).

Bild 107. Erzeugung und Nutzung von Regenbogen-Hologrammen. Einen Überblick zu den wichtigsten Hologramm-Methoden zeigt Bild 108. Dabei ist der Unterschied von Dünnschicht- und Volumen-Holographie hervorgehoben. Nur Dünnschicht-Hologram---- 211 ----

me sind massenweise zu vervielfältigen. VolumenHologramme ermöglichen mehrere Varianten. Sie sind jedoch fast nur in Reflexion und bevorzugt durch Beleuchtung mit natürlichem oder Weißlicht zu verwenden. Das einzige Dünnschicht-Hologramm für Weißlicht ist das Regenbogen-Hologramm. Ansonsten werden die DünnschichtHologramme insbesondere als MasterHologramme verwendet. Bild 108. Versuch einer Systematik der wichtigsten Hologramme. Breite Anwendung haben Hologramme für die Datensicherheit erreicht. Sie kommen dabei auf Geldscheinen, Ausweisen, Kontokarten, Originalprodukten usw. vor. Dazu werden sehr dünne Folien mit holografisch eingeprägten Zeichen massenweise gepresst. Alle dazu notwendigen Prozesse erfolgen in einem Hochsicherheitstrakt. Wegen des sehr hohen Aufwandes für das MasterHologramm sind sie praktisch unfälschbar. Wegen der sehr geringen Dicke sind sie auch nicht vom Original unzerstört ablösbar. Lediglich beim Transport können sie gestohlen werden. So gelang es 1992 Software-Piraten das Hologramm von Microsoft zu stehlen und dann scheinbar originale Software illegal zu vertreiben. Weniger gebräuchlich sind relativ große und teilweise sogar 2- bis 3farbige betont „ästhetisch anmutende“ Bilder. Jedoch werden Hologramme nicht nur für virtuell räumliche Bilder genutzt. Sie haben in sehr verschiedenen Gebieten andere Anwendungen gefunden [Ost89], [Hei95]. Recht umfangreich geschieht das in der Messtechnik. So lassen sich Änderungen im nm- bis Pm-Bereich gut sichtbar machen, z. B. bei Abnutzungen oder Druck-Zug Belastungen. Das erfolgt durch Mehrfachbelichtungen. Dabei wird von Hologramm-Interferometrie gesprochen. Hologramme ermöglichen auch eine ganz besondere Art der Zeichenerkennung. Auf einem kleinen Hologramm wird z. B. nur der Buchstabe E gespeichert. Bei der optischen Abbildung eines Textes wird dieses Hologramm als Filter in die Fourier-Ebene (| Brennpunkt) eingefügt. Bei der Projektion des Textes werden dann alle Orte hervorgehoben, wo ein E steht. Die Größe oder Drehung der jeweiligen E sind dabei weitgehend vernachlässigbar. Ähnliche Zeichen, wie E, E, E, E, E, usw. werden noch deutlich hervorgehoben, dabei geht sogar der Schrift-Font kaum ein. Weniger deutlich werden auch F, L, 6, *, =, [, T, A usw. betont. Mit geringer Abwandlung ist so auch die Suche nach komplexen Strukturen und Gebilden möglich. Mit holographisch-optischen Elementen (HOE) lassen sich Lichtstrahlen in genau vordefinierter Weise beeinflussen, und zwar weitaus besser, als es mit Spiegeln und/oder Linsen selbst bei deutlich größerem Aufwand möglich ist. Weiter sind auch synthetische Hologramme über Berechnungen möglich. Ein Pascal-Programm für einfache Punktgebilde enthält [Hei95]. Die Holographie kann auch mit Röntgenstrahlen, Mikrowellen, Schall usw. erfolgen. Bei Ultraschall kann sich eine Referenzwelle mit ihren Reflexionen überlagern. Die dabei analog entstehenden Schalldruckknoten werden mit einem bewegten Mikrofon gescannt. Die bildliche Aufzeichnung der Intensitäten ergibt ein Hologramm, das dann genau die einzelnen Schallquellen und -reflexionen bildlich ausweist. [Ost89]. ---- 212 ----

Schließlich könnte das Hologramm auch zur elektronischen Datenspeicherung genutzt werden. Versuche mit entsprechenden holografischen Datenspeichern begannen in den 1960er Jahren. Mehrere Forschungsinstitute entwickeln die Technik seitdem immer wieder weiter. Sie verspricht höchste Speicherkapazität und Datenrate. Trotz laufender Fortschritte steht aber eine technische Anwendung immer noch aus. Vor allem fehlt ein geeignetes Speichermaterial. Der Zugriff zu den holografischen Speicherzellen erfolgt mittels digitaler Lichtablenkung (Bild 109). Das einzelne Grundelement besteht dafür aus einer Kerrzelle a) (sie schuf bereits 1875 Kerr) und einem doppelbrechenden Prisma b). Je nach angelegter Spannung dreht die Kerrzelle die Ebene eines polarisierten LaserStrahls. Das Prima lenkt ihn dann je nach seiner Polarisationsrichtung entweder in die ordentliche oder die außerordentliche Richtung b). Werden zwei derartige Einheiten hintereinander betrieben, so sind vier unterschiedliche Positionen diskret ansteuerbar (c). Solche Einheiten lassen sich auch senkrecht zueinander betreiben. Mit 2u3 Baugruppen sind dann 8u8 Positionen auf einer Ebene diskret anzusteuern (d). In den Laboren werden seit den 1980er Jahren mindestens 2u10 Baugruppen also für 220 = 1 048 576 diskrete Positionen benutzt.

Bild 109. Prinzip der diskreten Lichtablenkung. Das Prinzip des Speichers zeigt Bild 110. Der Hauptstrahl wird nach der Lichtablenkung auf ein teildurchsichtiges Display aufgeweitet abgebildet. Dort können in üblicher Weise „Bilder“ mit Millionen Pixel per Dateneingang erzeugt werden. Sie werden dann auf die diskret adressierte Position des Speichermoduls abgebildet. Zu ihrer holografischen Speicherung ist noch der über den Strahlteiler ausgeblendete Referenzstrahl notwendig. Doch seine Polarisationsrichtung kann in unterschiedliche Richtungen gedreht werden. Dadurch lassen sich auf einer Position des Speichermoduls mehr als hundert verschiedene Bilder speichern. So wurden bereits in den 1980er Jahren folgende Daten erreicht: 106 Speicherorte zu 106 Pixel und 103 Winkel |1015 Bit | 100 TByte auf einem 1 cm3 auswechselbaren Würfel. Infolge der hohen Parallelität von 106 Pixel entsteht eine Datenrate von rund 1012 Bit/s = 1 TBit/s Bild 110. Prinzip eines holografischen Datenspeichers mit diskreter Lichtablenkung. Eine deutlich andere Variante entstand um 2004 als HVD (holographic versatile disc). Sie verwendet eine Speicherplatte mit 120 mm Durchmesser, die aber nicht rotiert, sondern nur schnell in meh---- 213 ----

rere diskrete Positionen gedreht werden kann (Bild 111). Die zusätzliche „Spurablenkung“ erfolgt in der üblichen Weise. Als Speichermaterial wird (wahrscheinlich) ein Kunststoff der Bayer-Material-Science AG verwendet (b), der seit Ende der 1990er Jahre bekannt ist. Er besteht aus zigarrenförmigen Molekülen, die durch „Bänder“ miteinander verbunden sind. Im gelöschten Zustand sind alle „Zigarren“ parallel ausgerichtet (b). Die Aufzeichnung erfolgt durch Erwärmung mittels LaserStrahlung. Dabei nehmen die Moleküle statistisch verschiedene Ausrichtungen an. Die Wiedergabe nutzt mittels polarisiertem Licht die mittlere Ausrichtung in t64 Graustufen. Zum Lesen und zur Positionierung der holografischen Zellen werden unterschiedliche Lichtfrequenzen und Spuren auf der Disc benutzt (c). Die Speicherkapazität beträgt 4 TByte, die Transferrate 1 GBit/s. Die Technik sollte 2007 marktreif sein, der Recorder |10 000 $, die Leselaufwerke |2 000 $ und eine Platte |150 $ kosten. Leider ist über den aktuellen Stand nichts zu erfahren.

Bild 111. Prinzip und einige Besonderheiten der HVD. Kurze Geschichte der Holografie 1948 Der Ungar Gábor entwickelt in den USA die Idee der Holografie 1954 NH3-Laser von Basov und Prochorov 1960 Rubinlaser von Theodore H. Maiman 1961 Yuri Denisyuk experimentiert mit großen Weißlicht-Reflex-Volumenhologrammen 1962 GaAs-Injection-Laser von R.N. Hall sowie unabhängig von M. I. Nathan 1963 Pieter J. van Heerden schlägt dreidimensionalen holografischen Speicher vor 1963 Erste öffentliche Hologrammvorführung von E. N. Leith und J. Upatnieks 1965 Farbhologramme mit mehrfarbigen Lasern durch B. T. Cathy 1969 Steve Benton erfindet das Regenbogen-Hologramm 1970 ca. erste Versuche zur digital-holografischen Speicherung 1973 Jan Rajchmann demonstriert einen holografischen Speicher für Rechner 1984 11˜106 Exemplare des Märzheftes der „Geograhic“ mit großem Hologramm eines Adlers 2006 Beginn der HVD (holographic versatile disc) durch InPhase mit Bayer-Medium

6.6.2 Stereobilder (von griechisch stereos fest, räumlich) Neben der Holografie gibt es erstaunlich viele Varianten, um näherungsweise räumliche Bilder zu speichern und wiederzugeben. Dazu gibt Bild 112 einen Überblick, wobei zur Hervorhebung der Zusammenhänge absichtlich auf drei spezielle Varianten verzichtet wurde: nämlich die echten 3D-Nachbildungen durch Plastiken usw. (z. B. kleine Figürchen), die mehrteiligen Konstruktionszeichnungen der Ingenieure und die umformenden Abbildungen ---- 214 ----

gekrümmter Oberflächen auf eine plane Ebene, z. B. bei der Kartografie (s. u.). Am rechten Rand des Bildes sind bereits Methoden angedeutet, die erst im Kapitel 7 bei der V-Information behandelt werden können. Für alle Verfahren existieren drei Hauptunterschiede: 1. Ob sie nur einen oder gleichzeitig viele Betrachter zulassen (grün bzw. orange unterlegt). 2. Ob sie ohne Geräte betrachtet werden können und aus einem oder zwei Bildern bestehen. 3. Ob dabei der Standort und damit die Perspektive verändert werden kann (unten rot).

Bild 112. Die wichtigsten Verfahren zur Speicherung und Widergabe von 3D-Gegebeneheiten. Mit beiden Augen können wir im gewissen Umfang räumlich sehen. Zusätzlich werden dabei weiter entfernte Objekte kleiner und mit geringer Farbänderung nach grau wahrgenommen. Diese Fakten können mit zwei Fotoapparaten von einem nahezu gleichen Standpunkt aus gespeichert werden. Ersatzweise kommen dafür auch ein spezieller Fotoapparat mit zwei leicht versetzten Objektiven oder ein geeigneter Stereovorsatz mit Strahlteiler (Bild 113d) zur Anwendung. Hierbei kommt noch die Unschärfe der nicht eingestellten Entfernungen wirksam hinzu. Durch abweichenden Abstand der beiden Objektive kann auch die sichtbare Raumtiefe verändert werden. Analog wird sie beim Theaterglas so verringert, um die Kulissen nicht flächig erscheinen zu lassen. Beim Fernglas wird sie teilweise erweitert, um auch in der Ferne noch Tiefen wahrnehmen zu können. Für die Wiedergabe müssen die beiden Bilder getrennt dem jeweils richtigen Auge übermittelt werden. Das entsprechende Prinzip benutzte erstmalig 1832 Wheatstone mit einer Anordnung von Bild 113a. Die Weiterentwicklung geht auf Brewster zurück. Er schuf 1847 eine passende Kamera mit 2 Objektiven und erfand 1850 den Stereobetrachter mit Prismen, ähnlich Bild 113b. Bereits mit der Weltausstellung von 1851 wurden derartige Stereobilder allgemein bekannt. Heute sind Betrachter nach einem leicht abgewandelten Prinzip üblich. Seit längerem gibt es auch einfache Brillen mit kleinen Prismen dafür. Inzwischen wird das Prinzip ähnlich für Mobiltelefone (Smartfones) benutzt. Eine Abwandlung für große Panoramen legt die beiden, dann sehr breiten Bilder übereinander und benutzt dann zwei besondere Prismen zur Umwandlung des Höhenunterschieds in einen seitlichen (KMQ-Brille nach den Erfindern Koschnitzke, Mehnert, Quick). Insbesondere in Kinos kommen ab 1931 in mehreren zeitlichen Stufen Spezialbrillen zur Anwendung. In einem Fall werden die beiden Teilbilder polarisiert auf eine Spezialleinwand projiziert. Dann können sie mit einer Polarisationsbrille – die auch in anderen Anwendungen benutzt wird – getrennt von beiden Augen gesehen werden. In einem anderen Fall werden die Teilbilder in schneller Folge nacheinander projiziert und dann mittels einer Shutter-Brille getrennt von beiden Augen betrachtet.

---- 215 ----

Bild 113. Verfahren zur Erzeugung und Betrachtung von zwei Stereobildern. Ein deutlich anderes Prinzip entwickelten 1896 Eugène Estanave und A. Berthier. Hierbei werden beide Stereobilder in viele schmale Streifen zerschnitten, die dann abwechselnd nebeneinander aufgeklebt werden. Mit unbewaffnetem Auge erscheinen beide Bilder überlagert. Mittels eines passend davor angeordneten Verdeckungs-Gitters (image-splitter) gelangen die Streifen jedes Bildes richtig getrennt in je ein Auge (Bild 114b). Dadurch wird das Bild räumlich gesehen. Die Anwendung bei Monitoren ist meist auf einen Betrachter begrenzt. 1942 wurde das Prinzip von Bonnet zur Lenticular-Technik weiterentwickelt (französisch lentille Linse; culer rückwärts). Vor dem Streifenbild ist dabei eine Vielzahl passender Zylinderlinsen angeordnet a). Diese Zylinderlinsen werden lediglich in eine thermoplastische Kunststofffolie gepresst. Die so entstandene Folie wird passgerecht auf das Streifenbild aufgeklebt. Auf diese Weise lassen sich Lenticular-Bilder seit den 1960er Jahren in größeren Mengen z.B. als Postkarten herstellen. Es werden jedoch nicht nur Stereobilder benutzt. Auch die „Wackelbilder“ beruhen hierauf. Dabei sind mehrere unterschiedliche Bilder als Streifen vorhanden. Durch seitliches Bewegen der Karte sind sie nacheinander aus verschiedenen Richtungen sichtbar. Es gab auch das komplizierte Verfahren nach c), bei dem die Bilderstreifen so geneigt aufgeklebt sind, dass für jedes Auge immer nur ein Streifenbild sichtbar wird. Die komplizierte Technologie konnte sich jedoch nicht behaupten.

Bild 114. Möglichkeiten für streifenförmige Stereobilder. ---- 216 ----

Zwei weitere Methoden verlangen zunächst Erklärungen zum Sehen: Mit der Akkommodation (lateinisch accommodatio das Anpassen) verändern wir unsere Linsenkrümmungen so, dass wir in der gewählten Entfernung scharf sehen. In kritischen Fällen helfen uns dabei die Brennweiten der üblichen Brillengläser. Mit der Adaption (lateinisch adaptare anpassen) drehen wir beide Augen so zueinander, dass sie konvergent auf das gleiche Objekt blicken (Bild 115a). Beim Schielen oder mit einiger Übung sind beide Effekte nicht mehr fest verkoppelt. Nun sei angenommen, dass die Akkommodation weiterhin auf die Objekte im Bild 115 eingestellt bleibt. Dann können wir mit veränderter Adaption auf zwei nebeneinander liegende Objekte schauen, die dadurch überlagert erscheinen. Dabei sind zwei Fälle zu unterschieden. Bei b) erscheinen sie weit hinter den Objekten, bei c) deutlich davor. Wenn nun auch noch die Objekte gleiches oder ähnliches Aussehen besitzen erscheinen sie als ein Objekt hinter oder vor den eigentlichen Objekten. So entsteht indirekt ein räumlicher Eindruck.

Bild 115. Zur Akkommodation (Scharfeinstellung) und Adaption (Konvergenz, Blickwinkel). Vor 1932 gab es keine Polarisationsbrillen. So entwickelte 1853 Rollmann die Anaglyphen-Technik (griechisch ana hinaus, wieder; Glyphein Stein). Die beiden Bilder werden dafür übereinander in den Komplementärfarben gelb und blau, ab 1858 von Charles d’Almaida in rot und grün dargestellt. Dann genügen einfache Farbfilter als Brillen, um die Teilbilder den Augen richtig zuzuführen. 1919 gelang es Gimpel zwei übliche Stereobilder nahezu automatisch in Anaglyphen umzuwandeln. Heute ist das mit der Rechentechnik kein Problem mehr. In seinen Memoiren nennt er die Stereotechnik das 8. Weltwunder. In der DDR hat mit ihr Helmut Mucke mehrere Bücher publiziert [Muc65], insbesondere konnte so bei Kindern leicht räumliche Geometrie-Vorstellungen erreicht werden [Sac79]. Erstaunlich ist, dass die Technik auch bei starker Farbblindheit gut funktioniert. Die Technik einschließlich der eingeführten Normung zeigt Bild 116. Beispielbilder zeigt Bild117.

Bild 116. Verfahren und Normung der AnaglyphenTechnik. ---- 217 ----

Bild 117. Zwei typische in rot-grün-Anaglyphen umgewandelte Berlin-Fotografien. Ein Nachteil der Anaglyphen-Technik ist es, dass mit ihr keine Farbbilder möglich sind. Ihre Bilder werden meist – zumindest mit gut ausgewählten Farbfiltern – als Schwarz-Weiß-Bilder wahrgenommen. 1844 entdeckte Brewster das Grundprinzip der späteren Autostereographie (Magisches Auge, magic ey, SIRDS von single image random dot stereogram). Primär betrifft sie sich periodisch wiederholende Muster, wie sie bei Tapeten, Ornamenten usw. vorliegen. Durch „Schielen“ (s. Bild 115) können sie subjektiv in scheinbar andere Entfernungen verlegt werden. Geschieht das nach vorn auf ½, 1 /3, oder ¼ usw. der realen Entfernung, so verkleinern sich die Muster auch um diesen Wert. Geschieht das nach hinten auf die 2-, 3-fache usw. Entfernung, so vergrößern sie sich ebenfalls um diesen Betrag. Werden dann einzelne Musterteile etwas seitlich verschoben, so verlagern sich nur die entsprechenden Teile, je nach der Art des Schielens, nach vorn bzw. nach hinten (Disparation, Abweichung für nahe bzw. ferne Orte). Es entsteht ein in das periodische Muster eingelagerter Raumeindruck. Das zu sehen erfordert Übung und gelingt nicht jedem. Er wirkt aber fast mystisch, besonders bei einer Verlagerung nach hinten. Daher hatte magic eye in Japan in den 1990er Jahren eine große Verbreitung erreicht, ist aber bereits wieder abgeklungen. Bild 118 zeigt dazu die Zusammenhänge und Bild 119 ein Beispiel, das besonders für ein nach vorn verlagertes Betrachten geeignet ist. Bild 118. Geschehen bei der Betrachtung von SIRDS. ---- 218 ----

Bild 119. Beispiel eines SIRDS. Es ist besonders wirksam bei einer Verlagerung nach vorn. Auch Künstler versuchten sich in den letzten Jahrzehnten intensiver in der Stereotechnik. Besonders ist hier Dali zu nennen. Seine stereoskopische Technik beschreibt er 1973 in seinem Buch „Dix recettes d’immortatlite“. Auch die „Olympia“ von Manet soll Stereo-Komponenten enthalten [Hor94]. Weitere Details in [Ric94]. Hier sei noch erwähnt, dass nach Meinung der Augenärzte das Betrachten von SIRDS nicht schädlich ist. Bei der Architektur, technischen Konstruktionen usw. ist nicht die 3D-Realität der Ausgangspunkt, sie ist vielmehr das Ziel. Die Entwickler müssen dazu das geplante Produkt antizipieren. Dabei werden u. a. mehrere 2D-Ansichten gezeichnet, die aus dem bereits weitgehend im Geiste verinnerlichten 3D-Ojekt abgeleitet sind. Solche Bilder sind zudem für Ausschreibungen, Wettbewerbe und Patente wichtig und werden dann oft durch verbale Erklärung ergänzt. Für diese Aufgaben haben sich seit den alten Ägyptern im Laufe der Geschichte (s. [Völ05], S. 260ff.) jetzt weitgehend standardisierte Besonderheiten herausgebildet. So ist das technische Zeichnen gut lehrbar und universell lesbar geworden. Einen Überblick gibt u. a. [Ges98]. Hier sei mit Bild 120 nur ein annähernd typisches Beispiel für ein technisches Gerät gezeigt.

Bild 120. 2D-Bilder (Zeichnungen) für ein zu konstruierendes Gerät: a) die 3 einzelnen Aufrisse; b) ein Aufriss mit Maßangaben, c) eine perspektivische Darstellung. Zur Orientierung auf der Erde und den Meeren sowie am Himmel entstanden bereits vor 20 000 Jahren erste Kartendarstellungen. Vor allem mit der Seefahrt wurden sie immer wichtiger. Heute sind sie fast unentbehrlich. Dabei mussten meist gekrümmte Oberflächen auf ebene Papierflächen projiziert werden. Bild 121 zeigt drei heute gebräuchliche Varianten für die Erdoberfläche. Für weitere Details sei auf [Hos84] und [Völ05], S. 226 ff. verwiesen. Mehr spielerische Anwendungen der Projektion sind Anamorphosen. ---- 219 ----

Bild 121. Drei typische Beispiele zur ebenen Darstellung der Erdkugel.

6.7 Vom Urknall bis zum Menschen 6.7.1 Abgrenzung Die bisher behandelten Speicher betreffen langfristig stabile stofflich-energetische Speicherzustände, die absichtlich vor allem zur Nutzung durch Menschen angelegt wurden. Dabei verweisen sie auf Vergangenes und überbrücken so indirekt den Zeitablauf. In der Geschichtsschreibung (Abschnitt 6.9.4) werden ganz ähnlich alte Dokumente, selbst wenn sie primär nicht für die Aufbewahrung erzeugt wurden, so benutzt. In der Kriminalistik werden sogar nicht absichtlich oder gar rein zufällig entstandene Spuren zur Aufklärung von kriminellen Geschehen herangezogen. Für die Entwicklung der Welt (Kosmologie, Geologie, Museumskunde usw.) legt das eine stark erweiterte Verallgemeinerung nahe: Alles, was stofflich einigermaßen lange existiert (evtl. Ewiges sei ausgeklammert), muss entstanden sein und trägt daher irgendwie seine Geschichte in sich und könnte so formal mit einem Wiedergabesystem zur Gewinnung eines Informats herangezogen werden (Vgl. Abschnitt 2.2 bzgl. notwendiger Komplexität). Das trifft aber nur auf Speicherzustände der P-Information zu. Darüber hinaus könnten eventuell auch die anderen Informationsarten nützlich sein. Mit der S-Information z. B. kann aus elektromagnetischer Strahlung gemäß der Nachrichtentechnik einiges über die Quellen abgeleitet werden. Die Zeichen der Z-Information besitzen sogar beachtlich viel Gemeinsames mit einem Speicherzustand. Beide müssen nämlich deutlich von ihrer Umgebung unterscheidbar sein. Als ein Speicherzustand müsste aus ihnen zumindest die Energie Emin = k˜T˜ln(2) gewinnbar sein, die dann mittels des passenden Systems den Wiedergabeprozess das Informat bewirkt. Zeichen müssen dagegen primär – eventuell über Verstärker, wie Teleskope usw. – für uns sinnlich wahrnehmbar oder zumindest messbar sein und verlangen dann eine messtechnische Auswertung, die dem Wiedergabeprozess nur teilweise ähnlich ist. Dennoch treten bei der Sund Z-Information kaum mittels eines spezifischen Wiedergabesystems Wirkungen im Sinne eines Informats auf. Es wird eigentlich (nur) Wissen (s. Abschnitt 6.9.5) gewonnen. Bei Eigenschaften von Elektronen und anderer Teilchen, aber noch mehr bei Werkzeugen, Nahrungsmitteln, Kleidung usw. ist daher der Informationsbegriff weitgehend unangebracht. Die fachspezifischen Begriffe, ---- 220 ----

Zusammenhänge und Gesetze (z. B. von Physik und Chemie) sind deutlich besser geeignet. Das gilt auch für Nichtstoffliches, wie z. B. rein Energetisches, Felder oder die (ewigen) Naturgesetze. Daher ist z. B. die Reststrahlung des Alls zwar ein Verweis auf den Urknall aber kein wiedergebbarer Speicherzustand für ein Informat. Diese leider komplizierten Eingrenzungen sind für die nun folgenden Kapitel und Abschnitte zu beachten. Natürlich treten dabei Grenzfälle auf.

6.7.2 Vom Kosmos zum Leben Die Kosmologie (Wissenschaft vom Weltall: griechisch kosmos Ordnung, Weltordnung, Weltall, Schmuck; logos Vernunft, Begriff) versucht auf Basis vorhandener Kenntnisse die Entstehung und Entwicklung des Universums zu erklären. Natürlich gab es im Altertum und bei allen Völkern hierzu vielfältige Mythen, doch erst seit knapp einhundert Jahren gibt es naturwissenschaftliche Ansätze. Selbst Einstein war zunächst davon überzeugt, dass das Universum statisch und unveränderlich sei. Als seine Allgemeine Relativitätstheorie zu seiner eigenen Überraschung etwas anderes auswies, fügte er 1917 den ursprünglichen Gleichungen einen „Antischwerkraftterm“, die so genannte kosmologische Konstante / hinzu und erzwang so die Stabilität. 1922 stellte Friedmann auf der Basis von Einsteins Gleichungen kosmologische Modelle auf, die ohne diese Konstante auskamen. 1927 entwickelte Lemaîtres eine erste Theorie des „Urknalls“ (englisch: big bang). 1929 gewann Hubble über die Rotverschiebung der Sternspektren Hinweise auf das sich ausdehnende Weltall. 1932 gab Einstein seinen Irrtum zu und empfahl / als „die größte Eselei meines Lebens“ aus den Gleichungen zu verbannen. Vervollstädigt wurde die Urknall-Theorie 1948 durch Gamow. Er sagte dadurch 1949 die Hintergrundstrahlung (Reststrahlung) voraus. Sie wurde bereits 1955 bei 33 cm von Émile Le Roux gefunden, aber noch nicht als solche erkannt. Das gelang 1964 Penzias und Wilson. Ihr Strahlungsmaximum liegt bei 2,73 K. Obwohl es inzwischen einige, meist jedoch umstrittene, alternative Ansätze gibt, ist die Urknall-Theorie weitgehend als Standard-Modell gültig. Dafür sprechen: Das Weltall expandiert und es gibt die Reststrahlung. Bereits im Kapitel 2, war es notwendig, einige Fakten zur Entwicklung des Weltalls zu benutzen. Insbesondere wurde im Bild 2.15 gezeigt, wie und in welchem Maße aus der ursprünglich nur vorhandenen Energie des Urknalls Stoff entsteht und ständig zunimmt. Bild 2.17 zeigt mit der zugeordneten Tabelle die dabei wirkenden Kräfte. Auch das Entstehen von Information ist in Bild 2.15 durch die kybernetischen Systeme angedeutet. Warum sie nicht von Anbeginn vorliegt, soll nun genauer betrachtet werden. In Bild 122 ist der heute angenommene und z. T. berechnete Evolutionsverlauf in den wichtigsten Kenndaten dargestellt. An die Zeitskala ist angefügt, wann die Daten spekulativ, experimentell unterstützt bzw. überprüfbar sind. Die Temperatur sank von anfänglich >1030 K auf den Wert der Reststrahlung, der Durchmesser stieg dabei von der Planklänge 10-33 m auf fast 1030 m (Tabelle S. 16). Die zunächst entstandene Materie-, (Stoff-) Dichte des Kosmos sank von >1020 g/cm3 (UPlanck |1094) auf m und m >1

Seine Rekursion erfolgt genauso wie bei der Fakultät. Auf dem Stack wird der Faktor (n-m+1)/m abgelegt. Eine mehr komplexe Rekursion verlangen die Fibonacci-Zahlen (vgl. Abschnitt 5.7.2): F(1) = 1 und F(2) = 2 F(n) = F(n-1) * F(n-2) für n > 2 Dabei müssen je Schritt zwei Werte auf dem Stack abgelegt werden Doch nicht immer ist das Ende der Rekursion vorher festgelegt. Es ergibt sich erst dann – wenn überhaupt – im Laufe der Durchführung. Ein noch recht übersichtliches Beispiel dafür ist der größte gemeinsame Teiler (GGT) von zwei Zahlen. GGT(n, 0) = n GGT(n, m) = GGT(m, n) für m > n GGT(n, m) = GGT(m, R(n, m)) für m >0 und n t m Dabei ist R(n, m) der Rest bei der ganzzahligen Division von n durch m. Bei dieser Rekursion sind ausnahmsweise keine Werte auf dem Stack abzulegen, der Rest R und Teiler m werden bei jedem Schritt unmittelbar übergeben. Außerdem wird besonders deutlich, dass hier jede andere Methode zur Bestimmung von GGT deutlich länger ist. Wichtige Aussagen zu den Grenzen der Berechnung folgen aus der Ackermann-Funktion von 1926. Insbesondere zeigt sie, wie die Ergebnisse von rekursiven Funktionen schnell über alle Grenzen wachsen können. Für sie schuf Rózsa Péter 1955 eine besonders übersichte Form mit drei Regeln Regel 1: Regel 2: Regel 3:

A(0, y) = y + 1 A(x, 0) := A(x - 1, 1) A(x, y) := A(x - 1, A(x, y - 1))

für x > 0 für x > 0 und y > 0

Sie ermöglicht keine auch nur leidlich anschauliche Behandlung. Daher folgt hier nur ein Ausschnitt für A(2,2): --- 284 ---

A(2, 2) = A(1, A(2, 1)) = A(1, A(1, A(2, 0))) = A(1, A(1, A(1, 1))) = A(1, A(1, A(0, A(1, 0)))) = A(1, A(1, A(0, A(0, 1)))) = A(1, A(1, A(0, 2))) = A(1, A(1, 3))

Regel 3 Regel 3 Regel 2 Regel 3 Regel 2 Regel 1 Regel 1

Beispiele für berechnete Werte zeigt die folgende Tabelle (mehr Details [Völ96] S. 233 ff.)

Für die meisten Berechnungen ist also in die Schreibweise der Rekursion einfacher. Jedoch ist meist nicht unmittelbar oder sogar überhaupt nicht zu sehen, was das Ergebnis einer Rekursion sein könnte. Sie muss dazu erst durchgeführt werden. Das wird noch deutlicher bei den Fraktalen (Abschnitt 7.6). Wir können nämlich so gut wie nicht rekursiv denken. In Bezug auf eine Arbeit von McCarthy schreibt in diesem Sinne Barron [Bar94]: "Hätte es im Mittelalter Rechenanlagen gegeben, dann wären bestimmt einige Programmierer wegen Ketzerei von anders gesinnten Kollegen auf dem Scheiterhaufen verbrannt worden.... Höchstwahrscheinlich wäre eine der Hauptketzereien der Glaube oder Unglaube an die Rekursion gewesen." Das könnte teilweise daran liegen, dass ihre große Bedeutung und damit ihre Anwendung überhaupt erst um 1930 erkannt wurde (s. u.) und dass vor allem, weil sie auch sonst nicht mögliche Berechnungen gestattet. Insgesamt sind heute mehrere Anwendungen der Rekursion bekannt [Völ91] S. 223 ff.: x rekursiv definierte Funktionen x rekursive Verfahren bzw. Prozeduren x rekursive Datenstrukturen x rekursive Mengen x rekursive Aufzählbarkeit x Rekursions-Theorie

7.4.2 Turing-Automat und Church’sche These Hier erhebt sich die Frage, welche Funktionen und Berechnungen noch möglich sind. Doch weitaus effektiver ist es, nach dem universellen, grundlegenden Prinzip aller möglichen Berechnungen zu fragen. Genau das führte Turing 1936 zu seinem „Automaten“. Dabei handelt es sich aber nicht um ein technisch ausgeführtes Gerät, sondern „nur“ um ein universelles gedankliches Modell aller prinzipiell möglichen Berechnungen. Es wird allerdings heute manchmal zur Ausbildung technisch so nachgebaut. Gemäß Bild 13 ist der eigentlich rein gedankliche Turing-Automat allerdings schematisch recht techniknahe dargestellt. Er arbeitet in Takten. Es gibt ein sehr langes Papierband mit Zellen, in welche 0 oder 1, aber auch nichts (O für leer) geschrieben werden kann. Bei Bedarf kann das Band durch Ankleben theoretisch unendlich lang werden. Der Zugriff auf dieses Band erfolgt immer für genau eine ausgewählte Zelle (Lesen, schreiben oder radieren). Nach dem Lesen einer Zelle kann durch eine Auswahl (Schalter, Zustandsspeicher) auf eine von mehreren Tabellen zugegriffen werden. Sie geben an, was nach dem Lesen zu geschehen hat:

--- 285---

1.

Ob der Zugriff auf das Band an der gleichen Stelle oder links bzw. rechts davon durch eventuelles Verschieben des Bandes erfolgen soll. 2. Welche Tabelle beim nächsten Schritt benutzt werden soll. 3. Was eventuell auf die eingestellte Stelle geschrieben soll. Die Tabellen können auch zu einer mit Spaltenauswahl (b) zusammengefasst werden. Das Prinzip der dabei zusammengefassten logischen Einheit ist im Kapitel 6 u. a. mit den Bildern 6.25 bis 6.27 als Hardware beschrieben. Das Band kann auch als Magnetband betrachtet werden.

Bild 13. Schema eines Turing-Automaten. Anfangs wird auf das Band ein Startsymbol D und daran anschließend eine 0/1-Folge mit dem Endsymbol : geschrieben. Die Folge legt fest, wie die Rechnung schrittweise abzulaufen hat. Wenn sie abgearbeitet wurde, steht auf dem Band das Ergebnis. Befindet sich die Folge auf dem Band, so kann der ganze Rechenvorgang automatisch ablaufen. Selbst für einfache Aufgaben sind die 0/1Abfolgen und aktuellen Belegungen des Bandes gedanklich schwer nachzuvollziehen. Eine Addition ist ausführlich in [Völ82] S. 68ff. und [Völ96)] S. 250ff. behandelt. Einzelne Turing-Automaten unterscheiden sich hauptsächlich durch die benutzte Taktfrequenz und Logiktabelle. Entsprechend der Tabelle muss für jede Rechnung die dazu passende spezifische Anfangsbelegung des Bandes bestimmt werden. Um das zu vermeiden wurde ein universeller Turing-Automat definiert. Für jeden spezifischen Turing-Automaten ist lediglich noch ein einziges Hilfsprogramm (Simulator) erforderlich, das ihn zum universellen Turing-Automaten kompatibel macht. Dann genügt für jedes Problem ein einziges Programm mit dem alle Turing-Automaten, die gleiche Menge an Problemen lösen. Das entscheidende Neue des Turing-Automaten besteht darin, dass nach einer einmaligen Festlegung die Einzelschritte alles nahezu automatisch, mechanisch, also ohne erneute geistige Leistungen eines Menschen ablaufen. Ihre Festlegung für ein Problem wurden bald Algorithmus oder auch Programm und seine Generierung Programmierung genannt. Bald wurde gezeigt, dass mit den Turing-Automaten alle bekannten mathematischen Berechnungen durchgeführt werden können. Mit der Simulation gilt das folglich sogar für alle möglichen Turing--- 286 ---

Automaten (eigentlich sogar für spätere Kleinstrechner). Es sind jeweils nur unterschiedlich viele Einzelschritte auszuführen und folglich unterscheiden sich auch die Zeiten für die Berechnung. Kurz nach Turings Arbeit entstanden ähnliche Methoden für automatische Berechnungen, z. B.: x x x x x x x x

Gleichungskalkül nach Gödel-Herbrand, μ-rekursive Funktionen nach Kleene, Markow-Algorithmus, Minimal-Logik nach Fitch, Kanonischer Kalkül von Post, Graphen-Schemata von Kaluzin, Rekursions-Schemata von McCarthy und O-Funktionen von Church.

Schließlich wurde bewiesen, dass alle derartigen Methoden gleichwertig, aber durchaus unterschiedlich kompliziert in der Anwendung sind. Daher stellte 1940 Church eine nicht beweisbare Hypothese auf, die aber dennoch von den meisten Mathematikern als gültig akzeptiert wird: Alle heute vorhandenen und auch künftig gefundenen Methoden für die Berechenbarkeit sind gleich leistungsfähig. Sie ersetzen die intuitiv bestimmte Berechenbarkeit durch den exakten Begriff des Algorithmus. Weiter folgt: Alles Berechenbare ist rekursiv. Insbesondere sind alle elementaren mathematischen Funktionen rekursiv berechenbar. Ferner gilt: 1. Alles intuitiv Berechenbare lässt sich bereits vollständig durch Algorithmen auf binärer 0/1Basis abwickeln. 2. Alle formal behandelbaren Probleme, wie z. B. Zeichen, Text- und Bildverarbeitung, Künstliche Intelligenz usw., lassen sich ebenfalls mittels binärer Algorithmen bearbeiten. Das stellt dann den Übergang zur Informatik dar, bei der numerische Probleme untergeordnet sind.

7.4.3 Zeitkomplexität Für die meisten Probleme gibt es einen Parameter n. Er betrifft z. B.: x Die Anzahl der Stellen von Parametern und/oder Unbekannten. Bei einer Multiplikation oder dem Primzahltest ist er die Ziffernzahl der Variablen. x Die Anzahl der Wörter oder Begriffe, die z. B. bei Such- oder Sortieralgorithmen vorkommen. x Die Anzahl der Befehle, Schritte des benutzten Algorithmus. Mit n wächst die erforderliche Speicherkapazität, aber vor allem die Laufzeit tA der Abarbeitung des Algorithmus gemäß tA = f(n). Bei kleinen n kann dieser Zusammenhang recht unregelmäßig sein, z

jedoch für große n, insbesondere für n o f gilt meist eine Potenzreihe: t A

¦a ˜n i

i

.

i 0

Zur Abschätzung genügt die höchste vorkommende Potenz z, dann gilt tA | az˜nz. Dieser Zusammenhang wird die Zeitkomplexität : (z) des Problems mit dem dazugehörenden Algorithmus genannt. Für viele Probleme, z. B. die arithmetischen Funktionen gilt 2 d z d 3. Es gibt jedoch Probleme und Algorithmen deren Komplexität viel schneller wächst. Für eine noch sinnvolle Rechenzeit (z. B. mehrere Stunden) gibt es dann den größtmöglichen Parameter auf ng. Über ihn hinaus sind keine Ergebnisse mehr zu gewinnen. Schematisch zeigt diesen Zusammenhang Bild 14. Danach sind zwei Bereiche deutlich zu unterscheiden. Bei n, n2 und n3 nimmt die Rechenzeit nur wenig steil mit dem Parameter n zu. Durch Erhöhung der Rechengeschwindigkeit sind dabei auch Berechnungen für noch mehr Parameter möglich. Derartige Probleme heißen polynomial bzw. PProbleme. Sie werden durchführbar bzw. feasable genannt. Bei nld(n, 2n, 3n usw. existiert jedoch eine maximal möglichen Parameteranzahl ng mit einer sehr steil verlaufenden Grenze. Auch eine deutliche Erhöhung der Rechnergeschwindigkeit bringt dann so gut wie keinen Gewinn. Es liegen NP-Probleme vor; von nicht deterministisch in polynomialer Zeit. Die Beschreibung nichtpoly--- 287---

nomial ist falsch, denn es könnte für sie nichtdeterministische Automaten, z. B. per Zufall oder Quanten-Rechner geben. Die NP-Probleme sind zwar (theoretisch) berechenbar, computable, aber ab ng nicht mehr durchführbar.

Bild 14. Parameteranzahl n und Rechenzeit tA in Abhängigkeit von der Zeitkomplexität. Für jedoch 1 Ps je Schritt gelten die Tabellen für die Rechenzeit tA bzw. Parameterzahl ng :(n)\ng n n˜ld(n) n2 n3 n5 nld(n) 2n 3n n!

10 10 μs 30 μs 0,1 ms 1 ms 0,1 s 2 ms 1 ms 60 ms 3,6 s

20 20 μs 90 μs 0,4 ms 8 ms 3,2 s 0,42 s 0,42 s 1h . 8 104 a

50 50 μs 280 μs 2,5 ms 0,12 s 5,2 min 1,1 h 36 h 2.10 10a 10 51a

:(n)\Zeit n n.ld(n) n2 n3 n5 nld(n) 2n 3n n!

1s 106 6.104 103 100 15 22 19 12 9

2min 108 5.105 104 500 40 35 30 16 11

100 0,1 ms 0,7 ms 10 ms 1s 2,8 h 225 a 4˜1016 a

3h 1010 4.108 105 2000 100 50 35 20 13

200 0,2 ms 1,5 ms 40 ms 8s 3,7 d 1,2˜104 a

12d 1012 3.1010 106 104 250 80 40 25 14

500 0,5 ms 4,5 ms 0,25 s 2,1 min 1a 5˜108 a

3a 1014 2.1012 107 5.104 600 110 45 29 16

1000 1 ms 10 ms 1s 17 min 32 a

300a 1016 2.1014 108 2.105 1500 156 52 33 18

Die Unterscheidung von feasable und computable (P und NP) bleibt auch bei Erhöhung der Rechengeschwindigkeit erhalten. Das zeigt die folgende Tabelle für eine 103-, 106- und 109-fache --- 288 ---

Steigerung bezogen auf die vorher vorhandenen p =ng. bzw. p=1/tA . Bei P-Problemen ändern sich beide immer ähnlich multiplikativ; bei NP-Problemen dagegen nur unwesentlich additiv. Für sie bringt die Erhöhung der Rechengeschwindigkeit daher nur relativ wenig Gewinn. :(n) n n˜ld(n) n2 n5 1,1n 2n 5n

103 103p 1000p 32p 4p p+73 p+10 p+3

106 106p 5,5˜105p 1000p 16p p+217 p+30 p+9

109 109p 3,7˜108p 32 000p 63p p+652 p+90 p+18

Ergänzt sei, dass die Grenzbetrachtungen auch bereits für die menschlichen Rechenbüros galten, allerdings auch wegen der längeren Taktzeit für deutlich kleinere ng und längere tA. Das typische NP-Problem ist der Handelsreisende. Auf einer Rundreise sollen n Orte nacheinander auf dem kürzestmöglichem Weg besucht werden. Am Start sind n-1 Orte möglich, dann n-2, n-3 usw., und am Schluss die Rückreise (Bild 15a). Das ermöglicht 1 ˜ 2 ˜ 3 ˜} (n-1) = (n-1)! verschiedene Reisen. Da jede Reise auch in der entgegen gesetzten Richtung gleich lang ist, existieren nur (n-1)!/2 verschiedene Rundreisen. Für wenige Orte gilt die folgende Tabelle. Orte 3 4 5 6 7

Wegeanzahl 3 6 10 15 21

Rundreisen 1 3 12 60 360

Orte 8 9 10 11 12

Wegeanzahl 28 36 45 55 61

Rundreisen 2 520 20 169 181 440 1 814 400 19 958 400

Die Anzahl der möglichen Rundreisen nimmt mit der Anzahl der Orte n extrem stark zu und ist bald nicht mehr berechenbar. Ein Beispiel mit den Entfernungen für nur 5 Orte zeigt Bild 15b. Für eine anschauliche oder grafische Lösung gibt es bereits beachtliche Schwierigkeiten. Selbst wenn man mit dem kürzesten Wege (rot) beginnt, Anfänglich 58 und 72, dann entfallen 95 und 96; es folgen 115 und 119 (150 und 155 wären länger) usw. Bild c) zeigt noch ergänzend die möglichen unterschiedlichen Wege bis zu 5 Orten. Auch das macht die Zunahme gemäß NP verständlich.

Bild 15. Probleme und Lösungsmöglichkeiten für den Handelsreisenden. --- 289---

Neben P und NP gibt es die dritte Klasse NP-vollständig gemäß Bild 16. Sie ist eine Teilmenge von NP. Liegt für sie eine Lösung vor, so kann diese mittels eines N-Programms auf alle NPProbleme übertragen werden. Die exakte Abgrenzung zwischen den drei Klassen ist immer noch offen. Alle bisher vorgelegten Lösungen überstanden keine genaue Überprüfung. Bild 16. Die Möglichkeiten der Zeitkomplexität.

7.4.4 Nichtberechenbares Das 2. Cantorsche Diagonalverfahren (Abschnitt 7.3) kann auch auf berechenbare Funktionen y = f (x) übertragen werden. Sie sind alle in der nebenstehenden Tabelle aufgelistet. Mit den natürlichen Zahlen m und n werden Funktionen g(m) = fm(n)+1 gebildet. Ihre Werte können nicht in der Tabelle vorkommen. So ergeben sich überabzählbar viele nichtberechenbare Funktionen. Die erste nichtberechenbare Funktion stellte 1962 T. RADO vor. Sie ist als „Fleißiger Biber“ bekannt: Dafür sind mit einem TURING-Automaten möglichst viele unmittelbar aufeinander folgende 1 auf das Band zu schreiben. Die ersten Werte der RADO‘schen Funktion lauten: Zustände des Automaten Anzahl der erforderlichen Schritte

3 6

4 5 6 12 17 95

7 8 22961 7,9˜1043

Für 1111 wurde die Lösung erst 1972 gefunden. Für 11111 oder länger gibt es bisher nur Abschätzungen des erforderlichen Aufwands. Es gibt noch viele Negativaussagen. Z. B. gibt es keinen Algorithmus, der feststellen kann, ob ein Algorithmus jemals terminiert, also ein Ergebnis liefert. Auch lässt sich nicht zeigen, ob ein Algorithmus das gewünschte Problem löst. Details u. a. [Völ91] S. 261ff. Zum Abschluss der betont theoretischen Betrachtungen zeigt Bild 17 den Zusammenhang zwischen den Zahlenbereichen der Modelle und den Kenngrößen des Turing-Automaten. Bild 17. Wichtige Zusammenhänge zu den theoretischen Betrachtungen. --- 290 ---

7.5 Rechentechnik Rechnen ist zunächst rein geistige Tätigkeit. Bestenfalls werden die Finger als Hilfe benutzt. Sie wird dann sehr früh auf Papier usw. fortgesetzt. Doch schon um 1000 v. Chr. benutzten die Chinesen die erste mechanische Rechenhilfe, den Abakus; rein schematisch zeigt sein Prinzip Bild 18. Einfache mechanische Geräte, die auch multiplizieren und dividieren konnten, entstanden mehrfach – u. a. von Leibniz – ab dem 17. Jh. Erst im 20. Jh. zogen derartige, weiterentwickelte mechanische Geräten, z. T. mit Elektromotoren angetrieben, massenweise in die Büros ein. Um 1820 entwarf Babbage den ersten programmierbaren (mechanischen) Rechner (difference-engine). Obwohl er ihn nicht fertig stellen konnte, schrieb für ihn Ada Lovelace bereits recht komplexe Programme. Sie gilt daher als erster Programmierer. Bild 18. Eine heutige Darstellung des Abakus. Den ersten funktionierenden programmierbaren Rechner, der noch rein mechanisch arbeitete stellte Zuse 1936 als Z1 her. Doch bereits 1939 folgte der elektromechanische Z2. Der Z3 von 1941 arbeitete bereits elektrisch mit 2000 Relais und verwendete als Eingabe gelochte Filmstreifen. Abgesehen von den Zuse-Rechnern, die damals kaum bekannt waren, entstanden technische Rechner erst in den 1940er Jahren. Ab 1944 arbeiten sie überwiegend mit Röhren (u. a. die ENIAC). Ab den 1950er Jahren wurden Transistoren und ab den 1960 Jahren mikroelektronische Schaltkreise benutzt. In den 1980er Jahren sind Tastatur, Maus und Bildschirm üblich.

7.5.1 Der Automat als Vorläufer Griechisch automatos bedeutet selbst etwas wollend, beabsichtigend; es geschieht etwas von selbst, ohne menschliches Zutun, unwillkürlich, zufällig oder freiwillig. Der Plural automata steht für Dinge, die sich von selbst bewegen. So wird in der Ilias von sich selbsttätig öffnenden Türen des Olymps berichtet. Bereits kurz vor der Zeitrechnung schrieb Heron ein Buch: "Über die Anfertigung von Automaten". Mit hydraulischen und pneumatischen Methoden wurden mittels eines Feuers am Altar über viele Zwischenstufen die Türen des Heiligtums automatisch geöffnet. Aber auch Unterhaltungsautomaten mit singenden Vögeln usw. wurden damals bereits gebaut. Ein Automat steht in enger Beziehung zur Maschine, (dorisch machana und attisch mechane). Er ist Mittel, Hilfsmittel, Apparat oder Kunstgriff. Im Lateinischen bekommt maschine dann die Bedeutung vom technischen Gerät im Bau-, Kriegs- und Transportwesen, Gerüst, Bühne, Kunstgriff und List. Im 18. Jahrhundert wird Maschine auch für die Götter-Erscheinung im Theater verwendet, die in die Handlung eingreift. Das Neulatein deus ex machina bedeutet in diesem Sinne: der Gott aus der Maschine. Später bekommt die Maschine betont technische Bedeutung, wie bei Dampfmaschine, Schreibmaschine usw. Mit der industriellen Entwicklung werden Automaten als leistungsfähige technische Produktionsausrüstungen verwendet. Der heutige Automatenbegriff ist wesentlich durch die Entwicklung der Automatentheorie in der Mathematik geprägt und hängt daher eng mit dem Algorithmus zusammen. Es gibt viele Automatenmodelle, besonders hervorzuheben sind die von Moore und G. H. Mealy (Bild 19). Sie sind Spezialfälle der sequentiellen Schaltungen in Abschnitt 6.2 insbesondere der Bilder 6.25 und 6.27. Ausführlich sind sie in [Völ89] behandelt. Die durch Eingangssignale bewirkten Ausgangssignale hängen bei ihnen wesentlich von den Zuständen der internen Speicher ab. Die Unterschiede zwischen beiden können anschaulich mit Bild 19a (Kästchen, Automaten-Schema) erklärt werden. Beim Moore-Automaten brennt immer ein Lämpchen. Durch Betätigen einer Taste kann, aber muss nicht, das brennende Lämpchen wechseln. Er zeigt unmittelbar die aktuellen Speicherzustände an und heißt daher auch Zustandsautomat. Beim Mealy-Automaten leuchtet ein Lämpchen immer dann, wenn eine Taste betätigt wird. Er zeigt einen Wechsel bei den Zuständen an und heißt daher auch Übergangsautomat. --- 291---

Bild 19. Moore- und Mealy-Automat im Vergleich. Die Teilbilder b) und e) zeigen je ein typisches Schaltbild für den Mealy- bzw. Moore-Automaten. Dazu gehörende Automatenzustände mit den Übergängen zeigen c) und f). Die entsprechenden Zustandtabellen sind d) und g). Die beiden gezeigten Beispiele sind absichtlich sehr einfach gewählt. Praktisch angewendete Automaten sind viel komplexer. Sie kommen heute nur noch bei einfachen Bedienungen, wie Fernsteuerungen usw. vor. Erst ihre Weiterentwicklung mit programmierbaren Verknüpfungen und Eigenschaften führen über den Turing-Automaten zum UniversalRechner. Das frühe Prinzip mit fest eingebautem, nur mechanisch auswechselbarem Programm zeigt Bild 20a, es entspricht der Inschrift auf dem Band des Turing-Automaten. Sein Steuerwerk geht aus dem Zustandspeicher hervor. Das Rechenwerk entspricht der logischen Tabelle. Als erster benutzte 1944 Neumann den Datenspeicher auch für das Programm. Es konnte dadurch schnell gewechselt werden und machte den Rechner äußerst flexibel, universell anwendbar b).

Bild 20. Die ersten Rechner-Strukturen. --- 292 ---

Die Weiterentwicklung zur heute typischen Struktur zeigt Bild 21. Es existieren drei Busse, je einer für die Adress-Auswahl im Programm (Turing-Schritt), für die Datenübertragung und für die Steuerungsabläufe. Alles zusammen bewirkt eine vom Takt gesteuerte CPU (central processing unit), die 1970 Ted Hoff entwickelte (Intel 4004). Schließlich sind noch externe Ein- und Ausgänge vorhanden. Vor allem sind heute Tastatur und Maus sowie Bildschirm und Drucker angeschlossen. Bild 21. Typische Grundstruktur heutiger Rechner. Die typische Struktur einer CPU zeigt Bild 22. Eine ALU (arithmetic and logic unit) ist für die Rechenschritte und logischen Entscheidungen, u. a. für Programmsprünge (über Flags) zuständig.

Bild 22. Typischer Aufbau einer CPU. 1978 wurde dann zusätzlich ein Arithmetik-Prozessor eingefügt, der speziell für die schnelle Berechnung der elementaren und Winkel-Funktionen zuständig war. Ab den 1980er Jahren entstanden dann sowohl die Heim-Computer als auch komplexe Hochleistungsrechner. Dabei wurden zur Leistungssteigerung u. a. mehrere Prozessoren parallel betrieben. Auch völlig andere Rechnerstrukturen entstanden. Einen Überblick zur Technikgeschichte zeigt Bild 23.

Bild 23. Überblick zur Technikgeschichte. --- 293---

Ein typischer Rechner folgt streng deterministisch dem Ursache-Wirkungsprinzip. Für mehrere Anwendungen werden aber auch Zufallswerte benötigt. In einfachen Fällen wird hierbei von der internen Uhr einfach der 1/100stel Sekundewert abgerufen. Vorteilhafter sind sie mit Pseudozufall zu erzeugen. Hierzu sind mehrere algorithmische Verfahren entstanden. Ein wichtiges Prinzip demonstriert Bild 24. Die hier gewählte rekursive Zufallsformel für R wiederholt 20 Zahlen periodisch. Dabei gibt es 4 verschiedene Zahlenreihen (im Kreis). Die Auswahl zwischen ihnen erfolgt durch einen Startwert (englisch seed Saat), von dem es viele gibt, die am Außenrand stehen. Hierdurch können sogar statistische Rechnungen exakt wiederholt werden. Mit anderen Formeln lassen sich Zahlenreihen mit Perioden bis zu vielen Tausend Werten generieren.

Bild 24. Einfaches Beispiel für ein Programm (Formel), dass Pseudozufallszahlen erzeugt. Für die Information entstand so eine neue Qualität, die schematisch Bild 25 aufzeigt. Für den Menschen wird dadurch der Umgang mit Information wesentlich vereinfacht und beschleunigt. Zusätzlich können auch hoch komplexe Probleme behandelt werden.

--- 294 ---

Bild 25. Zur geschichtlichen Entwicklung der Nutzung von Information.

7.5.2 Virtuelle Realität Die Kommunikation mit dem Rechner wurde ständig weiter entwickelt. Die Ausgabe auf dem Bildschirm wurde mittels spezieller Brillen direkt in die Augen vermittelt, die akustische Ausgabe mit Ohrhörern unmittelbar hörbar gemacht. Eine recht einfache Variante zeigt Bild 26. Auch die Eingaben können direkt von den Fingern, der Körperhaltung usw. abgeleitet werden. Dabei wird ein gewisser Widerstand so erzeugt, dass Berührungen nachempfunden werden können. Zum Rechner mit seinen Leistungen entstand so ein direkter, virtuell genannter Kontakt. Damit ergeben sich mehrere neue Qualitäten. Die Möglichkeiten der vielen vorhandenen Peripherie-Techniken behandelt recht ausführlich [Völ99]. Bild 26. Recht einfache Varianten für eine unmittelbare Kommunikation mit dem Rechner. Eine erste, ernst zu nehmende Beschreibung einer virtuellen Umgebung stammt von Stanislaw Lem in „Summa Technologiae“ von 1964. Dort wird aber noch die Bezeichnung „Periphere Phantomatik“ benutzt. Er beschreibt den Cyberspace als konsensuelle Halluzination eines computergenerierten grafischen Raumes. In den 1970er Jahren schrieb für virtuelle Zusammenhänge Myron Kreuger sein Buch „Artificial Reality“ (Latein arte Kunst; facere machen, englisch artifact deutsch Artefakt, Kunstprodukt, Werkzeug) [Bor94]. Der Begriff sollte allerdings nur alle Aspekte der zwei- und dreidimensionalen Fernsehtechnik abdecken. In Erweiterung wird darunter heute eine vom Computer geschaffene, interaktive, dreidimensionale Umwelt verstanden, die eine Person mit allen Sinnen --- 295---

erleben und in der sie auch aktiv handeln kann. Eine Präzisierung erfolgte 1984 durch William Gibson’s Roman „Neuromancer“. Erst 1989 prägte Jaron Lanier den Begriff Virtuelle Realität. Inhaltlich ähnliche Begriffe sind Virtual Environment, Virtual World und Artificial World. Wird dabei eine künstliche Umwelt zugleich mehreren Benutzern zugänglich, so wird meist vom Cyberspace gesprochen (englisch Cyber von Cybernetic: griechisch Kybernetike, Steuermannskunst; englisch space Raum, Weltraum, daher auch kybernetischer Raum). Können virtuell so verbundenen Personen gemeinsam, auch gegeneinander handeln so liegt MMOPRG (massive multiplayer online role playing games) vor [Hen97]. Eine wichtige Voraussetzung für eine ideale virtuelle Realität ist ein Datenanzug (datasuite), der seit 1987 verfügbar ist und einem Taucheranzug ähnelt. Er bedeckt den ganzen Körper und erfasst viele Freiheitsgrade. So können bereits im Modell virtuell Räume begangen werden, die erst gebaut werden. Selbst komplizierte medizinische Operationen sind von Spezialisten von ganz anderen Orten aus möglich. Die wichtigsten technischen Grundlagen für eine virtuelle Realität enthält u. a. [Völ99]. Eine andere Variante ist virtuelles (künstliches) Leben, das zunächst nur bei Spielen vorkam (s. Abschnitt 7.8.1). Virtuelle Welten müssen im Voraus antizipiert (lateinisch ante vor(her) und capere nehmen; anticipare vorgefasste Meinung), dann aufgeschrieben und programmiert werden. Das ähnelt dem Schreiben eines Textes, der erst später gesprochen, oder dem Aufschreiben von Musik, die erst später gespielt wird. Genau deshalb wurden hier zunächst wichtige Grundlagen aus Mathematik und Technik eingeführt. Virtuelle Welten müssen dabei nicht einmal den Naturgesetzen genügen oder gar in sich selbst konsistent sein. Die Programmierer können dafür ihre kühnsten Vorstellungen, Phantasien und Träume realisieren. In den virtuellen Welten kann nicht – wie in der realen Welt – eine bleibende weltliche Katastrophe eintreten. Höchstens kann der Rechner „abstürzen“. Ohnehin verschwindet die virtuelle Realität sofort, wenn der Rechner abgeschaltet wird oder ein Defekt auftritt. Dennoch bleibt viel Erlebtes im Gedächtnis der Personen gespeichert. Das kann jedoch teilweise psychologische Folgen bewirken. Gemeinsames und Verschiedenes bei der realen Welt und den möglichen Modellierungen für virtuelle Welten weist Bild 27 aus. Die Realität kann komplexer als die Mathematik sein (z. B. Quantentheorie Kapitel 8). Aber die Mathematik erfasst auch Fälle, die es nicht in der Welt geben kann. Ungeklärt ist, ob dazu auch die nichtberechenbaren Probleme gehören. Bild 27. Abgrenzung zwischen der realen Welt und den möglichen virtuellen Welten. Die Nutzung von virtuellen Welten ist somit in einem weiten Bereich eine direkt zu erlebende Simulation der Realität mit mehreren Besonderheiten und Vorteilen: x Die Auswicklungen und elektronischen Berechnungen von Formeln für die Welt erfolgen im Gegensatz zu allen anderen Möglichkeiten ohne wesentlichen Verzug, werden also aktuell erfahren und ermöglichen auch direktes Handeln. x Die Computer-Modelle ermöglichen beliebige Vergrößerungen und Verkleinerungen der Abmessungen von Objekten und des Raumes. x Auch der Zeitablauf kann nahezu beliebig beschleunigt und verlangsamt werden. So werden Zeitabläufe erlebbar, die sonst nicht wahrgenommen werden können. x Alle Ausgaben und Eingriffe können zu jeder gewünschten Zeit genauso und/oder variiert wiederholt werden. --- 296 ---

x Es sind Beobachtungen und Einwirkungen bei Objekten, in Räumen usw. möglich, die im Original für den Menschen gefährlich sind, z. B. bei hoher Radioaktivität, extremer Temperatur, hohen Druck usw. Das gilt auch für Objekte in zu großer Entfernung.

7.5.3 Hard- und Software Zu Soft- und Hardware existieren nur sehr wenige Arbeiten. Die wohl erste und z. T. grundlegende Arbeit stammt von Nickel [Nic72]. Weitere frühe Aussagen enthalten [Völ82, 89 und 91]. Selbst in Wikipedia wurde erstaunlich wenig gefunden. Zur Beschreibung von Software ist es günstig, von Werkzeugen und Geräten auszugehen. In ihnen ist irgendwie das Wissen für die Benutzung gespeichert. Nach Heidecker gilt: Für einen Hammer erscheint alles wie ein Nagel. So wird heute oft angenommen, dass mit dem Aufheben von Werkzeug die Entstehung des Menschen eng zusammenhängt (Abschnitte 6.7.1 und 6.9.2). Doch mit der Entwicklung komplexer Techniken wird die Benutzung schwieriger, denn hierin sind teilweise viele unterschiedliche Abläufe integriert. Daher werden zur Benutzung Anleitungen benötigt, die leider allzu oft schwer zu verstehen sind. Hierauf wies Zemanek hin: Ein „Zeigen“, wie die Bedienung zu erfolgen hat, ist dann wesentlich hilfreicher [Zem88]. Ähnliches gilt für medizinische Beipackzettel und teilweise sogar für Verpackungen von Produkten im Supermarkt, besonders bei fremdsprachig beschrifteten Produkten. Im technischen Bereich wurden daher teilweise Automatisierungen eingeführt. Ein Beispiel ist die völlig ferngesteuerte Funkuhr mit Sonnen-Panel zur Stromversorgung. Besonders komplex bleibt aber wohl immer die Bedienung von Computern. So ergibt sich der Überblick von Bild 28.

Bild 28. Überblick zum Verhältnis von Gerätetechnik und Software und deren Entwicklung. Bereits Nickel ergänzt zu Soft- und Hardware auch Live-, Brain- und Firmware. Der erste Begriff bezieht sich auf die Menschen, die in Recheneinrichtungen mit ihren Fachkenntnissen tätig sind, der zweite auf die geistige Vorarbeit bei der Programmerstellung und der dritte auf die von Herstellern in die Rechner fest und unveränderlich implementierte Software. Er weist auch aus, dass Hardware aus dem Englischen stammt und ursprünglich für Metall- bzw. Eisenwaren stand. Dem heutigen Stand entsprechend sind jedoch andere Differenzierungen notwendig, u. a. unser Einwirken auf die Welt (W-Information) sowie unser Wissen über die Welt (Z-Information). aber auch S- und VInformation sind zu berücksichtigen. So ergeben sich sechs Aspekte des Wissens und der Inhalte zu Hard- und Software, insbesondere für Computer, Automatisierung und weitere komplexe Techniken: 1.

Wissen in unserem Gedächtnis für die auszuführenden Handlungen (| Brainware). --- 297---

2. 3. 4.

5. 6.

Anleitungen und Problembeschreibungen meist auf Papier, oft bereits als PDF, selten als Video (Paperware!?). Ladbare (Steuerungs-) Programme, als Software 1. Art für damit beeinflussbare Geräte. Software 2. Art, die zwar auf Geräte übertragen wird, aber danach auf unsere Sinne (hören, lesen, sehen) einwirken und möglichst (auch kulturell) nützlich sein soll und so teilweise auch Emotionen bewirken kann. Beispiele sind mp3- oder wav-Dateien. In die Geräte unveränderlich fest eingeprägte Software 3. Art (|Firmware) Geräte, welche die geplante Wirkung ausführen, insbesondere Elektronik, Speicher, Drucker, Monitor, Tastatur usw. (|Hardware im engen Sinn).

Bei dieser Einteilung ist zu beachten, dass Sprache immer lebt und daher neue Begriffe schwer wirksam werden. So könnte es heute sinnvoller sein, hauptsächlich die ersten vier Punkte als Software im erweiterten Sinn und die letzten beiden als Hardware zu bezeichnen. Im Abschnitt 6.2 ist gezeigt, dass kombinatorische Schaltungen am effektivsten nur unmittelbar als Hardware (Transistoren usw.) zu realisieren sind. Für Rechner, Automatisierungen usw. sind jedoch die sequentiellen Schaltungen die entscheidende Grundlage. Sie entstehen immer aus einer Zusammenschaltung von kombinatorischen Schaltungen und Speichern. Die dafür notwendige implementierte Software entspricht recht gut der o.g. Firmware. Bedeutsam ist weiter, dass sich alle Schaltungen mit sequentiellen Schaltungen simulieren lassen. Spezialfälle dafür sind die PLA, PAL und PROM. Die Besonderheit der Speicher besteht dabei u. a. darin, dass in ihnen sowohl die Software für die Verschaltung als auch für den Programmablauf gespeichert sein kann. Das führt sowohl zur unveränderlichen Firmware, als auch mittels Software zu veränderbarer Hardware. Für die Technik entstehen so zwei extrem unterschiedliche Hardwaregebilde, die Spezial- und Universalrechner. Nur letztere lassen sich per Software (Programme) nützlich modifizieren. Spezialrechner arbeiten dagegen nur in ausgewählten Gebieten und sind dabei meist deutlich schneller und oft sogar einfacher zu bedienen. Ihre ursprüngliche „Software“ befindet sich meist in unveränderlichen Festwertspeicher. Nur in diesem eingeschränkten Bereich ist Kittlers Aussage: „Es gibt nur Hardware“ verständlich [Kit72]. Deshalb ist eine Unterteilung nach Bild 29 notwendig [Völ16].

Bild 29. Sinnvolle Einteilung von Rechnersystemen und deren Strukturierung bzgl. Hard- und Software. Software bleibt immer, zumindest bis zum Eingeben in den Speicher oder der Umsetzung in Hardwarestrukturen ein geistiges Produkt. Gespeicherte, ladbare (Programm-) Software ist es immer. Seit langem wird immer mehr Software in Hardware-Strukturen übersetzt. Das begann spätestens 1951 mit den Mikroprogrammen durch Wilkes. Später sind u. a. Arithmetik-, Video-, Audio-Prozessoren und Simulatoren hervorzuheben. Einen gewissen Überblick zu diesem Trend gibt Bild 30. Die obige Trennung wurde und wird dabei nicht immer konsequent eingehalten. Bereits Nickel wies darauf hin, dass so gut wie keine Wechselwirkung zwischen Hard- und Software auftrat. Insbesondere wurde und wird der Stack immer nur per Software simuliert (Abschnitt 6.2.1). Insgesamt ergibt sich die folgende Gegenüberstellung beider Begriffe.

--- 298 ---

Bild 30. Zum Verhältnis von genutzter Soft- und Hardware. Bezug

Software

Hardware

Gesetze, Komplexität

Gehorcht logischen Gesetzen, dabei ist sehr hohe Komplexität möglich, bringt aber Probleme zu deren Beherrschung, kann so teilweise Grenzen der Hardware (virtuell) unterlaufen.

Folgt physikalischen (stofflichenergetischen) Gesetzen, dabei ist die technische Komplexität begrenzt.

Zweck und Einsatz

Ist nur für eine gegebene Hardware nützlich, ermöglicht dessen Spezialisierung (in Struktur und Funktion) und damit Anpassung an verschiedene Aufgaben. Tendenz zum Universalrechner.

Spezialisierte Hardware ist direkt (autonom) nutzbar, aber meist nur im eingeengten Anwendungsbereich. Tendenz zum Spezial-Rechner.

Arbeitsweise

z.Z. fast nur sequentiell

Gute Parallelität ist möglich.

Herstellung, Kosten

Durch Programmieren (Simulation, Testphasen), oft schneller herstellbar als entsprechende Hardware, z.T. auch weniger Risiko. Fast nur Lohnkosten, Benutzergebühren von Programmiergeräten und Lizenzen.

Musterbau; kann auch im Voraus als Software getestet (simuliert) werden. Löhne, Materialkosten, Vorrichtungen, Maschinenpark, Lizenzen

Vervielfältigung

Sehr einfach, keine Spezialkräfte, wesentlich ohne Material, so gut wie keine Ressource-Grenzen, umweltfreundlich, kein schädlicher Abfall, kaum Patentschutz möglich, mit der Folge, dass viel Software illegal benutzt wird.

Verlangt stets Material, umfangreiche technische Einrichtungen mit hohem technisch-technologischem Niveau (nur einmalig) und spezialisierte Arbeitskräfte. Nicht immer umweltfreundlich.

Muss immer in irgendeiner Form gespeichert werden (z. B. Papier oder Datei).

Muster und Konstruktionsunterlagen; ist größtenteils materialisierte Information.

Software ist sehr einfach ununterscheidbar zu vervielfältigen.

Jedes einzelne Stück kann individuell gekennzeichnet werden.

Softwareschutz (Aktivierung usw.) und Pflege (updates). Ist leichter als Hardware auszutauschen.

Patentschutz, schneller (moralischer) Verschleiß, Kompatibilitätsprobleme.

Speicherung, Archivierung Indiviuell Datenschutz, Aktualität

7.5.4 Software und K-Information Vorbemerkung: Dieser Abschnitt ist einstweilen nur als Hypothese zu verstehen. Das Verhältnis Hard-Software wird üblicherweise nur auf die Rechentechnik und Automatisierung angewendet. Es lässt sich aber auch sehr allgemein verstehen. Mit zwei von Moles eingeführten Komplexitäten kann das Wechselverhältnis weiter vertieft werden [Mol60]. Die konstruktive Komplexität gibt dabei an, was in dem Objekt (Hardware) an Teilen vorhanden ist und wie sie als Struktur zusam--- 299---

mengesetzt sind. Die instrumentelle Komplexität sagt dagegen aus, was mit dem Objekt alles zu machen ist, wofür es genutzt werden kann. Ein Bleistift besteht z. B. konstruktiv aus der (Grafit-) Mine und dem schützenden, stabilisierenden Holz, instrumentell – besser vielleicht funktionell – kann er zum Schreiben, Zeichnen, als Lineal oder Wurfgeschoss benutzt werden. Weitere Beispiele zeigt das leicht geänderte und ergänzte Bild 31. Bild 32 vertieft die Möglichkeiten am Beispiel des Schachspiels.

Bild 31. Die zwei Komplexitäten nach Moles [Mol60].

Bild 32. Die beiden Komplexitäten beim Schach. Wird bei der weiter oben stehenden Aufzählung die Software 2. Art (Punkt 4.) ausgeklammert, so verändert ladbare Software nicht die strukturelle, wohl aber die instrumentelle Komplexität eines Rechners. Sie schafft neue Möglichkeiten für seine Nutzung. Die können aber erst danach, also in der Zukunft genutzt werden. Daher ist Software eine völlig neue Informationsart. Denn die bisher behandelten W-, Z-, S- und V-Informationen betreffen immer die aktuelle Dreiheit aus Informationsträger, System und Informat. Lediglich die P-Information verweist auch auf die Zukunft. Dabei wiederholt sie aber nur das, was gespeichert wurde oder gerade wird. Im Gegensatz zur Software schafft sie also für die Zukunft nichts Neues. Aus dieser Sicht lassen die hier betonten Eigenschaften der Software sehr viel weiter fassen. Bei den Brettspielen wären dann das Brett und die Figuren die Hardware und die Spielregeln die Software. Im Weltgeschehen wäre der Stoff (Materie) die Hardware und die Naturgesetzte die Software. Letztere ermöglichen u. a. die Evolution. Viele weitere Beispiele sind leicht zu finden: Leben und DNS-Chemie, Hormone, Vitamine, Immunsystem usw. (s. auch Kapitel 8, Quantentheorie). Aus dieser Sicht ist es vielleicht berechtigt oder gar nützlich hierfür ganz allgemein eine spezielle K-Information einzuführen, abgeleitet von knjunktiv (lateinisch verbindend, hypothetisch) und zwar nicht gemäß der Logik, sondern als Möglichkeitsform, d. h. Modus des Verbs, der ein Geschehen, Ziel usw. als möglich, erwünscht oder behauptend darstellt und dafür in die Zukunft verweist. Durch Laden von Software wird also nicht die Struktur des kybernetischen System verändert, es werden lediglich dessen Speicher neu belegt. So entstehen --- 300 ---

neue Funktionen des Systems. Sie ermöglichen es anderen Informationsträgern wirksam zu werden und können so auch neue Informate bewirken. Dabei kann auch einiges Altes nicht mehr möglich sein (Bild 33). Doch das alles ist erst nach dem Laden der Software (K-Information), in der Zukunft möglich.

Bild 33. Wirkung von Software bzw. K-Information.

7.6. Fraktale Der Begriff Fraktal (lateinisch fractum gebrochen) wurde 1975 von Mandelbrot für äußerst vielfältig „gebrochene“ Gebilde, Linien und Strukturen eingeführt [Man87]. Wesentlich für ihre Erzeugung ist die Rekursion. Daher gab es schon deutlich früher Strukturen, die aber erst später zu den Fraktalen gezählt wurden. Sie entstehen durch rekursive Ersetzungen von Linienabschnitten als seltsame Liniengebilde (Monsterkurven), die theoretisch unendlich lang und nirgends differenzierbar sind. Sie erregten zunächst jedoch kein Interesse. Am ältesten ist wohl die Kochkurve, die heute zuweilen auch Schneeflockenkurve heißt. Weitere Beispiele zeigt Bild 34. Darin ist N die Anzahl der neu entstehenden Linien, r die Länge der geteilten Abschnitte und D die Hausdorff-Dimension. Letztere nimmt bei einfachen Linien den Wert 1, bei Flächen 2 usw. an. Da die Hilbert-Kurve als Linie schließlich jeden (reellen) Punkt in der Fläche erreicht, erhält sie D = 2.

Bild 34. Fraktale Linien, die sich durch rekursiv unendlich oft wiederholte Ersetzungen von allen entstandenen Linienabschnitten ergeben. --- 301---

Dieses „ungewöhnliche“ Verhalten wurde später bei fast allen physikalischen Grenzen, insbesondere bei Land-Wasser- sowie Ländergrenzen, Ränder von Blättern usw. gefunden. Ausführlich wurde es 1961 von Lewis Richardson untersucht. Dabei ergab sich Bild 35. Die Länge einer Grenze hängt danach u. a. deutlich vom Maßstab der Darstellung ab. Bild 35. Die Länge einer Grenze hängt u.a vom Maßstab der Darstellung ab. Doch selbst benachbarte Länder geben gegenseitig die Länge ihrer gemeinsamen Grenzen offiziell unterschiedlich an, z. B. Spanien œ Portugal: 987 œ 1214 km und Niederlande œ Belgien 380 œ 449 km. Deutlich zeigt sich dieser Einfluss bei Darstellungen der Ostküste der USA: Globus: 3 000 km, große Karte: 7 000 km, Seekarte: 17 000 km, zu Fuß ablaufen: 24 000 km. Das demonstriert deutlich Bild 36. Für die Hausdorff-Dimension gilt zwischen der gemessenen Länge L0 und einem Messradius R daher L = L0˜R1-D. Diesen Zusammenhang veranschaulich Bild 36. Später wurde D von Mandelbrot auch fraktale Dimension bezeichnet. Den Zusammenhang mit dem Messradius weist Bild 37 aus.

Bild 36. (oben). Ostküste der USA in verschiedenen Maßstäben. Bild 37. (links).Einfluss des Messradius auf die gemessene Länge einer Kurve mit den gezeigten Teilgeraden. --- 302 ---

Ab 1968 zeigte Lindenmayer, wie durch Rekursion mit sehr einfachen Formeln sehr viele Pflanzen graphisch erzeugt werden können. Seine typischen Algorithmen sind als L-Systeme bekannt geworden. Eine betont einfache Variante ist die Schildkrötengrafik: Eine gedachte Schildkröte befindet sich an einem Ort und kann von dort jeweils einen Schritt vorwärts ausführen. Dazu gehören nur 5 Operationen: F + [ [

Es wird eine Linie gegebener Länge in der vorgegebenen Richtung gezeichnet. Die Richtung für die Linien wird im Uhrzeigersinn um n Grad gedreht. Die Richtung wird gegen den Uhrzeigersinn um n Grad gedreht. Speichert den aktuellen Ort und Winkel auf einem Stack. Es wird zur gespeicherten Stelle und Richtung zurückgekehrt.

Als Daten werden z. B. gewählt: Winkel = 30°, positiver Drehsinn und Axiom F := F[+F]F[-F]F Für die ersten Schritte ergibt sich dann: 1. F 2. F[+F]F[-F]F 3. F[+F]F[-F]F[+F[+F]F[-F]F]F[+F]F[-F]F[-F[+F]F[-F]F]F[+F]F[-F]F 4. F[+F]F[-F]F[+F[+F]F[-F]F]F[+F]F[-F]F[-F[+F]F[-F]F]F[+F]F[-F]F[+F[+F]F[-F]F[+F[+F]F [-F]F]F[+F]F[-F]F[-F[+F]F[-F]F]F[+F]F[-F]F]F[+F]F[-F]F[+F[+F]F[-F]F]F[+F]F[-F]F[-F [+F]F[-F]F]F[+F]F[-F]F[-F[+F]F[-F]F[+F[+F]F[-F]F]F[+F]F[-F]F[-F[+F]F[-F]F]F[+F]F [-F]F]F[+F]F[-F]F[+F[+F]F[-F]F]F[+F]F[-F]F[-F[+F]F[-F]F]F[+F]F[-F]F Die Ausführung dieses Programms zeigt in den ersten 6 Schritten Bild 38. Bereits ab dem 4. Schritt ist ein Grashalm oder Strauch zu erkennen.

Bild 38. Die ersten Rekursions-Schritte für F := F[+F]F[-F]F. Mit komplizieren, aber dennoch einfachen Axiomen erreichte Lindenmayer eine sehr hohe Qualität. Das zeigen viele Beispiele in [Pru90]. Eine blühende Pflanze daraus ist Bild 39. Die umfangreichen Ergebnisse legen es nahe, dass die genetischen Algorithmen nach einem ähnlichen Prinzip funktionieren dürften. Auch unser Sehen könnte vielleicht davon Gebrauch machen. So erkennen wir z. B. im Winter Bäume allein an ihrem Verzweigungsmuster. So ist die Eiche durch fortlaufende, dreifache Verzweigung mit kleinen Längen dazwischen leicht zu erkennen. Die Ulme verzweigt dagegen --- 303---

nur zweifach mit deutlich größeren Längen (Bild 40). Weitere Beispiele zeigen die Fotografien von Bild 41.

Bild 39. (links). Blühende Pflanze als Beispiel aus [Pru90]. Bild 40. (rechts). Zeichnungen von Eiche und Ulme für die typischen Verzweigungsarten.

Bild 41. Winterfotografien von 1. Linde, 2. Essigbaum, 3. Kastanie und 4. Eiche. --- 304 ---

Leider ist es sehr schwierig, aus den Bildern die dazugehörende Rekursionsformel zu finden. Einen beachtlichen Erfolg erzielten 1995 zwei Studenten mit einer sehr umfangreichen Diplomarbeit an der TU-Berlin [Opp95]. Dazu benutzen sie u. a. komplexe Algorithmen von Rechenberg. Nebenbei erkannten sie, dass unterschiedliche Algorithmen durchaus zum gleichen Bild führen können, z. B.: F = F[+F]F[-F]F oder F= FF[+FF]FF[-FF] bzw. F= F[+F][+F]F[-F]F. Feigenbaum verwendete zur Rekursion eine relativ übersichtliche Formel, die auch Verhulst-Gleichung genannt wird: a := a˜(a - 1)˜x. Für die Variable a ist ein Startwert a0 zu wählen. Seine Größe ist jedoch für das Verhalten bei der Rekursion nahezu unkritisch, meist a0 | 0,5 gewählt. Deutlich einflussreicher ist die „Konstante“ x. Je nach ihrer Wahl treten vier typische Zeitverläufe auf: x x

x x

a konvergiert gegen einen stabilen Wert, nach einem Einschwingvorgang pendelt a periodisch zwischen den Werten 2, 4, 8 usw., a verhält sich weitgehend stochastisch, a divergiert gegen f (nicht darstellbar).

Für die ersten 3 Varianten zeigt Bild 42 ausgewählte, typische Zeitverläufe. Dabei wird deutlich, dass der Übergang zu dem einen oder zu mehreren periodischen Pendelwerten jeweils für eine gewisse Zeit mit „Einschwingvorgängen“ geschieht.

Bild 42. Beispiel für die drei typischen Zeitverläufe der Rekursion von a := a˜(a - 1)˜x. Nicht den Zeitverlauf, sondern die Abhängigkeit von x zeigt Bild 43. Dabei sind für jedes x die jeweils zeitlich angenommen Werte einfach „übereinander“ geschrieben. Dieses Bild erhielt den Namen Feinbaum-Diagramm. Für hinreichend großes x (ganz rechts) erfolgt die Divergenz. Der entsprechende unendliche Wert ist jedoch für die Darstellung zu groß. Im Bild wird aber eine typische Eigenschaft aller Fraktale sichtbar: die Selbstähnlichkeit. Sie wiederholt im Bild verkleinert und etwas verformt das ganze Bild und zwar recht oft, theoretisch sogar unendlich oft. Zur Verdeutlichung dienen die grün gekennzeichneten Flächen. Das sind jene Gebiete, die nicht erreicht werden und durch das Pendeln zwischen zwei Werten begrenzt sind. Dort wo die Flächen sehr klein --- 305---

sind, wurden kleine rote Kreise eingefügt. Auffällig ist, dass hier der stochastische Bereich fehlt. Er ist durch ein (scheinbar) viel umfangreicheres Pendeln gekennzeichnet. 1978 findet Feigenbaum die (Natur-?) Konstante der Periodenverdopplung F=4,6692016090} Im anderen Kontext war sie jedoch schon vorher von Grossmann entdeckt worden. Ziemlich ähnliches Verhalten zeigen viele einfache Rekursionsformeln, etwa der Form a := f (a, x). Jedoch entstehen dabei meist deutlich andere Gesamtbilder.

Bild 43. Das typische Bild für die Feigenbaum-Rekursion von a := a˜(a - 1)˜x.

7.6.1 Das Apfelmännchen Die Funktionen-Theorie untersucht Zusammenhänge zwischen komplexen Zahlen, z. B.\ = f ([), wobei z. B. \ x+i˜z und[= y+ i˜w mit i=—-1 gilt. Solche Zusammenhänge lassen sich vorteihaft in einer Ebene mit den Realund Imaginäranteilen gemäß Bild 44 veranschaulichen. Ohne Rechentechnik war es bestenfalls möglich, den Konvergenzradius abzuschätzen, in dem die Funktion mit Sicherheit konvergiert. Bild 44. Komplexe Ebene zur Darstellung komplexer Funktion.

--- 306 ---

1980 setzte Mandelbrot hierzu erstmals die leistungsfähige Rechentechnik mit Grafikausgabe ein. Dabei begann er mit der einfachen quadratischen Gleichung [ := [2 + F. In reeller Umschreibung lautet dafür die Iteration x := x2 - y2 - c und y := 2˜x˜y - d. Dabei sind c und d Konstanten für die Bildkoordinaten. Mit großem Erstaunen erhielt er hierbei das Bild 45. Der Konvergenzradius war zu einer höchst komplexen (verkrumpelten, daher unendlich langen) Grenze entartet. Zunächst vermutete er einen Programmierfehler. Doch es war alles korrekt. Die Divergenz ist bereits dann gesichert, wenn bei der Rekursion erstmalig a > 1 auftritt. Das kann bereits nach 1, 2, 3 usw. Schritten erfolgen. Werden diese Bereiche durch verschiedene Farben gekennzeichnet, so entstehen ästhetisch wirkende Bilder (Abschnitt 7.6).

Bild 45. a) Der Konvergenz- und Divergenzbereich der komplexen quadratischen Funktion, b) farbige Darstellung für die notwendigen Schritte (1 bis 5 sind gekennzeichnet) zum Nachweis der eintretenden Divergenz. Im Seepferdchental (Pfeil in a) sind besonders viele Schritte notwendig. Unmittelbar nach Mandelbrot begannen vielerorts umfangreiche Untersuchungen, die alle ähnliches auswiesen. Das galt auch für Funktionen, wie x = f (x, y, a, b) und y = g (x, y, a, b), die dann andere, aber ebenfalls hoch komplex strukturierte Bilder ergaben. Als dann die Heim-Computer-Technik verfügbar war, wurde es zum Hobby solche und ähnliche Fraktale zu generieren. Der Reiz lag sowohl bei der ästhetischen Wirkung als auch beim Wettbewerb sie immer schneller zu generieren. Zunächst wurden ja für ein Bild viele Stunden benötigt. Bei den Computerfreaks dürfte dann, bisher nicht nachweisbar, die Bezeichnung Apfelmännchen in Analogie zum sächsischen Pflaumenmännli entstanden sein (Bild 46). Ein weiterer Anreiz ergab sich dadurch, dass in (stark) vergrößerten Ausschnitten viele neue Strukturen sichtbar wurden. Besonders wirkungsvoll ist z. B. das Seepferdchental, welches in einem Schwarz-WeißAusschnitt Bild 47 zeigt.

Bild 46. Vergleich von Fraktal und Pflaumenmännli. --- 307---

Bild 47. Ein typisches Bild aus dem Seepferdchental, rechts oben eines hervorgehoben. Spätestens hier begann die Frage, was den nun eigentlich Fraktale sind. Die erste Antwort hierauf hatte zwar bereits 1987 Mandelbrot mit seinem Buch [Man87] gegeben: Vieles in der Natur ist fraktal. Folglich entstand etwa die Aussage: Die linearen und kreisförmigen geometrischen Bilder sind vom Menschen geschaffen; die Natur benutzt rekursive Verfahren und erzeugt so Fraktale. Weiter wurde diskutiert, ob die Fraktale objektiv in der Natur vorhanden sind und nur entdeckt und erst danach mittels Mathematik sichtbar werden, oder ob die Mathematik sie erst generiert (erfindet) und damit quasi ungewöhnliche V-Information sind. Ferner gab es Streit zum ästhetischen Wert der Fraktale (s. u.). Bild 48 ergänzt noch zwei weitere Beispiele.

Bild 48. Zwei ausgewählte Fraktale. --- 308 ---

In Bild 48a erzeugen die Verkehrsteiler ähnlich aussehende Gebilde unmittelbar ein 3D-Raumeindruck. Durch die vielen kleinen „Nebenzweige“ entstehen dabei jedoch, ähnlich wie bei den Bildern von Escher, mehrfache Widersprüche. Bild 48b geht auf eine andere Rekursionsformel zurück und wurde z. B. als (alte) Babuschka mit einem wunderbar gefärbten Röckchen interpretiert. Die Phantasie kannte bei solchen Bildern, die massenweise auch als Glückwunschkarten verschickt wurden, kaum Grenzen.

7.6.2 Weitere fraktale Methoden Um 1900 schlug u. a. Peitgen eine Kopiermaschine für die rekursive Erzeugung von Fraktalen vor [Jür89]. Mathematisch war das Prinzip bereits früher als iterative Drehmultiplikation (kontraktive Transformation) bekannt. Bild 49 zeigt dazu eine noch recht übersichtliche Variante: Einmal (oben) geht sie vom Bild eines „Geistes“ (ganz links) aus, unten von Arecibo-Signal (Bild 6.176). Diese Ursprungsbilder werden dann auf etwa 1/3 verkleinert je einmal oben sowie darunter je links und rechts angeordnet. Mit dem so neu entstandenen Bild wird dieser Schritt fortlaufend wiederholt. In beiden Fällen entsteht schließlich ganz rechts das Sierpinski-Dreieck. Das Ursprungsbild ist hierfür völlig belanglos. Ausschließlich der Algorithmus bestimmt das Ergebnis. Das ist somit eine neuartige Bilderzeugung. Erstaunlich ist dabei, dass wir nicht imstande sind vom Algorithmus auf das Endbild zu schließen1.

Bild 49. Rekursion mittels Drehmultiplikation. Eine statistische Variante stammt von Barnsley [Bar93]. Er verwendet zwei Gleichungssysteme mit zufällig wechselnder Wiederholung: x := An˜x + Bn˜y + Cn y := Dn˜x + En˜y + Fn Die Koeffizienten An bis Fn bestimmen das entstehende Bild. Für einen Farn (Bild 50) betragen sie: Gleichung n 1. 2. 3. 4.

A 0 0,2 -0,15 0,85

B 0 -0,26 0,28 0,04

C 0 0,23 0,26 -0,04

D 0 0,22 0,24 0,85

E 0 0 0 0

F 0 1,6 0,44 1,6

1 1995/96 habe ich dazu in Seminaren an der TU-Berlin zwei Semester lang mit Stundeten ergebnislose Versuchen durchgeführt. Niemand gelang eine Vorhersage für das Endbild.

--- 309---

Barnsley behauptete dabei, dass die Koeffizienten wenig kritisch seien. Doch wenige eigene Versuche zeigten das Gegenteil. Mit nur wenigen Änderungen entstehen deutlich andere Bilder. z. B. b): A4 = 0.99; c): A2 = 0,7; d): F2 = 16 sowie e): F2 = 16 und A4 = 0,65.

Bild 50. Mit dem Barnsley-Hüpfer erzeugte Bilder.

7.6.3 Die fraktalen Methoden Zusammengefasst können fünf Methoden für fraktale Bilder unterschieden werden: 1. 2. 3.

4. 5.

Monsterkurven: u. a.: Koch-, Hilbert- und Drachenkurve. Hierzu gehören in der Natur die Grenzen, Küsten und Blätter. Formale Sprachen, insbesondere L-Syteme, mit denen Pflanzen generiert werden können. Iterationen der Feigenbaum- und Mandelbrot-Verfahren x := f (x, a) bzw. x = f (x, y, c) sowie y = g (x, y, d), mit dem Apfelmännchen. Indirekt gehören dazu auch die hier nicht behandelten Julia-Mengen. Sie sind dadurch bestimmt, dass sie die Menge aller Punkte zusammenfassen, die sich auf sich selbst abbilden. Drehmultiplikation als Kopierverfahren mit mehrfach sich abbildenden Bildern. Zufallsprinzipien (Hüpfer) mit Gleichungssystem und Zufall nach Barnsley.

Erstaunlich ist dabei, dass sich mit jedem Verfahren, weitgehend die gleichen Fraktale erzeugen lassen. Als Beispiel zeigt hierzu zeigt Bild 51, dass auch mit der Drehmultiplikation der gleiche Farn wie mit dem Zufallsprinzip entsteht. Auch hier wird wieder deutlich: das Ausgangsbild hat keinen Einfluss auf das Endbild. Zusätzlich zu den fünf fraktalen Methoden gibt es in der Natur und in den naturwissenschaftlichen Theorien erstaunlich viele Aussagen, die mit Fraktalen zusammenhängen. Das vielleicht älteste Beispiel steht im Zusammenhang mit dem 1887 von König Oskar II von Schweden ausgeschriebenen wissenschaftlichen Wettbewerb, beschrieben am Anfang von Kapitel 3. Dort sind auch weitere chaotische Wirkungen genannt, die hier einzuordnen wären. Außerdem seien hier noch kurz erwähnt: Die Wirbeltheorie von Prandtl, insbesondere mit dem Umschlag von laminarer in turbulente Strömung beim Überschreiten der Reynold-Konstanten, die Chaos-Theorie mit meist nichtlinearen Differentialgleichungen; zellulare Automaten mit Gesetzen und Nachbarschaftsbeziehungen, die Evolution z. B. bei Eigen, die Multistabiltät und Rückkopplung der Kybernetik, die magnetische Hysterese sowie Quasikristalle mit Fernordnung. Die Details dazu würden hier aber zu weit führen und müssen daher bei Interesse aus der Fachliteratur entnommen werden. Wichtiger ist es dagegen, die wichtigsten typischen Eigenschaften der Fraktale zusammenzufassen: --- 310 ---

x x x x x x x x x

Sie besitzen verkrumpelte Kurven mit fraktaler (Hausdorf-) Dimension. Ihre Bilder kennzeichnen eine sehr hohe Komplexität und Strukturreichtum. In den Bildern tritt immer Selbstähnlichkeit auf. Generiert werden sie durch einfache rekursive Algorithmen. Indirekt entsteht dadurch die Möglichkeit für hocheffektive Komprimierungen, deren Erzeugung aber viel Zeit benötigt. Häufig besitzen sie große Ähnlichkeit mit Gebilden und Geschehen in der Natur. Sie bilden eine eigenständige (abgeschlossene) Bild-Klasse (s. u.), die den geometrischen (euklidischen) Bildern entgegengesetzt ist. Teilweise gibt es Ähnlichkeiten mit unmöglicher Perspektive wie bei Bildern von Escher. Meist besteht eine Verquickung von Zufälligkeit und Gesetzmäßigkeit. Vielfach zeigen sie subjektiv eine beachtliche ästhetische Wirkung und wurden daher für die Computer-Kunst wichtig.

Bild 51. Erzeugung des Farns mittels Drehmultiplikation. Rekursives Denken ist uns offensichtlich (noch) nicht möglich. Eine Ursache dafür könnte sein, dass die Rekursivität erst 1936 mit dem Turing-Automaten und dann mit der Church-These hinreichend bekannt wurde. Außerdem mussten für die notwendig vielen Rekursionsschritte erst die elektronischen Rechner ab 1950 und für die Bilder die Computer-Grafik ab 1980 zur Verfügung stehen. Andererseits ist es sehr wahrscheinlich, dass unser Gehirn Bilder rekursiv analysiert. Das könnte die Schichtenstruktur des Sehzentrums leisten (Bild 6.154). Ohne Rekursion könnten wir wohl kaum ein Gesicht unabhängig von der (Bild-) Größe und Lage erkennen. Weiter spricht dafür, dass wir Karikaturen schneller als Fotos erkennen. Dagegen können wir seit den alten Griechen mit der euklidischen Geometrie umgehen. Die Tabelle stellt beide gegenüber. Euklidische Geometrie x x x x

Fraktale Geometrie

über 2000 Jahre alt geeignet für Objekte, die von Menschen erzeugt wurden beschreibbar durch eine Formel oder mit Zirkel und Lineal Grundelemente mit bestimmter Größe

--- 311---

x x x x

knapp 50 Jahre alt geeignet für natürlicher Objekte rekursiver Algorithmus gut skalierbar

Das belegen auch die natürlich entstandenen bzw. vom Menschen geschaffenen Objekte: In der Natur vorhanden x x x x

Von Menschen geschaffen

Kugelförmige Objekte, die durch Reibung und Abnützung entstehen. Fraktale Gebilde, die durch Zusammenwirken vieler (zufälliger) Einflüsse entstanden (Grenzen, Küsten usw.). Fraktale Strukturen, die rekursiv mit der Evolution erzeugt wurden und werden. Gerade Flächen, sehr selten, nur bei echt kristallinen Strukturen, sie sind spaltbar.

x x x x

Überwiegende werden mit Aufwand ebene, rechteckförmige Gebilde systematisch konstruiert. Für die Konstruktion stehen uns Zirkel und Lineal zu Verfügung. Objekte mit „Sinn“, u. a. Technik, Kultur, Kunst, Mystik werden bevorzugt mit geringer Komplexität geschaffen. Kugelflächen sind selten, vorwiegend nur bei Linsenherstellung.

Bezüglich der Ästhetik und sogar der „Kunst“ bei Fraktalen wurde ich 1987/88 für eine Tagung der Universität Leipzig um einen Vortrag gebeten [Völ88a]. Dafür entstand u. a. – die damals noch etwas einfachere Variante von Bild 52. Da Kunst stets von Menschen für Menschen geschaffen wird, können hierzu die Fraktale nicht gehören. Aber genau wie die Natur können sie ästhetische Wirkungen hervorrufen. Unabhängig von den beiden Auffassungen der Mathematik (s.o.) gehören sie dabei sowohl zu spontan Vorhandenem als auch zu dem vom Menschen Geschaffenem. Bild 52. Zur Einordnung der Fraktale.

7.7. Künstliche Intelligenz Intelligenz lateinisch inteligens: einsichtsvoll, sachverständig und intellectus: Verstehen, Erkenntnisvermögen. Das stimmt recht gut mit der Auffassung der heutigen Physiologie überein: etwas schnell und sachlich richtig zu verstehen, zu erfassen und daraus ein zweckentsprechendes Verhalten abzuleiten. Hiermit hängt auch zusammen, dass jemand besonders gut Analogieschlüsse zu ziehen vermag und dabei sein Wissen und seine Erfahrung schnell und sinnvoll auf Unbekanntes, Neues oder im neuen Kontext anzuwenden vermag. So war Faraday genau bekannt, wie Wasser in Röhren fließt. Diese Kenntnis mit allen Konsequenzen, einschließlich der bereits bekannten Formeln, auf die noch wenig erforschte Elektrizität und den Magnetismus zu übertragen, war ein großartiger Analogieschluss, mit dem er schließlich die Maxwell-Gleichungen schuf. Als Archimedes in die Badewanne stieg und dabei das Wasser überlief, kam ihm die Idee, wie er ähnlich feststellen könnte, ob die Krone des griechischen Königs Hieron wirklich aus purem Gold bestand. Das dann so bestimmte spezifische Gewicht ergab, dass die Krone mit Silber legiert war. Heut wird Intelligenz recht vielfältig benutzt: (1) Intelligenz als typisch menschliche Eigenschaft betrifft hauptsächlich abstraktes, vernünftiges Denken und daraus abgeleitetem zweckvollem Handeln. Aber Klugheit, Lebenstüchtigkeit, Schlauheit, Gerissenheit usw. betreffen mehr dem alltäglichen Umgang. --- 312 ---

(2) Der Intelligenz-Quotient IQ wurde 1905 von Binet und Simon entwickelt und sollte ursprünglich Messwerte für die menschliche Intelligenz liefern. Der IQ wird immer in Prozent angegeben (Spitzenwerte einzelner erreichen bis zu 140 %). Bei Kindern muss das Alter berücksichtigt werden. Da der IQ-Test nur formal-logische Fragen benutzt, wurde schnell klar, dass er fast nichts über die typischen menschlichen Eigenschaften, wie geistige Fähigkeiten, Persönlichkeit und Lebenstüchtigkeit aussagt. Daher hat er heute nur noch geringe Bedeutung. (3) Die emotionalen Intelligenz (EQ) soll(te) eine Ergänzung zum IQ sein. Dabei wird versucht, auch das menschliche Gefühlsleben einzubeziehen (auch Bauch-Intelligenz genannt). (4) Bei der gesellschaftlichen Intelligenz soll das verstärkende Zusammenwirken von Menschen erfasst werden. (5) Averbale Intelligenz liegt dann vor, wenn jemand ohne eine verfügbare Sprache erfolgreich handelt, z. B. wenn er ein technisches Produkt ohne entsprechende sprachliche Begriffe erfolgreich benutzt, repariert usw. (6) Körper-Intelligenz wird besonders auf die hohe Flexibilität und Wahrnehmungsfeinheit unserer Hand bezogen. (7) Tierische Intelligenz ist der averbalen teilweise recht ähnlich (s. u.). (8) Völlig unklar ist, was und wie außerirdische Intelligenz (also allgemein vernunftbegabte Wesen, Aliens (latein. alienus fremd) sein könnte (Abschnitt 7.6.2). (9) Benutzt wird Intelligenz auch für (messbare) Eigenschaften technischer Geräte, insbesondere Rechner. Sie wird dabei oft mit der Komplexität der Elektronik und/oder deren möglichen Anwendungsbreite gleichgesetzt. (10) Technische und künstlerische Intelligenz werden zur Bezeichnung spezieller Berufsgruppen benutzt (11) Künstliche Intelligenz (KI) ist der Schwerpunkt der folgenden Betrachtungen und betrifft das Forschungsgebiet. In ihm wird untersucht, wie Aspekte der menschlichen Intelligenz in technische Lösungen übertragen werden können und so menschliches Denken mit technischen Mitteln und deren Funktionen zumindest teilweise nachgeahmt und für den Menschen nutzbar gemacht werden könnten. Dieses Gebiet wird auch Artificial Intelligence genannt. Werden die drei sehr spezifischen Aspekte: (1) menschliche Intelligenz, (11) KI und (9) Gerätekomplexität verglichen, so ergibt sich die Frage, ob sie etwas Gemeinsames besitzen. Schematisch stellt das Bild 53 dar. Bild 53. Versuch einer Abgrenzung zwischen natürlicher und künstlicher Intelligenz. Die KI hat seit ihrer Einführung durch John McCarthy auf der Dartmouth-Konferenz von 1956 eine hohe Eigenständigkeit, beachtliche Erfolge und Anerkennung erreicht. Eine wesentliche Grundannahme ist, dass Computer unserem Geist irgendwie ähneln und daher unser Denken simulieren und uns vielleicht sogar als Intelligenzverstärker dienen könnten. Eine andere Benennung ist daher auch Intelligenz-Technologie. Heute behandelt die KI hauptsächlich die folgenden, sich z.T. überschneidenden Aspekte: x Psychologisch-physiologische Erforschung des menschlichen Denkens, z. B. bezüglich natürlichsprachlicher und anderer Systeme, Sprachverstehen, automatische Übersetzungen und medizinischer Diagnose. x Simulation von intelligentem menschlichen Verhalten, insbesondere beim Problemlösen (automatisches Beweisen, Formelmanipulation), Objekt- und Mustererkennung (u. a. bei Bildern und --- 313---

Sprache), Lernen, Lern- und Strategie-Spiele sowie Expertensysteme (Frage-Antwort- und Diagnosesysteme). x Entwicklung hoch leistungsfähiger Computer-Systeme, einschließlich neuronaler Netze, Rechnersprachen (LISP, PROLOG, Smalltalk usw.) und automatisiertes Programmieren. x Entwicklung, selbsttätig handelnder, intelligenter Maschinen, wie Automaten, Avatare, künstliche bis virtuelle „Menschen“, Roboter und Drohnen. Die KI hängt mit den Gebieten Psychologie, Kybernetik und Informatik (hier nur im Sinne rechentechnischer Anwendungen) zusammen. Das ermöglicht es, die einzelnen Gebiete bzw. Ergebnisse in ein quantitatives Dreieck für die Anteile der Forschungszweige einzutragen. (Bild 54).

Bild 54. Inhaltlichen Zuordnungen von KI-Gebieten zu Psychologie, Informatik und Kybernetik. Eine sehr umstrittene Variante ist die „harte KI“, z. B. durch Minsky. Danach sollen Denken, Fühlen, Humor und Kreativität vom Computer realisierbar sein. Insbesondere wird behauptet, dass jeder geistige Prozess algorithmisch abläuft. Daher könne der Mensch auch nicht mehr als eine Turing-Maschine leisten. Zuweilen wird sogar eine Isomorphie von Gehirn und Computer behauptet: Beide arbeiten danach schrittweise und vollziehen die gleichen Teilschritte in derselben Reihenfolge. Daher werde es künftig gelingen, die menschliche Intelligenz vollständig technisch nachzubilden und so den menschlichen Tod quasi aufzuheben. Hierzu gab es mehrfach deutliche Kritik. Dafür ist ein Vergleich der Vor- und Nachteile von Mensch und Computer nützlich (s. u.). Im Weiteren seien beispielhaft nur zwei KI-Gebiete mit einigen Details behandelt. Für das Sprachverstehen ist es nützlich vier Klassen zu unterscheiden.

--- 314 ---

Sprachtyp averbal

Grundelemente Formeln, Symbole, Noten, Bilder, Gesten, Mimik

natürlich

Wörter, Lexikon

Programmierung

Befehle, reservierte Wörter, Vereinbarungen Elemente, Zeichen aus einem Alphabet

formal

Regeln unterschiedlich und nur teilweise bekannt Grammatik, Kontext

Ergebnisse Aussagen unterschiedlicher Art sinnvolle Sätze,

Beispiele Mathematik, Chemie, Musik, Kommunikation

Syntax (Semantik)

lauffähige Programme

C, BASIC, COBOL, LISP, Prolog, Java

Regeln

gültige Wörter

Chomsky, SemiThue, Lindenmayer

Literatur

Sie sind hier axiomatisch gegliedert: Aus Grundelementen werden mit den Regeln die Ergebnisse generiert. Auffällig ist das weitgehende Fehlen von Regeln im averbalen Bereich, insbesondere im Sinne einer universellen Bildsprache. Für formale Sprachen gibt es drei Wege: 1. Bei endlichen Sprachen ist ein (vollständiges) Aufzählen der gültigen Wörter möglich. 2. Aus Symbolen und Regeln lassen sich die gültigen Wörter von einer Startkette aus generieren. 3. Es werden Konstruktionsvorschriften der Syntax (Grammatik) angegeben. Auch bei Programmiersprachen sind ähnliche Bedingungen (Regeln) notwendig, für die z. B. die Backus-Naur-Normalform gilt. Anfangs hatte die KI-Forschung geglaubt, relativ schnell das Niveau von Sprachverstehen zu erreichen. So begannen 1954 die ersten automatischen, täglichen Übersetzungen der Prawda mit einer IBM 701. In diesem Zusammenhang wurden dann immer bessere Theorien – z. B. die generativen Grammatiken, insbesondere von Chomski – entwickelt. Doch bald zeigte sich, dass die Zusammenhänge sehr viel komplizierter als erwartet sind. Zu jedem Sprachverstehen ist ein kompletter Kontext erforderlich. Drei Beispielsätze mögen das erläutern: „Er schlug den Jungen mit der Mütze.“ Hatte der Junge die Mütze auf dem Kopf oder war die Mütze das Mittel zum Schlagen? „Dieser Student ist selten fleißig.“ Ist er nun immer besonders oder nur manchmal fleißig? „Der Apfel fällt nicht weit vom Stamm.“ Aus solchen Gründen soll ein sonst recht guter Übersetzungs-Computer „Der Geist ist willig, aber das Fleisch ist schwach.“ ins Russische als „Der Wodka ist gut, aber der Braten ist missraten.“ übersetzt haben. Für weitere Details sei u. a. auf [Völ82, 83] verwiesen. Experten besitzen ein hoch spezialisiertes Wissen, das als formalisierbar gilt, denn es besteht aus Fakten und Regeln, aus denen – ähnlich wie bei der Axiomatik – Schlussfolgerungen gezogen werden können. Deshalb sollte es auf Rechner übertragbar und dann für jedermann nutzbar sein. Wird das Wissen vieler Experten integriert, dann müssten sich auch sehr komplizierte Probleme lösen und entscheiden lassen. Derartige Expertensysteme sind besonders zur Diagnose in der Medizin, für Finanzentscheidungen, aber auch in der Chemie, Pharmazie und Geologie erprobt bzw. im Einsatz. Leider ist es erstaunlich schwierig, die Wissensbasis (Fakten und Regeln) von den Experten zu erhalten. Meist wissen sie nicht, wie und warum sie jeweils so entscheiden. Ein typisches Expertensystem besteht aus mehreren Komponenten: x Die Wissensbasis (knowledge base) enthält die Fakten und Regeln (oft > 10 000), in der Medizin z. B. Krankheitssymptome, Krankengeschichte und Laboruntersuchungen der Patienten. x Der Schlussfolgerungs-Mechanismus (inference-machine) arbeitet mit vorgegebener Strategie in Richtung auf ein Ziel. Er erzeugt die Schlussfolgerungen (Inferenzen). Für den Fall, dass kein exakter Weg zu finden ist, enthält er auch zufällige Komponenten. x Die Erklärungs-Komponente (explanation component) zeigt dem Nutzer des Programms an, durch welche Schritte es zu der Entscheidung gelangt ist. x Eine intelligente Benutzerschnittstelle (dialog management) ermöglicht den einfachen, möglichst intuitiven Umgang mit dem System. --- 315---

Die meisten Programme sind lernfähig (Wissens-Akquisition), so dass sie erfolgreiche Analysen bevorzugt weiter nutzen. Vielfach sind sie erweiterbar, um neue Erkenntnisse aufzunehmen. Oft bestehen auch Möglichkeiten zum Experimentieren (Szenarios). Neben einem ausreichenden Datenbestand ist die Geschwindigkeit bei der Vielzahl der erforderlichen Schlussfolgerungen wichtig. Hierfür wurde die Maßeinheit LIPS (logische Inferenzen je Sekunde) gebildet. Ein Mensch realisiert etwa 10 LIPS, gute Expertensysteme ermöglichen mehrere Millionen. Dennoch erreichen die Systeme – trotz ihres praktischen Nutzens – längst nicht die Komplexität menschlichen, intelligenten Denkens. Daher entwickelte bereits 1985 Dreyfus die Aussage bezüglich des grauen Wissens, auch Alltagswissen genannt [Dre85]. Es existiert im erheblichen Maße schon bei kleinen Kindern. Hierzu gehört alles, was wir nicht algorithmisch, sondern betont intuitiv tun: Die Kellnerin mit dem Tablett und das Radfahren auf einem Waldweg (Anfang Kapitel 7), aber auch der komplexe Flug einer Fliege. Die Menge derartiger Gegebenheiten ist enorm groß und daher vertritt er die Meinung, dass eher das Fachwissen eines Professors als die Intelligenz eines zweijährigen Kindes algorithmisch zu erfassen sei. So bleibt heute immer dem Nutzer des Expertensystems die letzte Entscheidung vorbehalten. Diese Entwicklung wird durch die Gegenüberstellung von Mensch und Computer besonders deutlich. Mensch

Computer, Roboter

Vorteile

x Verschiedene Methoden für Wissen und Schlussfolgerungen: z. B. assoziativ, prozedural, funktional, logik-, objektorientiert, heuristisch und nicht formal logisch: Alltagswissen, ganzheitliche Betrachtung, kein vollständiger Algorithmus erforderlich. x Zusammenhang und Kontext werden erkannt, ermöglicht Ausnutzen von Erfahrungen, schnelle Analogieschlüsse, qualitative Entscheidungen, Erkennen ungewöhnlicher Fälle, Ausnahmen und Grenzfälle. x Intuition ermöglicht Umgang mit neuen Problemen und gewinnen neuer Ideen, Lösungen und Algorithmen, erfordert kreativen Menschen, Antizipation, Heuristik. x Umgangssprache ist universell, Denken in Bildern möglich, Abstraktionsvermögen. x Benötigt keinen vollständigen Algorithmus, nutzt Heuristik, fähig zum assoziativen Kombinieren.

Nachteile

x Stark begrenzt sind Umfang der Rechnungen, Vielfalt der Kombinationen, Menge der verfügbaren Daten. x Mensch denkt und handelt vergleichsweise sehr langsam x Jeder einzelne Mensch muss mühsam Verfahren, Methoden und Algorithmen erlernen, um sie anzuwenden. Sie müssen dazu recht einfach sein. Er kann sie außerdem irgendwie wieder vergessen

x x x x x x x x x x x x x x

x x

Sehr schneller im Zugriff auf Daten. Extrem schnelle und genaue Rechnung. Hohe Genauigkeit und Zuverlässigkeit Sehr umfangreiche Speicher-Kapazität. Gute Wiederholbarkeit der Rechnungen. Bewältigung sehr hoher Komplexität. Viele Ausgaben: Text, Grafik, Video, Sound usw. Algorithmen sofort lauffähig und immer leicht kopierbar. Vorteile von Modellen (Computerexperiment). Zugriff für Menschen zu Gefährliches, zu weit Entferntes. Zeitraffer, -Lupe: für Menschen zu Langsames (Evolution: Leben/Weltall) oder zu Schnelles (Kernphysik). Voraus-, Rückschau, hypothetische Welten. Leichte Änderbarkeit des Modells˜ Technik realisiert im Wesentlichen nur was der Mensch vorschreibt. Neue Probleme, Ideen, Lösungen und Algorithmen kommen nur vom Menschen. Im Prinzip muss jeder Schritt im Voraus vorgeschrieben sein. Jedoch PseudozufallsAlgorithmen sowie trial-error. Alltags- (graues) Wissen, Bewusstsein, Intuition und (weitgehend) Emotionen sind (z. Z.) nicht formalisierbar.

In jedem Fall ist es günstig bis notwendig, beide zu kombinieren. Dazu weist die folgende Tabelle die Unterschiede aus. --- 316 ---

Kriterium Ursprung und Entwicklung

Mensch Im Laufe der Evolution entstanden Zum erfolgreichen, Verhalten wurde zufriedenem Überleben in optimiert der realen Umwelt Top-down: von ganzheitliche über komplex Ablauf der Informationsverarbeitung bis trial-error, Erfahrungen und Ursache-WirkungsAnalysen aus logischen Einzelschritten Erforderliche Funktion Verhältnis von Struktur bestimmt überwiegend die und Funktion Strukturen Chemisch, biologisch, Zustand und Änderung neuronal, physiologisch, der Informationsträger psychologisch, kognitiv, soziologisch System Gehirn und Nervensystem Methoden, Verfahren

Assoziative, intuitive und logisch neuronale Verknüpfungen

Roboter, Computer Vom Menschen zu seinem Nutzen entwickelt Als praktikable, dem Menschen nützliche Lösungen mittels Modellen Bottom-up: vom logischen Einzelschritt über strukturelle, funktionelle Einheiten und Programmierung zum komplexen Verhalten Strukturen dienen der Realisierung von Funktionen Elektronisch, physikalisch, chemisch, optisch, strukturell Vorwiegend elektronische Schaltkreise Programmiersprachen, wie LISP, PROLOG und SMALLTALK.

Völlig anders wurde der Klassifizierungsalgorithmus von Glöde-Klix entwickelt. In der DDR entstanden massenweise Röntgen-Lungen-Aufnahmen aller Bürger. Nur ein Experte in der Charite konnte hieraus intuitiv auf sichtbare Herzfehler schließen. Aus sehr vielen seiner Diagnosen ließ sich dann statistisch der Algorithmus entwickeln. So war das nur intuitive Wissen des Experten in logische Entscheidungen umgesetzt und so allgemein nutzbar gemacht. Dieser Weg ist heute viel allgemeiner mit „big data“ üblich, dürfte aber wohl kaum noch zur KI gezählt werden [Mai14]. Eine besondere Einteilung der Probleme und Lösungen bei der KI stammt von Müller aus seinen umfangreichen Untersuchungen zur technischen Konstruktion [Mül90]. Er versuchte herauszufinden, warum Konstrukteure so schwer Zugang zur Rechentechnik finden. Die gründliche, systematische Analyse ergab, dass die Konstrukteure drei unterschiedliche Prinzipien nutzen, und dass es für sie ganz wesentlich ist, leicht zwischen diesen Prinzipien wechseln zu können. 1.

2.

3.

Es gibt Teilaufgaben, die sich formal logisch berechnen und ableiten lassen. Hier greifen Programme hervorragend und führen meist wesentlich schneller zum Ziel, als wenn der Konstrukteur die hergebrachten Wege anwendet. Ein anderer Teil der Aufgaben ist methodenbestimmt. Hier können dem Ingenieur Handlungsanweisungen angeboten werden, welche die Richtung, aber nicht den Inhalt seiner Arbeit betreffen. So kann er feststellen, wo wahrscheinlich die Ursache dafür liegt, dass er keine geeignete Lösung findet. Hierzu gehören: „Präzisiere die Aufgabe, baue einen morphologischen Kasten oder versuche ein Beispiel aus anderen Gebieten zu finden“. Diese Methoden sind nicht detailliert algorithmisch bestimmt und heißen heuristisch. In den letzten Jahren sind sie klassifiziert und inhaltlich (jedoch nicht algorithmisch) beschrieben worden. So können sie interaktiv vom Rechner abgerufen werden. Methoden existieren also im Freiraum zwischen formalen Algorithmen und dem grauen Wissen. Die dritte Variante nennt Müller gefühlsmäßig entscheiden. Sie entspricht in etwa dem grauen, Erfahrungs- oder Alltagswissen. Anfangs war Müller bei seinen Untersuchungen darüber --- 317---

sehr verwundert, dass Konstrukteure selten korrekt-sachliche Gründe für eine Entscheidung aus mehreren Möglichkeiten angeben konnten. Die Antwort lautete fast immer: Es ist eben die schönste Lösung. Ihr lag dann ganzheitlich-intuitives Denken zugrunde. Recht aufschlussreich sind Betrachtungen zu den Grenzen der KI. Dazu hat bereits 1950 Turing in seiner Arbeit „Computing Machinery and Intelligence“ den ersten Test vorgestellt. In einem Dialog soll ein Prüfer P entscheiden, ob ein für ihn unsichtbares, sinnlich sonst nicht wahrnehmbares Gegenüber G ein Rechner oder ein Mensch ist. Als ein typischer Dialog wird oft genannt: P: In der ersten Zeile Ihres Sonetts „Soll ich dich einem Sommertag vergleichen“, würde da nicht ein „Herbsttag“ genauso gut oder besser passen? G: Das gäbe keinen Rhythmus. P: Wie wäre es mit einem „Wintertag“? Da wäre der Rhythmus in Ordnung. G: Sicher. Aber wer will schon mit einem Wintertag verglichen werden? P: Aber Weihnachten ist ein Wintertag, und ich glaube nicht, dass Herrn Pickwick dieser Vergleich stören würde. G: Das meinen Sie wohl nicht im Ernst. Bei „Wintertag“ denkt man an einen typischen Wintertag, nicht an Weihnachten. Widersprüche zum Turing-Test entwickelten1990 Churchland und Searl mit ihrem Chinesischen Zimmer [Chu90]. In ihm sitzt jemand völlig abgeschirmt, der kein chinesisch versteht, aber ausschließlich mittels Tabellen chinesische Fragen auf Chinesisch beantwortet. Von außen betrachtet entsteht dabei der Eindruck: das Chinesische Zimmer versteht chinesisch. Daher ist es nicht einfach zu entscheiden, wann ein Computer intelligente menschliche Leistung hervorbringt. Hierbei ist auch der Grenzübergang von Quantität in Qualität wichtig. Z. B. möge jemand in einem dunklen Zimmer sitzen und einen Magneten bewegen. Das dabei entstehende elektromagnetische Feld ruft zunächst keine wesentliche Wirkung hervor. Wenn aber der Magnet – unabhängig von der technisch möglichen Realisierung – extrem schnell bewegt würde, dann würden die elektromagnetischen Wellen Licht sein und das Zimmer erhellen. Ähnliche Effekte erwarten die Vertreter der harten KI auch bei der Steigerung der Leistungsfähigkeit von Computern. Dagegen führt Searl die Chinesische Turnhalle ein. In ihr „übersetzen“ viele Menschen parallel und daher viel leistungsfähiger genauso chinesisch. Doch selbst alle zusammen können eigentlich kein chinesisch verstehen. Weizenbaum [Wei77] hatte nach eigenen Angaben einst geglaubt, dass es, ähnlich wie bei der Shannon-Entropie, eine generelle Obergrenze für Intelligenz geben müsse. Schließlich ist er aber zur Einsicht gelangt, dass für jedes Lebewesen Intelligenz etwas ganz Spezielles und Unvergleichbares ist. Sie ist wesentlich durch die arttypischen Bedürfnisse bestimmt. Dazu blickt er auch weit in die Zukunft und lässt Roboter zu, die eigenständig sind und kollektiv zusammenwirken. Sie wären dann so etwas wie eine Art bei den Lebewesen. Doch ihre roboterhafte Intelligenz müsste völlig anderer Art als die menschliche Intelligenz sein. Seine kritische Haltung ist dabei wesentlich durch sein Programm „Eliza“ entstanden. Mit ihm versuchte er Sprachverstehen zu simulieren. Als Vorbild nahm er Eliza Doolittle aus „My Fair Lady“. Das Programm von 1963 verfolgt nur drei einfache Strategien: 1. Im Dialog sucht im Eingabetext nach im Programm gespeicherten Schlüsselwörtern und erzeugt daraus Fragen, z. B. von Mutter zu Familie. 2. Wenn es keine Schlüsselwörter findet, benutzt es ausweichende Wendungen oder 3. lenkt auf allgemeingültige, oft triviale Themen hin. Die Person F beginnt und Eiliza antwortet: Ein typischer Dialog lautet daher so: F: ELIZA:

Männer sind alle gleich. Inwiefern? --- 318 ---

F: Sie drängen uns immer zu etwas. ELIZA: Können Sie mir ein Beispiel sagen? F: Ja, mein Freund hat mich überredet, hierher zu kommen. ELIZA: Ihr Freund hat Sie überredet, hierher zu kommen? F: Er sagt, ich bin immer depressiv. ELIZA: Das tut mir leid, dass Sie immer depressiv sind. F: Das ist wahr, ich bin unglücklich. ELIZA: Glauben Sie, ich kann Ihnen helfen, nicht mehr unglücklich zu sein? F: Ich brauche etwas Hilfe, das ist wenigstens sicher. ELIZA: Was würde es Ihnen bedeuten, wenn Sie Hilfe bekämen? F: Vielleicht würde ich lernen, mit meiner Mutter besser auszukommen. ELIZA: Erzählen Sie mir mehr über ihre Familie. Zu seiner Bestürzung nahm bereits seine Sekretärin den ersten Testdialog sehr ernst, und bat nach wenigen Schritten: „Herr Weizenbaum lassen Sie mich bitte allein, der Computer gelangt an meine Privatsphäre“. Doch noch mehr entsetzt war er, als wenig später Psychologen das Programm ernsthaft in ihre Praxis einführen wollten.

7.8 Ausgewählte Anwendungen Die V-Information hat über das bereits Dargestellte hinaus noch viele interessante bis nützliche Anwendungen gefunden, und es wird gewiss noch viel mehr entstehen. Eine Prognose dazu ist kaum möglich und sehr unsicher. Von den vielen bereits vorhandenen Gegebenheiten können im Folgenden nur noch wenige angedeutet werden.

7.8.1 Spiele für künstliches Leben Zum Spielen gehört eine umfangreiche Theorie, außerdem gibt es eine große Vielfalt von Spielen. Hier wird davon nur der sehr kleine Teil ausgewählt, der Rechner erfordert und Bezüge zum Leben hat. Am ältesten dürfte dabei das HundFlöhe-Spiel nach Ehrenfest sein, auch wenn es zunächst noch ganz manuell, ohne Rechner durchgeführt wurde (Abschnitt 2.5). Einigen Lebensprozessen näher ist bereits das 1970 von Conway erfundene „life“, das ganz zu Anfang auch rein manuell im Massachusetts Institute of Technology (MIT) gespielt wurde. Es zählt zu den Zellular-Automaten und nutzt ein quadratisches Rasterfeld gemäß Bild 55. Jedes einzelne Quadrat kann leer oder mit Leben belegt sein. Bild 55. Quadratisches Rasterfeld für das Spiel life. Life wird getaktet gespielt. Jeder Takt entspricht einer Generation des Lebens. Für jede einzelne Zelle wird dabei in jeder Generation zunächst zweierlei festgestellt: a) Ist die aktuelle, ausgewählte Zelle belegt? b) Wie viele der 8 Nachbarzellen sind belegt? Daraus ergeben drei Regeln für die aktuelle Zelle in der nächsten Generation (Bild 56): x x x

Geburt: Sie erfolgt, wenn die Zentralzelle „leer“ (tot) ist, aber genau drei Nachbarzellen mit Leben belegt sind. Sie wird so „befruchtet“ und gewinnt Leben. Überleben: Die belebte Zentralzelle bleibt dann am Leben, wenn sie zwei oder drei belebte Nachbarzellen hat. Sie fühlt sich „kollektiv“ umgeben wohl und lebt daher weiter. Tod: Die belebte Zentralzelle hat keine oder nur eine belebte Nachbarzelle. Sie fühlt sich einsam und stirbt daher. Bei vier oder mehr belebten Nachbarzellen verhungert sie.

Bild 56. Die Übergangsvarianten. --- 319---

Für den Spielablauf (Verhalten von Lebensgemeinschaften) sind zusammenhängende Strukturen aus mehreren belegten Zellen wichtig. Es treten folgende Hauptvarianten auf: 1. aussterbende Strukturen (a + f), 2. oszillierende Strukturen (c und e), 3. unveränderliche Strukturen (b und d), 4. sich in der Ebene (Raum, Raster) bewegende Strukturen (g), 5. Strukturen, die ständig neue gebären, 6. Strukturen, die andere vernichten und sich dabei nur vorübergehend ändern, 7. Strukturen, die niemals im Ablauf vorkommen können (h). Für die ersten 4 Strukturen zeigt Bild 57 einige der vielen Varianten. Ein Beispiel für die Variante 5. zeigt Bild 58. Es werden fortlaufend Gleiter erzeugt, die dann mit wechselnder Gestalt nach rechts fortwandern. Bei der Variante 6. sind die Zusammenhänge noch komplexer. Sie fehlen daher im Bild. Viele Details zu life enthält [Ada10].

Bild 57. Einige Strukturvarianten von life. Zuweilen werden die Strukturen auch „soziologisch“ interpretiert. Auffällig ist dabei zunächst, dass vereinzelte „Lebewesen“ (Single, Aussteiger) schnell untergehen. Das gilt sogar für zwei zusammengehörende. Die sich verändernden Strukturen werden dann als Kulturwandel interpretiert. Die Gleiter-Kanonen werden mit Ausweisungen oder Emigration verknüpft. Strukturen, die andere vernichten, entsprechen Mord bis Krieg. Für die nicht möglichen Strukturen sei noch erwähnt, dass auch für life keine Rückrechnung möglich ist, nicht einmal dann, wenn das ganze Feld bekannt ist (s. Kapitel 6, Anfang). Bild 58. Beispiel einer Gleiter-Kanone. Die meisten Ergebnisse zu life entstanden mit der Einführung der Großrechentechnik in den 1970er Jahren. Conway stellte für jede neue Struktur 5 bzw. 50 $ bereit. So wurde nachts in fast allen --- 320 ---

Rechenzentren illegal in erheblichem Umfang danach gesucht. Seit geraumer Zeit sind daher fast alle Lösungen bekannt. Wegen der vielen interessanten Ergebnisse, den beginnenden Möglichkeiten auf PCs und Heim-Computern wurden bald auch Varianten mit anderen Festlegungen und in drei Dimensionen erprobt. Doch alle erlangten nicht annähernd das Interesse von life. Hier ist vor allem noch eine Variante Gardners von 1983 zu nennen. Dabei wird ein zellularer Automat benutzt. Die Zelle in der nächsten (tieferen) Zeile ist abhängig von den drei Zellen darüber: Eine Leerstelle entsteht dann, wenn darüber keine oder 3 Zellen besetzt sind, eine besetzte, wenn dort 1 oder 2 Zellen belegt sind. Hierbei führen 2 Startzellen zum Fraktal des Sierpinski-Dreiecks. Eine deutlich andere Weiterentwicklung schufen Eigen/Winkler [Eig83]. Sie existiert in vier aufeinander folgenden Varianten und ermöglicht schließlich die Evolution mit Mutationen zu simulieren. Es werden zwei Urnen U1 und U2, n ununterscheidbare Kugeln und ein Zufallsgenerator mit 0, 1 benutzt. Beim ersten Spiel wandert eine Kugel bei 1 von Kasten U1 э U2, sonst umgekehrt. Es entsteht eine Rechteckverteilung, die durch alle möglichen Zustände driftet. Das zweite Spiel benutzt m Kugelsorten mit n Kugeln je Sorte. Zu Beginn befindet sich in U1 eine Kugel jeder Sorte. Wiederholt wird dann zufällig eine Kugel aus U1 gezogen. Beim ungeraden Zug wird die Kugelart in U1 verdoppelt, beim geraden Zug wird die Kugel ohne Ersatz in U2 gelegt. Hierbei vergrößert sich die Anzahl einer Sorte und eine andere stirbt aus. Schließlich überlebt nur eine Sorte, welche es ist, hängt vom Zufall ab. Beim dritten Spiel wird zusätzlich die Wahrscheinlichkeit p eingeführt. Damit werden neue Sorten m+1, m+2 usw. eingeführt. Hierbei stirbt jede Sorte aus, aber immer existiert eine Sorte besonders häufig. Beim vierten Spiel kommen noch je Sorte Verlust- und Gewinnraten Wi hinzu. Dann treten Überleben bzw. Aussterben der Sorte mit zusätzlicher Mutation und Auslese auf. Diese Entwicklungen haben schließlich zum Begriff Künstliches Leben (KI) geführt [Lev93]. Bald danach wurde aber kaum noch etwas Neues dazu bekannt.

7.8.2 Erzeugung kunstähnlicher Werke Eine Anwendung der Shannon-Theorie auf Kunstwerke ist nahezu von Beginn an versucht. Dazu sind mehrere Beispiele im Abschnitt 5.7 behandelt. Sie benutzen fast immer eine statische Analyse. So wie es allgemein üblich ist, von der Analyse zur Synthese überzugehen, so erfolgten auch sehr früh Versuche hiermit so etwas wie Kunstwerke zu generieren. Zunächst geschah das natürlich auf sehr niedrigem Niveau. Mit der Statistik und den Übergangsstatistiken bei Buchstaben hat es bereits Shannon versucht. Nur wenig später und fast gleichartig hat es Küpfmüller dann für die deutsche Sprache getan. Wären alle Buchstaben gleichwahrscheinlich, so ergab sich ohne Trennzeichen: ITVWDGAKNAJTSQOSRMOIAQVFWTKHXD

Mit den Häufigkeiten der Zeichen entstand dann EME GKNEET ERS TITBL VTZENFNDGBD EAI E LASZ BETEATR IASMIRCH EGEOM

Wird die Statistik der Übergänge zwischen den Buchstaben berücksichtigt (vgl. Bild 67), so folgt: AUSZ KEINU WONDINGLIN DUFRN ISAR STEISBERER ITEHM ANORER

Als nächstes kann dann die Häufigkeit nach zwei feststehenden Buchstaben genutzt werden (also die 2. Markow-Kette): PLAZEUNDGES PHIN INE UNDEN ÜBBEICHT GES AUF ES SO UNG GAN WANDERSSO

Auch der Ratetest von Bild 5.112 gilt hier und für die längere feststehende Zeichenkette (3. Markow-Kette) ergibt dann: ICH FOLGEMÄSZIG BIS STEHEN DISPONIN SEELE NAMEN

Bereits hier liegt ein fast sinnvoller Text vor, der vermuten lässt, dass eine Fortsetzung wirklich sinnvolle Texte ergeben könnte. Den Weg beschrieb bereits 1729 Swift in seinen „Reisen in verschiedene fern gelegene Länder der Erde des Capitains Lemuel Gulliver“ im Kapitel: Die Wissenschaftsmaschine wird vorgestellt. Hierzu gibt es ein Bild von Grandville (Bild 60). --- 321---

Bild 59. Zeichenfolge der 1. Stufe bei deutschen Texten.

Der erste Professor, den ich sah, befand sich in einem großen Zimmer, und war von vierzig Schülern umgeben. Nach einer gewöhnlichen Begrüßung bemerkte er, daß ich ernstlich einen Rahmen betrachtete, welcher den größten Teil des Zimmers in Länge und Breite ausfüllte, und sagte: Ich wundere mich vielleicht, daß er sich mit einem Projekt beschäftigte, die spekulativen Wissenschaften durch praktische und mechanische Operationen zu verbessern. Die Welt werde aber bald die Nützlichkeit dieses Verfahrens bemerken. Er schmeichle sich mit dem Gedanken, daß eine höhere und edlere Idee noch nie aus dem Gehirn eines Menschen entsprungen sei. Ein jeder wisse, wieviel Mühe die gewöhnliche Erlernung der Künste und Wissenschaften bei den Menschen erfordere, er sei überzeugt, durch seine Erfindung werde die ungebildetste Person bei mäßigen Kosten und einiger körperlicher Anstrengung Bücher über Philosophie, Poesie, Mathematik und Theologie ohne die geringste Hilfe des Genies oder der Studien schreiben können. Er führte mich an einen Rahmen, wo alle seine Schüler in Reihen aufgestellt waren. Der Rahmen enthielt zwanzig Quadratfuß und befand sich in der Mitte des Zimmers. Die Oberfläche bestand aus einzelnen Holzstückchen von der Dicke eines Würfels, von denen jedoch einzelne größer als andere waren. Sie waren sämtlich durch leichte Drähte miteinander verknüpft. Diese Holzstücke waren an jedem Viereck mit überklebtem Papier bedeckt, und auf diesen Papieren waren alle Wörter der Landessprache in Konjugationen und Deklination, jedoch ohne alle Ordnung aufgeschrieben. Der Professor bat mich, acht zu geben, da er seine Maschine in Bewegung setzten wollte. Jeder Zögling nahm auf seinem Befehl einen eisernen Griff zur Hand, von denen vierzig am Rand befestigt waren. Durch eine plötzliche Umwendung wurde die ganze Anordnung verändert. Alsdann befahl er sechzehn Knaben, die verschiedenen Zeilen langsam zu lesen, und wenn sie drei --- 322 ---

oder vier Wörter aufgefunden hatten, die einen Satz bilden konnten, diktierten sie dieselben vier anderen Knaben, welche dieselben niederschrieben. Die Arbeit wurde drei oder viermal wiederholt. Die Maschine war aber so eingerichtet, daß die Wörter bei jeder Umdrehung einen neuen Platz einnahmen, so wie das ganze Viereck sich von oben nach unten drehte. Sechs Stunden mußten die Schüler täglich bei der Arbeit zubringen. Der Professor zeigte mir mehrere Folianten, welche auf diese Weise aus abgebrochenen Sätzen gebildet waren, und die er zusammenstellen wollte. Aus diesem reichen Material werde er einen vollständigen Inbegriff aller Künste und Wissenschaften bilden; Ein Verfahren, daß er jedoch verbessern und schneller beenden würde, wenn das Publikum ein Kapital zusammenbringen wollte, um fünfhundert solcher Rahmen in Lagado zu errichten, und wenn man die Unternehmer zwingen werde, in ihren verschiedenen Kollektiven die gehörige Summe beizusteuern. Er gab mir die Versicherung, diese Erfindung habe schon von Jugend auf alle seine Gedanken in Anspruch genommen; er habe seinen Rahmen so eingerichtet, daß er den ganzen Sprachreichtum umfasse, und sogar das allgemeine Verhältnis berechnet, welches in Büchern hinsichtlich der Anzahl von Partikeln, Haupt- und Zeitwörtern und anderen Redeteilen stattfinde.

Bild 60. Grandville zu Swifts Reisen. Bereits um 1967 wurden u. a. von Stichel auf einer IBM 7090 erste Gedichte erzeugt. Aus knapp 1200 entstand z. B. in 0,25 Sekunden das rechts stehende Autopoem. [Sti67]. Eine dafür etwa typische Struktur weist mein Gedichtgenerator für Kleinst-Computer von etwa 1985 aus (Bild 61) [Völ90]. In die einzelnen Kästchen werden zu Beginn Wörter der entsprechenden Wortarten eingetragen. Der Zufallsgenerator wählt dann ein Wort und einen Ausgang zu Fortsetzung aus. Das geschieht so lange bis das Ende erreicht ist. Bei „Jugend forscht“ wurde 1988 sogar ein Gedichtgenerator ausgezeichnet [ZZ88]. Auch für Bilder gibt es ähnliche Versuche. Besonders erfolgreich war hier Nake [Nak74]. Sein Bild 62 hat Berühmtheit erlangt und erreichte sogar Museen. --- 323---

Bild 61. Ein typischer Gedichtsgenerator [Völ90].

Bild 62. Das berühmte Computerbild von Frieder Nake. Auch vor der Musik machte diese Entwicklung keinen Halt. Bereits Mozart schrieb dazu sein KV 294d und mehrere Zeitgenossen u. a. Kirnberger folgten ihm: Es wurden Tabellen für einzelne Musiktakte geschrieben und nummeriert. Die statistische Auswahl erfolgte damals noch durch Würfeln. Der wahrscheinlich erste erfolgreiche Einsatz vom Computer erfolgte von L. A. Hiller jr. mit seiner ILLIAC-Suite für Streichquartett [Hil59]. Um 1960 wurden dann Tausende von Schlager komponiert. Davon wählten Kenner zehn aus, ließen sie von den besten Arrangeuren bearbeiten und von bekannten Orchestern spielen. Alle sind dann erfolgreich in der Hitparade gelaufen. Um 1970 war u. a. Kupper recht erfolgreich in klassischer Musik [Kup59]. Heute sind solche Techniken auf vielen Gebieten so weit fortgeschritten, dass praktisch kein Überblick mehr möglich ist. --- 324 ---

7.9 Zusammenfassung Für die V-Information sind drei Gebiete mit ihren Grenzen und deren Ausweitung wesentlich: 1. 2.

3.

Unsere physiologischen Wahrnehmungs- und Handlungsmöglichkeiten lassen sich technisch durch Sensoren und Aktoren (HID: human interface device) deutlich erweitern. Die reale Welt ist durch ihre stofflich-energetischen Grundlagen und Zusammenhänge bestimmt. In guter Näherung gelten dafür die heutigen Naturgesetze. Zu ihr gehören auch alle stofflich-energetischen Objekte, Werkzeuge, Maschinen usw., also auch Roboter. Virtuelle Welten, die von uns schon sehr lange rein anschaulich, verbal, bildlich und mathematisch begründet wurden, zunächst aber nur geistig nachvollziehbar waren. Mittels der Rechentechnik und angepasster Peripherien: Monitore, Display-Brillen, VRD (virtual retinal display), Lautsprecher, Kopfhörer, elektronische Handschuhe, Bekleidung (wearables) usw.) wurden sie im Sinne der V-Information für uns unmittelbar wahrnehmbar und für Handlungen zugänglich.

Die Grenzen der V-Information sind zunächst durch unsere Vorstellungskraft, Phantasie und Antizipation nahezu unbegrenzt. Technisch umsetzbar sind sie aber erst dann – weil wir nur begrenzt warten können – wenn die entsprechenden Rechnungen feasable sind. Wesentlich ist dabei die Rekursion. Den Zusammenhang von Realität, Virtualität und Mathematik zeigt Bild 63. So sind Objekte und Zusammenhänge möglich, die den Naturgesetzen widersprechen. Dazu gehören vor allem Inhalte und Aussagen, die stofflich-energetisch nicht auftreten können. Z. B. können virtuelle Objekte (Zeichen) einfach spur- und wirkungslos verschwinden oder ohne Energie verändert werden. Solche Möglichkeiten sind in virtuellen Welten (science fiction) bereits vielfach z. B. in Filmen vorgestellt und erprobt worden. Wie schön wäre es z. B., wenn so der viele, von der Menschheit verursachte Müll beseitigt werden könnte. Eine frühe Variante sind hierbei die Fraktale, für die sich aber schnell eine Analogie zum Leben herausstellte. So konnte auch Leben verallgemeinert als „künstliches Leben“ eingeführt werden. Die wohl erste virtuelle Variante hierfür stammt als life von Conway von 1980. Eigen hat das Modell weiter entwickelt und kann dann sogar Evolution simulieren. In den virtuellen Welten können auch mehrere Menschen mitund gegeneinander kommunizieren und handeln, und zwar analog wie in der realen Welt. Große Bedeutung für die Nutzung von V-Information hat auch die Künstliche Intelligenz. So können z. B. mittels rechentechnischer Anwendungen die geistigen Leistungen des Menschen deutlich vergrößert und teilweise automatisiert werden. Die Kombination von Rechner und Computer kann dabei äußerst vorteilhaft sein.

Bild 63. Zusammenhänge von realer und virtueller Welt, sowie deren Kontext zu Mathematik und Rechentechnik. --- 325---

Infolge des sehr großen Datenaufkommens ist als neuer Zweig „big data“ entstanden. Dabei wird aber zuweilen unverstandene Software für neue Inhalte und Zusammenhänge benutzt. So bleibt oft unbeachtet, dass numerische Aussagen oft nur dann „sinnvoll“ sind, wenn zuvor feststeht, dass auch wirklich eine Lösung existiert. Sonst entspricht der Computer-Einsatz nur einem Probieren. Zuweilen kann aber ein Versuch erzwungen werden, nämlich Probleme dann, wenn etwas dringend zu behandeln ist, bevor theoretische Grundlagen erreicht wurden. Das kann gefährlich sein, bietet aber möglicherweise wertvolle Hinweise für eine Theorie. Da die V-Information relativ neu ist, können ihre Grenzen noch nicht abgesteckt werden.

8. Quantentheorie Der sechzehnjährige Planck fragte 1874 nach seinem Abitur den Physiker Jolly, ob er Physik studieren sollte, und erhielt den Rat: „Studieren Sie ja nicht Physik. Das ist doch ein Gebiet, in dem alles Wesentliche erforscht ist, nur einige unbedeutende Lücken sind noch zu füllen“. Es ist nicht bekannt, ob Jolly auch ausgewählte Probleme nannte. Damals wurde alles mit t-kontinierlichen Differentialgleichungen beschrieben. Wahrscheinlich hätte er die folgenden drei Gebiete genannt: 1. Schallwellen breiten sich per Druckkompression in allen Medien aus. Aber für elektromagnetische Wellen ist kein typisches Ausbreitungsmedium zu finden. Alle Varianten eines angenommenen Äthers führen nur zu Widersprüchen. 2. Die thermische Strahlung von Festkörpern zeigt einen kontinuierlichen Wellenlängenverlauf, für dessen Gesamtheit es aber keine brauchbare Formel gab. 3. Warum sind viele Spektren der Strahlungen (z. B. bei Gasentladungen) zwar feststehend diskret, aber ohne eine erkennbare Ordnung? Dafür gab es damals sehr umfangreiche Spektralatlanten, die es ermöglichten, auf die dabei mitwirkenden Elemente zu schließen. Den ersten Punkt klärte Einstein mit seiner Allgemeinen Relativitätstheorie: Es gibt keinen Äther, elektromagnetische Wellen breiten sich immer mit genau Lichtgeschwindigkeit aus. Für den zweiten Punkt muss vom so genannten „Schwarzen Körper“ ausgegangen werden. Gemäß Bild 1 ist es ein kugelförmiger aufheizbarer Hohlkörper, der Innen vollständig mit Russ geschwärzt ist und nur ein kleines Loch besitzt. Bei Zimmertemperatur erscheint das Loch tiefschwarz (schwärzer als der beste Samt), denn alles eintretende Licht wird innen voll absorbiert. Wird der Schwarze Körper aufgeheizt, so emittiert er je nach Temperatur sein typisches Strahlungsspektrum (b). Bis 1900 waren dafür nur die Näherungsformeln von Raleigh-Jeans und Wien bekannt. Sie gelten aber nur für stark eingeschränkte Bereiche (c). In den Formeln (rechts) bedeuten v Frequenz des Lichts, T absolute Temperatur, h Plancksche Konstante, c Lichtgeschwindigkeit und k Boltzmann-Konstante. Planck fand nun – wie er es selber ausdrückte „mit einem Akt der Verzweiflung“ – die voll gültige Strahlungsformel. Sie unterscheidet sich nur in den rot bzw. grün gekennzeichneten Teilen von den beiden älteren Formeln [Ger97]. Dabei wurde angenommen, dass die Energie grundsätzlich ein Kontinuum von Werten annehmen kann und dann proportional dem Amplitudenquadrat sei. Das Revolutionäre an der Formel ist, dass diskrete Energiequanten E = h˜v (Einstein nannte sie später Photonen) erforderlich sind, was eine diskret gequantelte Physik verlangt. Plancks grundlegender Vortrag fand am 14.12.1900 in der Physikalischen Gesellschaft Berlin statt. Damit war – wenn auch nur indirekt – eine (neuartige) Quantentheorie eingeleitet. Auf ungewöhnliche Weise löste sie schließlich auch das dritte Problem. --- 326 ---

Bild 1. Der Schwarze Körper und die Varianten seiner Strahlungsformeln. Im Mai 1925 hatte Heisenberg (Born’s Assistent) sehr starken Heuschnupfen. Er lässt sich beurlauben und fährt nach Helgoland. Dort beschäftigt er sich mit den diskreten Spektren. Dabei ersetzt er die Observablen (beobachtbare Größen) durch Zahlenanordnungen. So erhält er Ergebnisse, die sehr gut mit den Experimenten übereinstimmen. Bei der Rückkehr erkennt Born, dass die bei Mathematikern bekannte Matrizenrechnung benutzt wurde. Trotzdem ist zunächst keine Interpretation des Modells möglich. Gemeinsam mit Born und Jordan entsteht hieraus schließlich die Matrizenmechanik. Born weist darauf hin, dass für die Matrizenrechnung nicht das kommunikative Gesetz: a*b = b*a, sondern statt dessen a*b - b*a = H z 0 gilt. Deshalb steht diese Beziehung ins Physikalische umgesetzt auf seinem Grabstein in Göttingen (Bild 2). Ohne vorher Born zu verständigen publiziert Heisenberg dann „seine“ Unschärfe-Relation 'W˜'t t h. Das führt zu einem gewissen Verwürfnis. Alsbald wechselt er zu Bohr nach Kopenhagen. Schon vorher kann Pauli ohne zusätzliche Annahmen exakt das Wasserstoffspektrum berechnen (Bild 3). Bild 2. Borns Grabstein in Göttingen.

Bild 3. Das Wasserstoffspektrum folgt aus den Energietermen der einzelnen Elektronenbahnen. --- 327---

8.1 Schrödinger-Gleichung 1923 stellt de Broglie die Hypothese von Materiewellen auf. Aus W = m˜c2 und W = h˜Q leitet er O = h/m˜v ab. Damit gehört zu jedem mit v bewegtem Körper (Korpuskel) eine Welle O. Im November 1925 hielt Schrödinger in Zürich ein Seminar zu de Broglies Arbeit ab. Nachher fragte der Institutsleiter Debye: „Sie sprechen über Wellen, aber wo ist die Wellengleichung, die beschreibt, wie sich die Wellen im Raum fortpflanzen?“ Daraufhin schuf Schrödinger als Weiterentwicklung der klassischen Wellengleichung die Schrödinger-Gleichung der Quantenphysik, wozu er auch Hinweise von Einstein erhalten haben soll.

’\

W  U ˜\ ˜

2˜m . h2

Hierin bedeuten W die Gesamtenergie, U die potentielle Energie, \ die Wellenfunktion und ’ (sprich Nabla) den Operator der zweifachen partiellen Ableitung nach den Raumkoordinaten: w2 w2 w2 ’  2  2 . 2 wx wy wz Sehr bald zeigte sich, dass Wellengleichung und Matrizenmechanik immer gleichwertige Ergebnisse liefern. Fragen nach der Realität der eingeführten Materiewellen erweisen sich aber zunächst als sinnlos. Jedoch 1927 finden Davisson und Germer experimentell zufällig Beugungen von Elektronen und Atomen an Kristallen als Bestätigung für die Materiewellen. So kann auch das Doppelspaltexperiment erklärt werden und es wird das Doppelbild von Welle und (statt oder) Teilchen notwendig. Damit ist die Welt sowohl kontinuierlich als auch diskret. Eine technische Anwendung ist das Elektronenmikroskop mit extrem hoher Auflösung: Während die Lichtwellenlänge |6˜10-7 m beträgt, besitzen Elektronen mit 50 kV Beschleunigung nur ca. 5˜10-12 m. Für das Verhältnis von „klassischer“ zu „neuer“ Physik entwickelt daraufhin Bohr das Komplementaritäts- bzw. Korrespondenzprinzip. Beide Weltbetrachtungen verhalten sich zueinander wie Analogien. So ist ein Erraten der Quantengesetze möglich: Was in der klassischen Physik eine Schwingung ist, zu der Grundwelle und Oberwelle gehören, entspricht in der neuen Physik den Auswahlregeln für Atombzw. Quantenzustände, also den Übergängen zwischen den stabilen Bahnen der Atome. Jede Bahn bedeutet einen Energiezustand des Atoms. Die Quantenzahlen sind ganzzahlige Vielfache, die sich beim Umlauf einpassen müssen. Doch erst 1944 weist Neumann die mathematische Äquivalenz von Matrizenmechanik und Wellengleichung nach. 1927 interpretiert Born die Wellenfunktion: Sie bestimmt die Bewegung der Teilchen. Das BetragsQuadrat der Zustandsfunktion ist die Aufenthalts-Wahrscheinlichkeit des Teilchens im Volumen V:

dW \ ˜ dV . 2

Diese Wahrscheinlichkeit unterscheidet sich jedoch deutlich von der klassischen Variante. Diese a priori Wahrscheinlichkeit setzt zumindest theoretisch deterministische Zusammenhänge voraus und beruht daher „nur“ auf Wissensmangel in allen Details. Dagegen ist die quantenphysikalische Wahrscheinlichkeit absolut. Für ihr Eintreten sind grundsätzlich keine Ursachen vorhanden. Wann und weshalb ein Atom durch Radioaktivität zerfällt ist daher prinzipiell nicht ermittelbar. Das bedeutet jedoch kein Nichtwissen. Diese absolute Wahrscheinlichkeit stellt einfach alles dar, was wir je über das Quantensystem wissen können, aber z.T. nicht erfahren werden. Die Wellenfunktion \ beschreibt also nicht den Zustand eines Quantenobjekts, sondern gibt nur die Wahrscheinlichkeit dafür an, was bei einer makroskopischen Messung des Objekts erhalten werden kann. Eigentlich existieren daher keine Elektronenbahnen und Schalen mehr. Die Elektronen befinden sich im Raum um den Atomkern mit unterschiedlicher Wahrscheinlichkeit. Das führt zu den Orbitalen (lateinisch orbis Umlauf), die inzwischen für die Chemie unentbehrlich wurden (Bild 4). Die Schalen, in denen sich die Elektronen bewegen, sind so gesehen nur abstrakte Mittelwerte. Folgen sind das Bändermodell der Halbleiter, der Tunneleffekt und die Supraleitung. Es gibt nur noch Wahrscheinlichkeitsaussagen und unser Alltag ist die wahrscheinlichste aller Welten. Dennoch ist die Quanten--- 328 ---

physik sehr genau gültig. Gegenüber der Thermodynamik besteht ein deutlicher Unterschied. Boltzmann stellt die kausalen Gesetze an den Beginn seiner Betrachtungen und leitet dann Durchschnittswerte ab. Für die Quantentheorie gilt das Gegenteil: Ihre Grundaussagen betreffen Durchschnittswerte, und spezielle Einzelwerte erscheinen infolge einer statistischen Aufsummierung kausalartig. Ferner ist zu beachten, dass trotz der Quantentheorie und Zufall immer nur ein einziger Weltverlauf geschieht.

Bild 4. Zum Zusammenhang zwischen Elektronenbahnen und Schalen zu den Orbitalen und Wahrscheinlichkeitsverteilungen.

8.2 Dirac-Schreibweise Die Matrizenmechanik von Heisenberg ist seit langen durch die Wellengleichung von Schrödinger ersetzt. Mit ihr sind die Rechnungen viel einfacher. Einen deutlich anderen Weg für deren Inhalte schuf 1958 Dirac mit einer eleganten, aber stark abstrakten Schreibweise. Sie benutzt einen komplexen Wert [ = a + b˜i mit i =—-1. Für die Zeile der Matrix wird ¢[_ (gesprochen bra)und für die Spalte |[² (gesprochen ket) eingeführt. Besonders übersichtlich ist sie für die einfachsten quantenphysikalischen Systeme mit nur zwei orthogonalen Zuständen, den Standardzuständen |0² und |1². Für den Elektronenspin gilt entsprechend up |n² und down |p², bei einer polarisierten Welle horizontal |l² und vertikal |7². Schematisch gilt die folgende Tabelle: Abstraktes (binäres) System |0² |1²

Elektronenspin

Photon-Polarisation

Atomares System*)

up |n² down |p²

Grundzustand angeregter Zustand

Standardbeschreibung

STERN-GERLACH-Versuch

horizontal |l² vertikal |7² Polarisator

Energieterme

*) Hier liegt eine starke Vereinfachung vor. Für den Betrag der Matrix gilt ¢[|[² (gesprochen bra-ket, englisch Klammer). Für die SchrödingerGleichung mit den zwei Lösungen (Zustände) A und B, ist dann ¢A|B² ihr Skalar-Produkt. Für ein gegenüber allen Einwirkungen von der Außenwelt abgeschirmtes Quantensystem gilt --- 329---

< = c1˜|A² + c2˜|B² mit c12 + c22 = 1. Darin sind c1 und c2 beliebige, (reelle) frei verfügbare Konstanten. Das bedeutet: Alle möglichen Quantenzustände existieren gleichzeitig (parallel). Sie sind überlagert, was als Superposition bezeichnet und zuweilen nach Bloch als Bloch-Kugel dargestellt wird. Die Superposition kann damit durch alle Punkte auf der Kreisoberfläche mit r = ¢A|B² veranschaulicht werden. Am oberen „Nordpol“ befindet sich der eine Zustand (z. B. A), am unteren „Südpol“ der andere (B). Wird ein System mit Superposition durch eine (thermische) Störung oder andere externe Einwirkung, z. B. makroskopische Messung beeinflusst, so tritt ein einzelner, absolut zufälliger makroskopischer Zustand auf. Ein QuBit steht also so lange fest, wie kein Einfluss von Außen stattfindet. Deshalb sind fast immer die extrem tiefen Temperaturen von nK bis mK notwendig. Sie können nur mit komplizierter mehrstufiger Kühlung hergestellt und erhalten werden. Die Folge einer Einwirkung auf das QuBit ist die Dekohärenz als aufgehobene Superposition. In allen Fällen gibt es daher eine Dekohärenzzeit tDe. So ist z. B. die Superposition zweier Zustände mit 1 g Masse und 1 cm Durchmesser bereits nach ca. 10-23 s zerstört. Annähernd gilt: je größer die Masse, desto kürzer ist die Zeit. Aber die jeweils typischen Dekohärenzzeiten hängen auch erheblich vom verwendeten Quantensystem ab. Die besten Werte wurden bisher beim gut „abgeschirmten“ Kernspin mit etwa 10 s erreicht (s. u.). In sehr weit gefasster Analogie ähnelt daher jede Messung an einem Quantensystem der zerstörenden Wiedergabe beim dRAM oder Ferritkernspeicher. Im Gegensatz dazu ist aber kein „Refresh“ möglich, das dann ja die unendlich vielen Zustände der vorhergehenden Superposition und die tiefe Temperatur wieder herstellen müsste. Deshalb ist auch technisch keine Kopie (Vervielfältigung, Klonen, Backup) der Superposition möglich. Selbst eine Fehlerkorrektur dürfte kaum möglich sein. Diese Fakten sind auch eine Folge der Heisenberg-Unschärfe. Daher werden QuBit fast nur zur Datenübertragung mit Kryptografie (auf die hier aber absichtlich nicht eingegangen wird) und vielleicht einmal in zukünftigen Computern. Jedoch ist die Quantentheorie die am besten bestätigte physikalische Theorie. Trotz der vielen „Unbestimmtheiten“ wurde 1995 von Benjamin W. Schumacher für den Zustand der Superposition der Begriff quantenphysikalisches Bit: QuBit geprägt [Sch95a]. Gebräuchlich sind auch qbit, QBit, Qbit usw. Es kann folgendermaßen geschrieben werden (s. o.): QuBit = {c1|0² + c2|1²}. Eine makroskopische Messung ermittelt nur einen einzigen Wert x = c1m˜0+c2m˜1, der im abgeschlossenen Intervall [-1 ... r0 ... +1] liegt. Weitere Betrachtungen hierzu enthalten u. a. D. Bruß [Bru03] und H. Lyre [LYR98]. Bereits hier sei betont, dass kein Bezug zu dem in diesem Buch exakt definierten Informationsbegriff – und zwar zu keiner Variante – herzustellen ist (s. Kapitel 9).

8.3 Veranschaulichung des QuBit Vor dem Kinofilm gab es das Kinderspielzeug Traumaskop mit dem Bewegung vorgetäuscht werden kann [Völ05], S. 541. Sein Prinzip demonstriert Bild 5a. Auf einem Faden ist eine Scheibe befestigt, die vorne und hinten je ein Bild trägt. Besitzt der hinten befindliche, in a) nicht zu sehende Baum eine etwas verschobene Baumkrone, so ergibt sich durch schnelles Drehen des Fadens zwischen Daumen und Zeigefinger die Erscheinung eines im Wind bewegten Baumes. Übliche Darstellungen waren damals Jonglieren, Hüpfen, Tanzen, Hofknicks, Abschied usw. Eine etwas andere Anwendung ergänzt zwei Teilbilder zu einem Ganzen (b). Für die Darstellung der Superposition gemäß der obigen Gleichung muss ein Doppeltraumaskop (c) geschaffen werden. Wegen der obigen Gleichung müssen die beiden Achsen (c1, c2) senkrecht zueinander stehen. Außerdem müssen sich die beiden Motoren unterschiedlich schnell drehen. Die Belegung der beiden Scheiben erfolge z. B. so, wie es (d) zeigt. Durch die Rotation der beiden Motoren ergeben sich dann sichtbare Bildreihen für die Zustände von A und B. Mit Blitzaufnahmen können einzelne Beispielzustände gemäß (e) gewonnen werden. Über eine hinreichend lange Zeit integriert zeigt dann das Doppeltraumaskop alle unendlich vielen Zustände der obigen Gleichung. Jetzt muss es nur noch extrem klein und sensibel angenommen werden. Die Energie des Blitzes bei einer Aufnahme sei weiter so groß, dass --- 330 ---

sie das Traumaskop und damit auch die überlagerten Zustände (Superposition) zerstört. Auf dem Bild entsteht dann nur noch ein zufällig ausgewählter Zustand, etwa B1 bis B3 in (e).

Bild 5. Vom Traumaskop zu einer schematischen QuBit-Darstellung.

8.4 Verschränkung und Nichtlokalität Quantenphysikalische Teilchen und damit auch QuBit lassen sich zu einer festen Gesamtheit verkoppeln. Sie besitzen dann nur noch gemeinsame Eigenschaften. Hierfür hat 1935 Schrödinger den Begriff Verschränkung eingeführt. Passiert z. B. ein Photon einen speziellen Kristall, so können dadurch zwei verschränkte Photonen mit jeweils halber Energie (Frequenz) entstehen. Beide befinden sich in unbekannten Superpositionen, aber ihre Polarisationen stehen grundsätzlich senkrecht zueinander. Sie können sich in verschiedene Richtungen bewegen. Wird dann eines irgendwo gemessen, so wird dessen Superposition aufgehobenen (Dekohärenz) und dadurch liegt seine Polarisationsrichtung fest. Infolge der Verschränkung wird zwangsläufig und sofort auch die Superposition des zweiten aufgehoben und es nimmt dabei immer die zum gemessenen Photon senkrechte Polarisation an. Dabei ist die Entfernung beider Photonen ohne jeglichen Einfluss, was eine unendliche Geschwindigkeit für die „Wechselwirkung” beider Photonen oder allgemeiner von verschränkten Teilchen bedeutet. Dieser Effekt kann aber nicht zur Übertragung von Nachrichten, sondern nur bei der Kryptografie zur Erkennung von einer illegalen Beobachtung genutzt werden. Einstein, Podolsky und Rosen sprachen wegen der theoretisch uenendlichen Geschwindigkeit von einer spukhaften Fernwirkung (EPR-Experiment). Heute wird stattdessen meist von der Nicht-Lokalität der Quantenphysik gesprochen. Sie konnte 1964 von Bell mittels seiner Ungleichung experimentell bewiesen werden und steht völlig im Gegensatz zur klassischen Physik. Gemäß der Komplimentarität sind bei einem Quantensystem niemals die Werte aller Observablen gleichzeitig definiert. Ein Beispiel ist ein Elektron: Als Welle existiert es in einem großen Raum. Wird es nun als Teilchen registriert, so geschieht das an einem genau definierten Ort. Ohne Ver--- 331---

zögerung muss dabei die Welle im gesamten Raum verschwinden. Gemäß der Kopenhagener Deutung von Bohr aus dem Jahre 1922 wird das als Kollaps seiner Wellenfunktion bezeichnet.

8.5 Quanten-Computer Da in der Superposition eines QuBits gleichzeitig unendliche viele Zustände enthalten sind, müssten bei Verschränkungen mehrere QuBit mit Verknüpfungen auch alle Lösungen der möglichen Kombinationen gleichzeitig existieren. Das ist der prinzipielle Weg zu einem extrem leistungsfähigen Quantencomputer. Er benötigt dazu: 1. Quanten-Register, die aus mehreren verschränkten QuBit bestehen und gemeinsam vor äußeren Einflüssen geschützt werden müssen. Seit einiger Zeit wurden dafür ca. 1000 QuBit realisiert. 2. Quanten-Gatter, die deutlich andere Eigenschaften als die klassischen Register (wie AND, OR NOT usw.) besitzen. Es sind etwa bereits reichlich zehn Varianten bekannt (s. u.). Aus ihnen müssten die Rechner-„Schaltungen“ zusammengesetzt werden. 3. Angepasste Algorithmen. Am bekanntesten ist der SHOR-Algorithmus zur extrem schnellen Primzahlzerlegung; Es sind bereist viele QuBit-Systeme vorgeschlagen und erprobt worden und neue kommen ständig hinzu: x JOSEPHSON-Kontakte wurden 1997 von SHNIRMAN, JOSEPHSON u. a. vorgeschlagen. x Quanten-Punkte (= quantum dots = Quanten-Fallen) schlugen 1998 Daniel Loss und David Divincenzo vor: Mit dem Rasterkraftmikroskop werden atomweise im Halbleiterkristall „Fehlstellen“ von wenigen nm3 eingebaut. Durch die Verkopplung mit dem umgebenden Kristallgitter besitzen sie eine kurze Dekohärenzzeit. x Kernspin: Nutzung erfolgt durch NMR (nuclear magnetic resonance = Kernmagnetische Resonanz), bisher das einzige QuBit-System, das bei Zimmertemperatur funktioniert. Für ein QuBit sind aber immer sehr viele Moleküle (|1018) notwendig (geringe Speicherdichte). x Ionenfallen wurden von Theodor Wolfgang Hänsch und Arthur Leonard Schawlow für freie Atome und von Wineland und Dehmelt für Ionen vorgeschlagen. Sie verlangen sehr gutes Vakuum und eine mehrstufige Kühlung bis zu wenigen nK. x Magneto-Optische Fallen (= MOT = magneto optical trap) wurden 1987 von Jean Dalibard entworfen, später von David Pritchard und Steven Chu gebaut. x BOSE-Einstein-Kondensat (BEK englisch BEC) wurde 1924 von Einstein und Bose vorhergesagt. Es wurde erstmalig 1995 von Wolfgang Ketterle bei wenigen PK mit Rubidium-Atomen realisiert und dann für QuBit von Ignacio Cirac und Peter Zoller vorgeschlagen. Als einfache (Ausgangs-) Gatter existieren Hadamard-, Phase- und Controlled-NOT (CNOT). Ihre typischen Eigenschaften sind in der nebenstehenden Tabelle zusammengefasst [Bru03]. Die Linien entsprechen aber nicht, wie bei den klassischen Gattern, elektrischen Leitungen, sondern symbolisieren den Zeitablauf. Das Hadamard-Gatter beschreibt eine Drehung des Zustandes um 45°; das PhasenGatter lässt den Basisvektor |0² unverändert, multipliziert aber |1² mit --- 332 ---

dem Faktor eiM in der Phase. Das CNOT-Gatter wirkt auf 2 QuBits: Ist das erste QuBit (Control) im Zustand |0², so bleibt das zweite unverändert, anderenfalls wird es geflippt: 0 o 1 bzw. 1 o 0. Alle 3 Gatter sind unitär, d. h. die Zeitentwicklung (z. B. Drehung der Zustandsvektoren) ist mittels anderer Gatter umkehrbar, also rückgängig zu machen. Deshalb haben alle Quanten-Gatter gleich viele Ein- und Ausgänge. Für die Anwendung sind die Dekohärenz- und Schaltzeit tDe, tGa wichtig. Das Verhältnis tGa / tDe gibt die maximal mögliche Anzahl der Operationen an. Einige Werte zeigt die Tabelle. Wann ein effektiver Einsatz von Quanten-Computern erfolgen kann ist unklar. .

System Ionenfallen Kernspin Quantenpunkte

tDe 10-4 s 10 s 10-6 s

tGatter 10-17 s 10-6 s 10-9 s

Verhältnis 1013 107 103

9. Überblick zu den Informationsarten Heute besteht die Gefahr alles Information zu nennen: Holz, Steine, Nahrung, Kleidung, Geld usw. Denn unter gewissen Gesichtspunkten besitzt ein Jedes auch einige Eigenschaften von Information. Da es keine allgemein anerkannte Definition für Information gibt, verwenden viele Menschen den Begriff rein intuitiv und ohne irgendeine Erklärung. Zuweilen wird sie auf Wissen bezogen, z. B. „Information ist die Teilmenge von Wissen“ oder „Information ist der (geglückte) Transfer von Wissen“. Aber leider ist hierin der Zusammenhang zwischen Wissen und Information weitgehend falsch (s. u.). Deutlich besser ist da schon Kuhlen: „Information ist Wissen in Aktion“ [Kuh04]. Außerdem wird in allen drei Beispielen wiederum Wissen rein intuitiv, ohne Definition benutzt. Die gesamte Entwicklung bewirkt so, dass der Begriff Information unscharf bis fast leer wird. Wesentliches erfasst dagegen fast nebenbei die eigentliche (kybernetische) Einführung von Wiener in Bezug auf geistige Operationen [Wie48], S. 192: „Trotzdem ist die Energie, die für eine einzelne Operation verbraucht wird, beinahe verschwindend gering und bildet nicht einmal ein angemessenes Maß der Funktion selbst. Das mechanische Gehirn scheidet nicht Gedanken aus »wie die Leber ausscheidet«, wie frühere Materialisten annahmen, noch liefert sie diese in Form von Energie aus, wie die Muskeln ihre Aktivität hervorbringen (fett H.V.) Information ist Information, weder Stoff (englisches Original matter) noch Energie. Kein Materialismus, der dieses nicht berücksichtigt, kann den heutigen Tag überleben.“ Der fett geduckte Teil kann dabei als vorläufige Definition für Information aufgefasst werden. Der Beginn des Zitats weist deutlich darauf hin, dass Energie bei der Information unwesentlich ist und später folgt, dass es auch für Stoffliches gilt. Ganz zu Anfang (Kapitel 1) habe ich das Zitat so interpretiert, dass Wiener damit Stoff, Energie und Information als Teilmodelle für die Welt einführt (Bild 1.1). Das lässt sich nun auch so umschreiben, dass es mehrere Wissenschaftszweige gibt, für die jeweils ein Begriff (Inhalt) zentral ist: z. B. Energie für Physik, Stoff für Chemie, Information für Kybernetik, Gesundheit für Medizin, Zahl für Mathematik und Algorithmus für Informatik. So ergibt sich das leicht geänderte Bild 1. Bild 1. Der jeweils zentrale Begriff für Stoff, Energie und Information. --- 333---

Information wird daher dann nicht sinnvoll, d.h. falsch benutzt, wenn für die Fakten bzw. das Geschehen hinreichend gut mit anderen Begriffen, (wie Energie oder Stoff) zu erfassen, beschreiben und erklären ist. Anders ausgedrückt ist Information nur dann sinnvoll, wenn andere, vor allem stofflich-energetische Modelle zu komplex, zu umständlich sind. Das gilt besonders ausgeprägt, wenn die von Wiener eingeführten Auslösungs-, Wirkungs-, Verstärker- und Rückkopplungseffekte zentral sind. So ergibt sich das Schema nach Bild 2 für die grundlegende und typische W-Information (gleich Bild 3.1). Sie betrifft den Zusammenhang von der Ursache (Informationsträger) und Wirkung (Informat), der aber nicht determiniert sein muss und erfordert ein dazugehörendes kybernetisches System (black box ist ausreichend). Im Gegensatz zum newtonschen „actio = reaktio“ gibt es dabei aber kaum eine Rückwirkung auf die Ursache. Weiter existiert ein gerichteter Zeitablauf, und zwar im Gegensatz zur physikalisch gültigen Zeitumkehr tUrsache l tWirkung.

Bild 2. Struktur und Verlauf der typischen W-Information. Trotz vielfältiger Abgrenzungsschwierigkeiten wird nun eine umfassende Definition von Information versucht. Sie kann aber nur mittels Aufzählung ihrer spezifischen Eigenschaften erfolgen. Erst anschließend werden die Besonderheiten der einzelnen Informationsvarianten (-Arten) behandelt. x Information besteht aus drei Teilen: dem stofflich-energetischen Informationsträger (Input), dem spezifischen System (oft nur als black box betrachtet) und dem Informat als systeminterne und/oder externe Änderung (Output). Alle drei müssen aufeinander abgestimmt sein: Rezeption Musik: Abschnitt 1,2 + 6.8.4; Auffälligkeit: Abschnitt 5.71; Lesbarkeitsindex: Abschnitt 5.7.2. x Der gerichtete Ablauf vom stofflich-energetischen Informationsträger zum System und dem bewirkten Informat, entspricht weitgehend Ursache und Wirkung (Information und Verhalten). Dieser Zusammenhang wird daher immer als Zeitablauf realisiert. Im Gegensatz zum physikalischen „actio gleich reaktio“ geschieht er aber meist nicht wechselseitig oder gar zurückwirkend. x Gespeicherte Information ist (als Informationsträger) daher nur potentielle Information, die erst mittels eines Wiedergabevorgangs als wiedererzeugter Informationsträger zeitabhängig zum Informat führen kann. x In der gespeicherten (stofflich-energetischen) Form ist Information leicht zu kopieren und zu vervielfältigen, im diskreten Fall sogar verlustfrei. x Information kann (heute) im Prinzip nicht verloren gehen. Liegt sie erst einmal gespeichert vor, so erfolgen fast immer und schnell Kopien, die zu den verschiedensten Orten gelangen. x Information ist vielfältig zu komprimieren, z. B. mittels Verallgemeinerungen, Formeln, Axiom-Systemen und Signalwandlungen, im diskreten Fall sogar verlustfrei. x Information ist im Prinzip ressourcenfrei. Die für ein Bit notwendige InformationsträgerEnergie ist extrem klein. Zusätzlich kann digitale Information mittels verlustfreier Komprimierung auf sehr wenige Bit reduziert werden. x Messen liefert quantitative Werte (Ausprägungen) der Information, denen aber die Qualität der Maßeinheiten hinzugefügt werden sollte. x Wirklich neue Information ist sehr schwer zur erzeugen. Das verlangt Kreativität und Phantasie, ist häufig mit Zufall verbunden und betrifft vorrangig Kunst und Wissenschaft. x Infolge der notwendigen „Interpretation“ besitzt Information keinen (echten) Wahrheitswert. Sie kann u. a. wahr, glaubhaft, wahrscheinlich, irrelevant oder falsch sein. x Information kann nach mehreren Aspekten/Besonderheiten klassifiziert werden (s. u.). Es ist unklar, ob (in der Zukunft) noch weitere Aspekte erforderlich werden. --- 334 ---

x Wegen der sehr umfangreichen und meist erfolgreichen Anwendung, zum Teil aber auch wegen des Missbrauchs von Information, sind Übereinkünfte und Festlegungen zum optimalen Umgang mit Information für eine Informationskultur zu entwickeln und möglichst durchzusetzen (Kapitel 10). Die Z-Information greift wesentlich auf die viel ältere Semiotik zurück. Dabei wird das Zeichen durch Veränderungen so angepasst, dass es als Informationsträger an die Stelle von Anderem, zunächst nur objektiv Vorhandenem, tritt. Dabei ist das Zeichen dann meist weniger komplex und folglich einfacher zu benutzen. Durch Zusammenfassung von mehreren Objekten mittels eines neuen Zeichens ist eine weitaus größere Vielfalt von Objekten zu bewältigen. Weiter lassen sich sogar abstrakte Inhalte erklären, begründen und erfassen. Mittels der Klassenbildung und Axiomatik wird der Anwendungsbereich der Z-Information noch gewaltig erweitert. Mit der Entstehung der Sprache und den daraus abgeleiteten Zeichen erlangt auch die Übermittlung, Übertragung von fast Allem an andere Orte sowie die Kommunikation eine größere räumliche und auch inhaltliche Reichweite. Für deren Möglichkeiten und Grenzen hat Shannon wichtige Grundlagen als S-Information geschaffen. Obwohl eigentlich Inhalte übertragen werden sollen, erwies es sich als sinnvoll, ja notwendig, nur die Statistik des Auftretens der Zeichen zu berücksichtigen. So entstanden der Präfix-Code, die Grenzewerte von Entropie und Kanalkapazität, sowie auf höherer Ebene die Fehlerbehandlung (-korrektur), Komprimierungsverfahren und Hilfsmittel zur Kryptografie. Mit der Statistik und der Auffälligkeit lassen sich auch Aussagen zu Kunst und Kultur gewinnen. Deren Analyseergebnisse ermöglichen schließlich auch die Generierung von Werken. Zeichen lassen sich als Informationsträger auf stofflich-energetisch stabile Zustände übertragen (aufzeichnen). In diesen Speicherzuständen ist ihre eigentlich vorhandene Zeitabhängigkeit verschwunden. Damit sind sie nur noch potentiell, also als P-Information vorhanden. Damit sie wieder wirksam werden können, ist ein Wiedergabevorgang erforderlich. So kann Vergangenes jetzt und sogar in der Zukunft wieder Wirklichkeit werden. Genau genommen ist die Speicherung (P-Information) die einzige Möglichkeit, Wissen über die Vergangenheit zu erlangen. Die Wissenschaft hat (dem entsprechend) auch nur Betrachtungen und Berechnungen für die Zukunft entwickelt. Es spricht vieles dafür, dass eine Rückrechnung (meist) nicht möglich ist. Doch darüber hinaus bietet die P-Information auch noch weitere Möglichkeiten. Sie gestattet es Aufzeichnungen an Orten und in Entfernungen durchzuführen, die der Mensch nicht ereichen kann bzw. die für ihn zu gefährlich sind. Die sich später daraus ableitende Wiedergabe ist aber problemlos möglich. Ganz ähnlich sind auch Maßstäbe für den Zeitablauf (als Raffung und Dehnung) sowie bezüglich der geometrischen Abmessungen nützlich verändern. P-Information wird bei der Genetik und den Gedächtnissen voll wirksam. Dadurch lässt sich auch Wissen präzise abgrenzen: Aus „ich weiß etwas“ folgt unmittelbar, dass es primär in unserem Gedächtnis vorhanden ist und von ihm aus auch genutzt wird. Erst danach kann Wissen extern gespeichert und von technischen Speichern wieder „gelesen“ werden. Hierzu sind Aufzeichnungs- und Wiedergabeprozesse erforderlich. Wissen soll immer gültig sein und ist daher im Gegensatz zur Information betont statisch, mit der relativ seltenen Ausnahme, dass es aus objektiven Gründen korrigiert werden muss (streben nach Wahrheit!). Im Gegensatz zu der o.g. Auffassung gilt damit umgekehrt: Wissen ist ein Teil von Information. Leider ist eine allgemeine Speichertheorie bestenfalls im Ansatz vorhanden, s. [Völ03; 05; 07]. Fast immer ist Speichern bisher nur als technische Aufgabe behandelt worden. Mit der zunächst elektromechanischen Rechentechnik lassen sich numerische Berechnungen zuverlässiger und schneller durchführen. Die elektronische Rechentechnik bringt bereits einen großen quantitativen Gewinn. Doch eine neue Qualität wird erreicht, als statt der Zahlen auch Zeichen manipuliert werden können. Die Einführung von Tastatur, Maus, Bildschirm und Lautsprecher ermöglicht dann einen gewissen interaktiven Umgang mit Rechnern. Sie werden so etwas wie ein virtueller Partner für die „wissenschaftliche“ Kommunikation. Das was zuvor nur mühevoll und langsam aus Gleichungen, Algorithmen, Axiome usw. zu gewinnen war, wird nun nahezu unver--- 335---

zögert seh- und hörbar erlebt, es wird zur V-Information. Eine nochmals qualitative Steigerung wird möglich, als mit neuen direkt interaktiven Peripherien, wie headset, elektronische Handschuhe oder gar wearable scheinbar direktes „Eintauchen“ in ein virtuelles Geschehen möglich wird. Dabei werden aber nicht nur Realitäten mittels Modellen zugänglich. Es lassen sich auch virtuelle Räume und Gebilde erleben, die es in der Realität auf Grund der Naturgesetze gar nicht geben kann. Der Phantasie und Antizipation sind nur noch Grenzen durch die Mathematik und Geschwindigkeit der Algorithmen gesetzt (Bild 3 = Bild 7.63).

Bild 3. Grenzen der Naturgesetze, der Mathematik und Zeitkomplexität der Algorithmen. Wesentlich für die Rechentechnik ist die Software, welche in einen Rechner geladen wird, damit er zusätzliche Berechnungen, Darstellungen usw. leisten kann. Sie hat beim Laden und danach keine „sichtbare“ Wirkung. Es wird nicht die Struktur des Rechners verändert. Jedoch für sein späteres Verhalten im Betrieb wirkt sie sich aus. Sie schafft also nur neue zukünftige (im Konjunktiv) Möglichkeiten, ist also deutlich anders als alle bisher genannten Informationsarten. Daher ist es wohl sinnvoll, sie K-Information zu nennen (vgl. Bild 7.33). Die Quanten-Information und das QuBit sind in die Varianten der Information praktisch nicht einoder zuordenbar (Bild 4). Eigentlich sollte daher für sie auch nicht „Information“ benutzt werden. Allein wegen des absoluten Zufalls und dem Übergang von der Mikroin die Makrowelt können dadurch Missverständnisse auftreten. Auch die quantenphysikalische Zufallsauswahl für die Zukunft unterscheidet sich deutlich von den durch die K-Information geschaffenen Varianten, die erst durch die folgenden Befehle benutzt werden. Es könnte jedoch möglich werden, dass die Quanten-Physik künftig eine Erweiterung der Grenzen der Rechentechnik, z. B. in Richtung zu NP oder Ähnlichem ermöglicht oder gar verwirklicht. Hier sind die Entwicklungen in der Zukunft abzuwarten. Bild 4. Vergleich von klassischer Physik, Quanten-Geschehen und W-Information. --- 336 ---

Eine Zusammenfassung aller Informationsarten mit Umrandung ihrer verschiedenen Wirkungsbereiche zeigt Bild 5. Wie die Information geschichtlich altbekannte Ergebnisse bei sich einordnet ergänzt Bild 6. Bild 7 fasst noch einige Informationsaspekte unter dem Gesichtpunkt notwendiger technischer Mittel als T-Information zusammen.

Bild 5. Zusammenhang der einzelnen Aspekte von Information.

Bild 6. Zeitliche Zusammenhänge für die Anwendung von Information, insbesondere für die so eingeordneten Vorstufen.

--- 337---

Bild 7. Versuch jene Aspekte als TInformation zusammenzufassen, die technische Mittel benötigen.

10. Informationskultur Durch die rasante Entwicklung der Informationstechnik sind viele neue Möglichkeiten, aber auch Probleme entstanden. Insbesondere fehlen zum „richtigen“ Umgang mit Information und Wissen, sowie deren Geräten fast alle Grundlagen. Folglich muss für die Zukunft Vieles – u. a. Übereinkünfte, Gebote, Verbote, Gesetze und Tabus – gründlich erarbeitet und festgelegt werden. Dabei bestehen durchaus gewisse Ähnlichkeiten zu Knigges zweibändigem Werk „Über den Umgang mit Menschen“ von 1788. Entgegen einigen Trivialisierungen enthält es vor allem Empfehlungen für einen kulturvollen zwischenmenschlichen Umgang. Der Inhalt dieses Kapitels weicht somit in Stil und Inhalt stark von den anderen Kapiteln ab. Deshalb sind zwei Vorbemerkungen notwendig: 1. Beim Begriff Informationskultur wird nur hier ausnahmsweise bei Information auch automatisch das Wissen einbezogen. Z. T. wird deshalb beides unter Daten zusammengefasst. Kultur (lateinisch cultura: Bebauung, Ausbildung; von colere: hegen und pflegen, bebauen, tätig verehren) bezieht vor allem darauf, wie beide optimal zum Nutzen und Wohle aller (der Mehrheit) benutzt werden sollten. Dabei wird auch der Inhalt von Zivilisation einbezogen, der mehr technische Bezüge gegenüber deren mehr geistigen Kultur ergänzt. Mittels Informationskultur sollen also Empfehlungen, Regeln usw. für einen ethisch-moralisch richtigen Umgang mit Information und Wissen sowie den dazugehörenden technischen Geräten aufgezeigt werden. Er soll sich dann auch möglichst in Gesetze umsetzen lassen. Da sich auf diesem Gebiet noch keine Traditionen herausgebildet haben, dürften auch kaum unterschiedliche Kulturkreise zu verschiedenen Ergebnissen gelangen. 2. Mehrere der hier folgenden Aussagen sind Einschätzungen und Visionen des Autors. Sie müssen daher nicht allgemein akzeptiert werden. Visionen sind aber immer für künftige Entwicklungen, insbesondere für Veränderungen zum Besseren ganz wesentlich. Sie müssen dabei (zunächst) nicht einmal realisierbar sein. Denn wie sagte Brecht in seiner Dreigroschenoper: „Die Verhältnisse sind nicht so!“ Aber gerade diese Verhältnisse müssen schließlich verändert werden. Das kann aber wohl kaum ein Buch bewirken. Es kann höchstens zum Denken in die notwendige Richtung beitragen. Das erfordert aber letztlich auch administrative Festlegungen. Eigentlich müssten deshalb zuerst die meist hoch komplexen Zusammenhänge untersucht werden. Doch zur Vereinfachung wird hier auf die gründliche Analyse verzichtet. Darum bemühen sich zumindest rein theoretisch aber auch aufwändig bereits andere, z. B. [Kuh04]. Obwohl hierbei mehrere Inhalte, wie Informationsmenge, Datenrate, Datensicherheit, Preise, Urheberrecht, Wahrheit, Geheimhaltung usw. stark miteinander verflochten sind, ist im Folgenden versucht, alles weitgehend schwerpunktmäßig in mehreren Abschnitten zu behandeln. --- 338 ---

10.1 Datenmenge und -rate Den rasant sinkenden Bit-Preis und das etwa ab 1995 vorhandene Überangebot an Speicherkapazität zeigt Bild 6.21. Beides hat u. a. auch ein steil ansteigendes Sammeln von Daten (wie Bild- und Sounddateien) von privat über Konzerne (Google, Industrie usw.) bis hin zu den Geheimdiensten zur Folge. So hat die „verfügbare“ Datenmenge ständig steil zugenommen. Der grob gemittelte Anstieg liegt bei reichlich 100-fach in jeweils 10 Jahren. Die aktuell gespeicherte Datenmenge beträgt mindestens 1020 Byte und ist also nicht mehr sehr weit von der im Abschnitt 6.4 grob abgeschätzten Obergrenze von etwa 1024 Byte entfernt. Sie wäre somit in grob 20 Jahren erreicht. Doch in diesen Werten sind noch nicht die vielen privaten und kommerziellen Doppelungen enthalten. Deutlich anders sieht es beim Zugriff (Wiedergabe) auf die gespeicherten Daten aus. Z. Z. sind maximal 1010 Bit/s übertragbar (Bild 1). Infolge der hohen Parallelität der Speicher und Kanäle ist dennoch heute alles, was elektronisch geschieht, leicht zu speichern. Um aber alle vorhandenen Daten einmalig über einen Kanal zu übertragen, wären bereits reichlich 1010 s | 100 Jahre notwendig. Außerdem wächst die Datenrate nur 10-fach in 10 Jahren, also erheblich langsamer als die Datenmenge (Bild 6.85). Durch diese deutlich verschiedenen Anstiege erhöht sich die Diskrepanz deutlich weiter. Hierbei ist auch zu beachten, dass eine Komprimierung der Daten letztlich keinen wesentlichen Gewinn erwarten lässt. Es benötigt zusätzlich Zeit und die ist offensichtlich schwieriger als die Datenmenge zu bewältigen.

Bild 1. Datenflussraten und Rechnergeschwindigkeiten. Weiter nachteilig wirkt sich die meist notwendige Suche nach inhaltlich bestimmten Daten aus. Dadurch wird von vielen Sammlern und in Datenbanken bis hinauf zu den Geheimdiensten oft das Gesuchte – obwohl es wahrscheinlich gespeichert wurde – nicht gefunden. Besonders nachteilig ist dabei, die meist langsame und langwierige Suche. Daher ist es fast unverständlich, warum sich der assoziative Speicher nicht durchsetzen konnte (Bild 6.40). Bei Begriffen sind meist nur noch logische Verknüpfungen mit AND, OR oder NOT möglich. Wichtig sind aber immer noch die altbewährten hierarchischen Klassenbildungen der Bibliotheken (s. Tabelle unten). Weitaus schwieriger ist bereits die Nutzung von Synonymen. Insgesamt sind also dringend Weiterentwicklungen mittels Künstlicher Intelligenz erforderlich. Das big data ist dabei wenig hilfreich, es liefert fast nur statistische Zusammenhänge in großen Datenbeständen. Vielleicht wäre künftig eine Variante ähnlich dem Stack möglich, der die nächsten Fragen einigermaßen gut im Voraus erkennt. Insgesamt erscheint heute ein Vergleich mit dem Eichhörnchen nahe liegend: Nüsse, die sie nicht sofort verzehren können, vergraben sie für den Winter, finden sie dann aber meist nicht wieder. Doch im Gegensatz zu den Datenarchiven besitzt das bei Samen gesamtbiologisch noch einen Sinn.

--- 339---

Kurze Geschichte der wissenschaftlichen Klassifikation. 400 v. Chr. Aristoteles stellt ein System zur Einordnung der Tiere auf. 1735 Carl von Linné: Systema naturae (Biologie). 1834 A. M. Ampére: Essai sur la philosophie des sciences. 1876 M. Dewey: Decimal classifikation and relativ index (DK). 1879 Ch. A. Cutter: Expansive classification. 1901 Library of Congress Classification. 1905 P. Otlet; H. Lafontaine: Universal decimal classification. 1926 P. Oppenheim: Die natürliche Ordnung der Wissenschaften. 1933 S. R. Ranganeathan: Colon classification. 1935 H. E. Bliss: A bibliographic classification. 1938 L. N. Tropovskij: Tablicy bibliotenoi klasifikacii. 1965 B. M. Kedrov: Klasifikacija nauk (topographisch). 1966 H. G. Frank: Riemannsche Flächen für topologische Anordnung. Trotz aller technischen Fortschritte dürfte es auch in der Zukunft wichtig sein, unnötiges Sammeln und mehrfaches Vervielfältigen (Kopieren) von Daten möglichst weitgehend zu vermeiden. Eine oder wenige große Datenbanken mit umfangreichen (vollständigen) Inhalten ohne Doppelungen und Zugriff über Hochleistungsnetze wäre vielleicht eine ideale Variante. Bei den heute erheblichen Doppelungen und Vielfachspeicherungen wird die Datenmenge nur immer größer, so dass (Suchen und) Finden von speziellen Inhalten immer schwieriger wird. Einzige Ausnahme könnte eventuell der ganz private Hobby-Sammler bzw. Liebhaber sein, der allein für seinen Bestand verantwortlich ist. In diesem Zusammenhang ist auch zu unterscheiden, dass einerseits für das Weltwissen faktisch alles vorhanden sein muss, während jeder Einzelne entsprechend seiner deutlich begrenzten Aufnahmefähigkeit (Abschnitt 6.8) nur relativ wenig nutzen kann. Grundsätzlich müsste für jede Datei die optimale Redundanz und Relevanz sowie ihr Inhalt definiert und festgelegt werden. Während identische Aufzeichnungen leicht automatisch zu finden sind, ist es dagegen sehr schwierig, Speicherungen gleichen Inhalts mit nur geringen oder unwesentlichen Abweichungen zu erkennen, um sie danach zumindest teilweise zu löschen. Dieser beträchtliche Aufwand dürfte künftig noch ausgeprägter notwendig sein und müsste gegenüber unnötigem Suchen abgewogen werden. Einige typische Fragen für Festlegungen zur Auswahl der Dateien sind: x x x x x x x

Was ist für wen und in welchem Umfang erforderlich, z. B. individuell, wissenschaftlich, technisch, didaktisch, geschichtlich, kulturell, künstlerisch oder gesetzlich? Welche Dateien müssen über Hochleistungsnetze von zentralen Datenbanken (Weltarchive) jederzeit schnell on demand abrufbar sein, wie große darf dabei die Verzögerung sein? Bei welchen Dateien genügt es, sie auf materialisierten Informationsträgern (vom Buch bis zum elektronischen Medium) kostengünstig zur Verfügung zu stellen? Welche Dateien müssen wann und wie oft (Zeitabstände) auf den neuesten Stand gebracht werden, um danach das Ältere zu löschen? Welche Dateien sollten inhaltlich aufbereitet (kommentiert) in gewissen Abständen oder bei typischen Anlässen von Rundfunk, Fernsehen, Kabel verbreitet werden? Welche Verbreitungs- und Zugriffswege neben Internet und Ausleihe gibt es bzw. entstehen noch und wie sind sie zu organisieren? Muss z. B. von einer Oper jede Aufzeichnung (Inszenierung) aufgehoben werden oder genügen wenige (eine) typische?

Für diese Fragen lassen sich Gebiete, Anwendungen mit deutlichen Unterschieden erkennen. So ist es z. B. bei Lehrbüchern, Lexika usw. möglich, ja notwendig, sie ständig und konsequent gemäß dem erreichten Wissensstand inhaltlich und didaktisch zu überarbeiten, damit ihr Inhalt möglichst optimal für Bildung und Lehre zur Verfügung steht. Dennoch dürfte es z. B. für die Wissenschaftsgeschichte notwendig sein, jeweils ein Exemplar in einem Archiv aufzuheben. Ganz ähnlich sind --- 340 ---

einzelne ausgewählte Originale für die Kulturgeschichte langlebig zu erhalten. Leider gab es hier im Laufe der Geschichte mehrfach unwiederbringbare Verluste (s. u.). Trotz der inzwischen erreichten hohen Zuverlässigkeit der Speichermedien bestehen aber immer noch nicht ausreichende Sicherheiten gegenüber Naturkatastrophen, Kriegseinwirkungen, absichtlichen Zerstörungen usw. Einen groben Überblick zu den Notwendigkeiten und Grenzen gibt die Tabelle. Bezug, Gebiet Historisch Kulturell, künstlerisch wissenschaftlich, technisch, utilitär, Didaktisch, Bildung, Ausbildung Geheimhaltung Destruktiv, zerstörerisch

Art der Inhalte Umgang mit den Speicherungen Originale, müssen ständig Dauerhaft aufheben (Archive!) neu interpretiert werden. Menschliche Werte, Aufheben von Originalen (Welterbe) Allgemeinbildung. Inhalten allgemein verfügbar machen. Wissen, Fakten, Gesetze, Lehrbücher, Lexika, Publikationen Methoden. ständig aktualisieren. Darstellungsform, Besseres ersetzt Älteres. gut lehr- und lernbar. Fakten, Geschehen, Falls überhaupt notwendig, dann unbedingt Möglichkeiten. mit zeitlicher Begrenzung. Wissen, Methoden.

Moralische Verurteilung, Verbote, Strafen.

10.2 Für Bildung und Kultur Information und Wissen sind sowohl für die Menschheit als für jeden Einzelnen sehr wichtig. U. a. sind sie grundlegend für einen hohen (menschenwürdigen) Lebensstandard aller und für das Niveau von Kultur und Zivilisation. Sie sind aber auch eine wesentliche Voraussetzung für das persönliche Können und eine hohe Leistungsfähigkeit. Dabei muss jeder Einzelne viele Details erlernen, wobei es notwendig ist – wie im Abschnitt 6.8.4 gezeigt – dass ein etwa 30maliges Wiederholen der entsprechenden einzelnen Inhalte notwendig ist. Erst danach sind wir imstande, die Fakten einigermaßen effektiv zu nutzen. Verstehen ist eben nicht teilbar oder unmittelbar weiter zu geben. Es muss individuell erworben werden. Dabei genügt es also nicht – wie heute z. T. angenommen wird – dass gewusst wird, wo etwas steht bzw. wo es zu finden ist. Infolge der technischen Entwicklung besteht nämlich leider die Gefahr, dass mit einem schnellen Klick im Internet oder auf dem Smartfon etwas gefunden und gelesen – und danach wieder sofort vergessen wird. Damit die Inhalte effektiv genutzt werden können, müssen sie grundsätzlich vorher gründlich und mühsam gelernt werden. Dazu müssen aber die Fakten und Daten für einige Zeit auf einem haltbaren Medium individuell zur Verfügung stehen. Dieses Lernen und dann das Wissen ist außerdem die unbedingt notwendige Voraussetzung für neue kreative Lösungen (Abschnitt 6.8.5). Sie entstehen nämlich fast immer ohne bewusstes Denken, quasi im Traum im Gehirn als Kombination aus den gelernten Fakten. In diesem Kontext wies z. B. Tucholsky darauf hin, dass wir uns erst lieber hundertmal ärgern, bevor wir ein Problem abstellen. Vor diesem Hintergrund ist es notwendig, dass Wissen und Information (auch die dazugehörende Software) für Bildung und Kultur jedem Einzelnen kostenlos und unmittelbar nutzbar zur Verfügung stehen. Sie dürfen kein Eigentum Einzelner sein, die dann dieses Wissen sogar für ihre Macht missbrauchen. Jegliche Kosten der entsprechenden Medien schaden der Gesamtheit und nicht nur den ärmeren Schichten. Die vielen oft verschwendeten Steuer- und Korruptionsgelder wären für Bildung und Kultur erheblich nützlicher angelegt. Für neue Lösungen auf diesem Gebiet müssen daher für die Vergütung der Urheber neue Lösungen gefunden werden. U. a. sollte die öffentliche Anerkennung guter individueller Ergebnisse wesentlich verbessert werden. Die ungerechte Bereicherung von Konzernen usw. mit diesen neuen Inhalten oder gar deren Verhinderungspolitik um höheren Gewinn zu erreichen, kann nicht geduldet werden.

--- 341---

10.3 Datensicherheit Ein absolut sicherer Datenbestand ist seit Menschengedenken nicht gegeben. Bis zu Jahrtausenden hielten Steintafeln. Ein Musterbeispiel dafür ist der Stein von Rosetta (Ort am unteren Nil). Er lag Jahrhunderte ungeschützt in der Erde und wurde 1799 von Leutnant Boussard beim Anlegen von Schützengräben gefunden. Seine Inschrift betrifft das Jahr 196 v. Chr. und ist ein Dekret der Priester von Memphis zu Ehren des ägyptischen Königs Ptolemäus V. Sie besteht aus gleichen Texten in Hieroglyphen, demotisch und griechisch. So konnte Champollion erstmals das Hieroglyphische entziffern. Das nächste Speichermaterial Papyrus hatte bereits deutlich kürzeren Bestand. Beim Papier ging die Haltbarkeit noch weiter zurück. Weiter sank sie dann zunächst bei den Magnetbändern, Halbleitern, CDs usw. So entstand die falsche Theorie des digital lost, wonach mit der Digitalisierung angeblich automatisch immer größer werdende Datenverluste auftreten. Das ähnelt der Argumentation, die u. a. Rompe um 1980 während des jährlichen Leibniztages der Akademie der Wissenschaften in seinem Festvortrag benannte. Mit einigen Beispielen belegte er die „ständige“ Verkürzung der Zeit zwischen einer neuen Idee (links) und ihrer ersten Nutzung (rechts), etwa z. B.: Schallspeicher...1830 Weber auf Glasplatte ........1877 Edison-Walze................................. 47 Jahre Relais ................1835 Henry erfindet Relais .......1883 erste Anwendungen Telefon .......... 48 Jahre Mikrophon ........1860 Philipp Reis ......................1877 Anwendung Telefon ...................... 17 Jahre Röhre ................1905 Lee Forest erste Röhre......1812 Röhren Fertigung bei AEG.............. 7 Jahre Transistor..........1947 Transistor Bardeen usw. ...1949 Flächentransistor für Uhren ............. 2 Jahre Daraus zog er dann die falsche Folgerung, dass dieser Abstand schnell auf Null schrumpfen dürfte. In der Diskussion antwortete Kuczynski in der für ihn typischen Weise: Lieber Herr Kollege Rompe, wir stimmen im Prinzip überein, aber wir streiten noch darüber, ob Archimedes, als er mit „Heurika“ aus dem Bad stieg und zum Experiment mit der Krone sehr schnell nach Hause lief, sich erst noch abtrocknete oder nicht! Sowohl bei diesen Beispielen als auch bei der angeblichen Unvermeidbarkeit des Datenverlustes bei digitalen Speichern wurden gegenteilige Beispiele einfach weggelassen. Außerdem haftet Prognosen eben immer Unsicherheit an (vgl. Bild 6.88). Bei den Speichern kommt noch hinzu, dass infolge der Speicherüberproduktion ab etwa 1995 (Bild 6.21) die Industrie kaum daran interessiert ist, die inzwischen beachtlich gestiegene Sicherheit zu erwähnen. Als Beispiel seien nur die FlashSpeicher genannt. Ihr Datenerhalt wird wesentlich durch die Arrhenius-Gleichung von 1896 bestimmt. Mit T als absoluter Temperatur und k | 1,36˜10-23 J/K als Boltzmann-Konstante erreicht eine Reaktion 50 % des Umsatzes in der Halbwertszeit

tH

t0 ˜ e

'E k ˜T

.

Durch Abkühlung kann so der Verlust von Elektronen vom isolierten Gate deutlich verzögert werden. Messtechnisch ergibt sich dann z. B. Bild 2. Im Kühlschrank sind so bei 10 °C ca. 10 000 Jahre gesichert. Das wird natürlich zur Steigerung des Absatzes kaum irgendwo mitgeteilt.

Bild 2. Datenstabilität eines USB-FlashSticks als Funktion der Temperatur. --- 342 ---

Für den Motorola Mikrocontroller MPC 555 wurden für einen gesicherten Datenerhalt folgende Werte experimentell bestimmt (Chip 5/2012; S.128): Temperatur (°C) Jahre

20 54 430

40 7 243

55 1 768

60 80 1 137 220

100 51

120 14

125 10

Zunächst ist generell festzustellen, dass mit der ständig wachsenden Datenmenge, selbst bei gleich bleibender Fehlerhäufigkeit, auch absolut mehr Datenverluste auftreten müssen. Deshalb sind Relativwerte wichtig. Sie werden regelmäßig von Firmen, wie Kroll Ontrack mitgeteilt, die sich auf die Datenwiederherstellung spezialisiert haben. Für das Jahr 2010 gilt dann Bild 3. Sie unterscheidet deutlich verschiedene Ursachen für den Datenverlust, und zwar sowohl gemäß den bei Ontrack durchgeführten Datenrettungen, als auch nach den Ursachen, welche die Anwender vermuten. Auffällig ist dabei, dass nicht die genutzten Speichermedien und Geräte (Hardware), sondern die menschlichen Bedienungsfehler am häufigsten sind. Auch die beim Speichern und Sichern (back up) benutze Software bewirkt beachtlich viele Fehler. Erst danach folgen bösartige Einflüsse (Viren usw.) und Naturkatastrophen. Immerhin geben 90 % aller befragten Unternehmen an, bereits einen ernsten Datenverlust erlitten zu haben.

Bild 3. Zusammenstellung relativer Datenverluste nach Ontrack. Die häufige Annahme, dass Datenträger die entscheidende Ursache seien, ist nur sehr bedingt gültig. Dennoch gibt die amerikanische Luft- und Raumfahrtbehörde NASA an, dass durch Nachlässigkeit, 1,2 Millionen Magnetbänder deshalb unbrauchbar seien, weil sie in unkatalogisierten Pappkartons schlecht aufbewahrt wurden und sich teilweise sogar die Magnetschicht abgelöst hat. Auch bei der 1976er Viking-Mission zum Mars haben 10 bis 20 % der NASA-Datenbänder signifikante Fehler. Dazu ist aber zu bemerken, dass in der fast hundertjährigen Geschichte der Magnetbänder sonst solche Fehler unbekannt sind. Selbst im Krieg in der Erde verschüttete Bänder waren immer noch nachträglich lesbar. Gewiss gab es Zeiten in denen ältere Speichertechniken noch nicht ausgereift waren. Kritisch waren (sind) hier in neuerer Zeit die beschreibbaren optischen Medien, CDR usw. Jedoch bei den heutigen elektronischen Medien ist fast immer durch kühle Lagerung eine sehr lange Datensicherheit zu erreichen (s. o.). Magnetische Medien sind sogar generell äußerst langlebig. Doch das gilt nur dann, wenn bei oder mit den Antrieben keine Mängel und/oder kein Verschleiß auftreten (Festplatte, Diskette, Videoband usw.). Ansonsten ist gut gelagertes Audiound Daten-Magnetband äußerst langfristig lesbar. Weitaus kritischer ist der moralische Verschleiß der Technik. Denn leider ist recht oft die neu eingeführte Technik nicht zur alten kompatibel. Wo ist z. B. heute noch eine an sich voll zuverlässige 8-Zoll-Diskette lesbar? Ähnliches gilt für veraltete Dateiformate (Wordstar usw.). Doch hier wird insbesondere von Adobe versucht, langlebige Universalformate zu schaffen und zu etablieren. Dabei ist immer noch unklar, ob Speichern der Originale oder/und ihre Rekonstruktion mittels Formeln und Algorithmen besser ist. Zusätzlich sind auch – zumindest für Sonderanwendungen – völlig neue höchstbeständige Techniken entwickelt worden und es entstehen immer wieder neue. Interessant ist dabei eine erste grobe Aussage, wonach die Lebensdauer proportional zu einem Wert in kBit/kg sein könnte. Ohne neue zukünftige Möglich--- 343---

keiten bleibt es aber einstweilen noch notwendig, alte Daten fortlaufend auf die jeweils neue Technik und ins neue Datenformat zu übertragen (Migration). Doch leider geschieht das zuweilen recht unvollkommen oder gar nicht! Genau deshalb wird Vieles noch immer auf optischen Mikrofilmen gespeichert. Neben der Langlebigkeit haben sie den großen Vorteil, dass sie immer mit einfachen Mikroskopen lesbar bleiben. Unabhängig davon ist jedoch die rein technische Datensicherheit ständig verbessert worden. Einen etwa typischen Verlauf zeigt Bild 4. Somit werden immer mehr menschliche (Bedien-) Fehler, bösartige Einwirkungen (s. u.) und Naturkatastrophen (Erdbeben, Orkane, Überschwemmungen usw.), z. T. auch Notstromversorgung, Überspannung, Brand- und Wasserschäden Schwerpunkte. Dabei ist dann bedeutsam, dass die Erfolgsrate der Datenrettung von den spezialisierten Firmen zu 80 bis 90 % angegeben wird. Doch sich nur darauf zu verlassen, ist allein wegen der sehr hohen Kosten und des Zeitverlusts nur die alllerletzte Notlösung. Erwähnt sei, dass bei Ontrack ein sehr gutes „dr-handbuch.pdf“ herunterladbar ist (19.10.04). Auf 117 Seiten enthält es viele Details zur Datenrettung und den Ursachen für Datenverluste.

Bild 4. Sehr starke Abnahme der Fehlerrate bei elektronischen Schaltungen, Speichern.

Hier seien nur drei Beispiele für folgenschwere Katastrophen genannt, die ähnlich leider immer wieder auftreten können. Alexandria wurde 332 v. Chr. von Alexander dem Großen, König von Makedonien, gegründet. Er plante sie als größte Hafenstadt der Alten Welt. Sie wurde zur Hauptstadt Ägyptens. Sehr schnell entstanden hier einflussreiche Schulen der Philosophie, der Rhetorik und anderer Wissenschaften. Als Monumentalbauwerke sind vor allem das Museion und in ihm die Alexandrinische Bücherei zu nennen. Sie war bereits im frühen 3. Jh. v. Chr. mit über 700 000 Buchrollen die größte Wissens-Sammlung der Antike. Zum ersten Mal in der Menschheits-Geschichte wurde hier, und dazu ziemlich erfolgreich, alles Wissen der Welt an einem Ort vereint: Die heiligen Schriften der Ägypter, der Juden, der persischen und der indischen Religionen, ebenso Werke der Naturwissenschaften, Metaphysik, Poesie und Politik. Das Sammeln und das Übersetzen war von Anbeginn ein Schwerpunkt der Bibliothek. Häufigen Gerüchten zufolge, hat sie Caesar während des Alexandrinischen Krieges (absichtlich) 47 v. Chr. durch Brand vollständig zerstören lassen. Dagegen ist allgemein bekannt, dass Caesar Bücher sehr hoch schätzte. Andere Dokumente geben andere Umstände und Zeiten für den Brand an. In der ganz nahen Vergangenheit brach im September 2004 in der Herzogin Anna Amalia Bibliothek ein verheerender Brand aus, der das Gebäude und den wertvollen Buch- und Kunstbestand sehr stark beschädigte. Drei Jahre nach diesem Verlust, konnte nach aufwändigen dreijährigen Restaurierungsarbeiten das historische Bibliotheksgebäude am 24. Oktober 2007 (Geburtstag der Namenspatronin) wiedereröffnet werden. Doch die Verluste sind beachtlich. Nicht ganz so extrem, aber trotzdem recht groß sind die Verluste am --- 344 ---

Stadtarchiv Köln mit seinen teils 1000 Jahre alten Dokumenten, als am 3.5.2009, infolge von nicht hinreichend gesicherten Bauarbeiten Einstürze, Überflutungen usw. auftraten.

10.4 Absichtliche Zerstörungen Der vorherige Abschnitt betraf Gefahren für das Gespeicherte, die einfach mehr oder weniger zufällig auftreten und im Prinzip nicht vollständig zu vermeiden sind, die aber in jedem Fall mit dem genauen Bestimmen und Finden der Ursachen deutlich zu verringern sind. Doch unabhängig davon gibt es Gefahren und damit Schäden, die von anderen absichtlich und z. T. mit höchstem Aufwand bewirkt werden. Allgemeiner betrachtet gab es schon immer und weit vor der Informationstechnik Menschen, die sich auf Kosten anderer Vorteile oder sogar Gewinne verschafften, teils durch Lügen, Betrug und Diebstahl oder gar mit Gewalt bis hin zum Mord. Es gibt sogar erstaunlich oft „Führer“, die mit ihrer „Gefolgschaft“ ganzen Gruppen oder gar Nationen großen Schaden mittels Feindseeligkeit, Sabotage und Krieg absichtlich zufügten. Darüber hinaus versuchten sie und andere aus Neid, Hass, Machtgier usw. möglichst viel der anderen einfach zu zerstören. Es gibt sogar den Spruch: „Je mehr Kulturgüter der Anderen wir zerstören, desto mehr werden unsere eigenen wert sein.“ Eine frühe Variante der Computer-Kriminalität sind die Viren. Mit den inzwischen entstandenen Varianten – wie Trojaner, Würmer usw. – ermöglichen sie inzwischen beides – Vorteile und Gewinn der Programmierer als auch die einfache Zerstörung. Für diese Menschen ist der Begriff „Cracker“ entstanden. Deshalb sind der Virenschutz usw. dringend aktuell zu halten und „gute“ Passwörter sicher gegen ein Ausspähen zu verwenden. Im Gegensatz dazu strebt aber der „Hacker“ vor allem danach, sein Selbstbewusstsein zu erhöhen: „Ich habe es erreicht, in den gut gesicherten Datenbereich einzudringen.“ Doch dann zerstört oder stiehlt er aber nichts. Maximal hinterlässt er etwas, dass sein Eindringen bestätigt. Schließlich gibt es noch die dritte Variante des „Whistleblowers“. Er stiehlt möglichst viel „unberechtigt“ Geheimgehaltenes (z. B. bzgl. Steuerhinterziehung oder Abgriffsplänen) zur Bekanntgabe für die Öffentlichkeit (leider zuweilen mit Geldforderungen). Cracker handeln eindeutig kriminell. Hacker sollten also gefördert und gut belohnt werden. Sie tragen dazu bei, Computersysteme sicher zumachen, indem sie die Angriffsmöglichkeiten suchen und bekannt geben. Die Whistleblowers stehen teilweise zwischen den beiden Extremen (Details im Abschnitt Geheimhaltung). Wenn sie nur ihrem Gewissen folgen und so „Unlauteres“ (unter persönlicher Gefahr aufdecken) sind sie sogar besonders mutig und daher so zu loben, wie die Cracker. Eine ganz spezielle Zerstörungsart ist die eingebaute (geplante) Obsolescenz (lateinisch obsolescere sich abnutzen, an Wert verlieren, veralten, ungebräuchlich werden). Sie wird von Produktionsfirmen absichtlich so eingebaut, um auf Kosten der Nutzer den Umsatz dadurch zu erhöhen, dass die Produkte nach der Garantiezeit irgendwie unbrauchbar werden oder sich gar selbst zerstören. Zusätzlich treten dadurch auch noch eine Verschwendung von Material und die absichtliche Vergrößerung der Müllberge auf. Typische Beispiele sind eingebaute Sollbruchstellen, z. B. bei den Sohlen von Schuhen. Der Begriff wurde bereits 1832 von Bernard London eingeführt: „Ending the Depression Through Planned Obsolescence“. Die erste Anwendung wird Sloan zugeschrieben. Als Präsident von General Motors führte er in den 20er-Jahren jährliche Veränderungen bei Automobilen ein. Das führte zum vermehrten Verkauf der jeweils neuen Modelle. 1924 verständigten sich die Hersteller von Glühlampen international darauf, die Lebensdauer auf maximal 1000 Stunden zu begrenzen. Dieses Phoebus-Kartell existierte mindestens bis 1942. Anfang der 1940er-Jahre flog es auf. Dann wurde die künstliche Begrenzung der Lebensdauer von Glühlampen wurde verboten. Doch auch danach brannten die Glühlampen kaum länger als 1000 Stunden. Es gibt einen Zusammenhang zwischen Helligkeit, Lebensdauer und Stromverbrauch (Bild 5). Jedoch nur für Spezialanwendungen (z. B. Verkehrsampel) wurden Lampen mit erhöhter Lebensdauer hergestellt. Sie sind aber deutlich dunkler. Heute gibt es viele Varianten der Obsolescenz. So werden für neue Betriebssysteme keine Treiber mehr bereitgestellt. Teilweise werden auch absichtlich eingeführte (ästhetische) Modetrends sowie --- 345---

die Nichtverfügbarkeit von Reparaturanweisungen hierzu gezählt (psychologische Obsolescenz). Weiter erfolgen die technischen Innovationszyklen mit sehr hoher Frequenz und entwerten damit vorhandene Produktbestände. Vielfach wird der Akku fest eingebaut oder das Gehäuse absichtlich fest verklebt. Auch absichtlich produzierte Wegwerf- bzw. sich selbst schnell zerstörende Medien existieren. U. a. wurden zum Schutz gegen Raubkopien extra Speichermedien (CD-Varianten) entwickelt, die nach dem Öffnen der Verpackung in relativ kurzer Zeit durch Sauerstoffaufnahme unlesbar werden. Bei digitalen Geräten kann mit den fest eingebauten Programmen auch ein beabsichtigtes Ende der Nutzung realisiert werden; bei Uhren z. B. über die Laufzeit oder beim Batteriewechsel, bei Druckern durch Zählen der Druckvorgänge usw. Auch das ist – ähnlich den Viren – ein absichtlicher Missbrauch von Software. Viele Details listet die Internetseite „www.murks“ auf. Die Spitze eines Eisberges ist der Abgasskandal bei Autos von 2015/16. Ähnliches ist inzwischen aber auch bei Kühlschränken, Wasch- und Spülmaschinen bekannt geworden. Leider wurde bisher das Image der Firmen mit solchen Machenschaften viel zu wenig geschädigt. Eine gewisse Gegenentwicklung ist die Open Source Gemeinde bei Betriebssystemen usw. Bild 5. Die typischen Parameter bei klassischen Glühlampen. Im gewissen Umfang wird auch ein Überangebot von Daten dazu benutzt, um Schaden zu bewirken. Im Extremfall werden hiermit Server so überflutet, dass sie nicht mehr funktionieren. Weniger wirksam sind absichtlich falsche Informationen, die nur teilweise aus Nachlässigkeit, Auslassungen und freien Zusätzen entstehen, aber oft absichtlicht Unsinniges, Erlogenes, Beleidigungen, Verleumdungen, Hetze und Drohungen enthalten und über Pornografie bis zu Anleitungen zum Bombenbau reichen. Leider missbraucht auch die offizielle Politik gar nicht so selten ähnliche Methoden für die Durchsetzung ihrer Macht bis hin zu Kriegsbegründungen (s. u.). Nicht selten werden dann auch mögliche oder gar richtige Hinweise als Verschwörungstheorie oder Verrat verleumderisch abgekanzelt. Leider sind solche Behauptungen relativ leicht anonym im Internet usw. zu platzieren und dann sehr schwierig zu unterbinden, oft sind dort aber auch die Lügen völlig richtig angeprangert. Es wäre daher wünschenswert, eine wirklich unabhängige Instanz zu schaffen, welche zumindest alle Nutzer warnt.

10.5 Geheimhaltung Geheimhaltung ist deutlich von (den kleinen) Geheimnissen, Rätseln und Nichtwissen zu unterscheiden. Das sind vor allem erfreuliche Überraschungen für Freunde, aber auch wissenschaftlich noch unerkundete oder (prinzipiell) unerklärbare Fakten und Erscheinungen. Ein jüdisches Sprichwort dazu lautet: „Es gibt Geheimnisse, von denen man nichts wüsste, wenn sie keine Geheimnisse wären“. Dazu gehört auch der Titelschlager des Tonfilmes „Jede Frau hat ein süßes Geheimnis“ (1934) (nebenstehend), Komponist Grothe, Text Ernst Marischka, gesungen von Heesters. Ganz im Gegensatz dazu dienen Geheimhaltungen fast nur geplanten Vorteilen einzelner Personen oder Gruppen zum --- 346 ---

Schaden anderer. Sie betreffen fast immer schändliche, kapitalistische bis kriminelle oder sogar kriegerische Absichten. Daher sollten sie, wenn überhaupt nur in extrem seltenen Fällen erlaubt oder gar benutzt werden (s. u.). Das gilt damit auch weitgehend für die fast nur zu ihrem Schutz missbrauchte Kryptographie, die deshalb in diesem Buch absichtlich ausgelassen wurde. Weiter dürfte es folglich auch keinen juristisch geregelten Geheimnisverrat geben. In aller Deutlichkeit sprach das u. a. im 18. Jh. Seume in seinen Apokryphen (1, 415) aus. Gemäß dem damaligen Sprachgebrauch meinte er dabei mit Geheimnisse die heutige Geheimhaltung: Wo Geheimnisse sind, fürchte ich Gaunerei. Die Wahrheit darf und kann vor Männern das Licht nicht scheuen. Es gibt keine Wahrheit, die man vor Vernünftigen verbergen müsse. Für die Geheimhaltung müssen vier Gruppen deutlich unterschieden eingeteilt werden: 1. Machtbessene, Eroberer, Kriegstreiber usw. nutzen sie, um zu erreichen, dass ihre egoistischen Besitzwünsche und/oder zerstörerischen Machtpläne nicht oder zumindest erst zu spät bekannt werden. Nicht selten werden dabei auch trickreiche Lügen bis zur Begründung von Angriffskriegen benutzt (weitere Details unten). 2. Verbrecher bereiten so ihre kriminellen Absichten möglichst gründlich vor. Bei deren Realisierung schrecken sie auch nicht vor härtesten Strafen zurück, besonders dann, wenn der mögliche Gewinn im Vergleich zum Risiko groß erscheint. Außerdem hoffen sie immer, dass ihnen später nichts zu beweisen ist. 3. Erfinder, Kulturschaffende, Wissenschaftler, Entdecker usw., um zu erreichen, dass ihre Neuerungen ihnen zumindest als Anerkennung zugeschrieben werden. Hier sollte die Geheimhaltung nur solange zugelassen werden, bis die richtige Formulierung von Patenten (Urheberrecht) usw. gesichert ist. 4. Ängstliche Personen versuchen so, mögliche Angriffspunkte (z. B. Nachteile, Schwächen) zu verstecken. Diese „Privatsphäre“ (s. u. postprivacy.) ist jedoch am besten nur dadurch zu schützen, indem sie niemand etwas davon sagen oder es gar schriftlich fixieren. Das gilt ähnlich für PIN und Passwörter. Bei 1. und 2. sollte jegliche Geheimhaltung und damit auch der Einsatz von Kryptografie bei Strafe verboten sein. Doch wie schon zu Beginn dieses Kapitels gesagt, galt und gilt mit Brecht „Die Verhältnisse sind nicht so“. Die Übeltäter werden immer, auch mit sehr hohem Aufwand nach Wegen für ihre „schändlichen“ Ziele suchen. Noch relativ wenig schädlich ist Geheimhaltung bei den folgende, wenigen ausgewählten Beispielen: Gewiss war es während des letzten Weltkriegs sinnvoll, die Arbeiten zur Entschlüsselung der Enigma im Blechtley Park sehr geheim zu halten. Aber musste danach Churchill alles Wissen und alle Technik um den Colossus total vernichten und dann auch noch bis 1975 geheim halten lassen? Weiter sind bis heute weder die Akten zum Mord an Kennedy noch die zum Flug von Heß nach England (1941) freigegeben. Im anderen Zusammenhang weist z. B. Neirynck deutlich darauf hin [Nei94], dass Braun die V2-Entwicklung im Hitlerkrieg zu verantworten hatte, aber dennoch erhielt er mit seinen Gefährten problemlos die amerikanische Staatsangehörigkeit und konnte so weiterarbeiten, als ob nichts geschehen sei. Solche Doppel-Moral wird nicht selten bei hoch kompetenten Verbrechern verwendet, wenn man deren Kenntnisse nutzen kann. Erwähnt sei auch noch die „Aufwertung“ der „guten“ Spione und der entsprechenden Einrichtungen. Inzwischen sind viele erlogene, ähnliche Begründungen für Angriffskriege bekannt geworden2. Hierzu sei inhaltlich auf ein Interview vom Mai 2011 mit dem Wikileaks Gründer Julian Assange im TV-Sender RT verwiesen: Fast alle Kriege der jüngeren Zeit beruhen auf einem einfachen Schema: Die USA oder andere westliche Imperialmächte beschließen aus geostrategischen, wirtschaftlichen oder politischen Interessen einen Krieg. Durch die Geheimdienste und die gleichgeschalteten Massenmedien werden Falschinformationen und emotional aufgeladene Lügen in der ganzen Welt 2

Sucht man im Internet unter dem Stichwort „Kriegslügen“ so erhält manweit über hundert umfangreiche Einträge, oft mit sehr vielen Details.

--- 347---

verbreitet, mit denen der Krieg in Bezug auf die Wahrung von Demokratie und Menschenrechte gerechtfertigt werden soll. Fast jeder Krieg der letzten 50 Jahre, war eine Folge von Medien Lügen. … Wenn sie nicht staatliche Propaganda abgedruckt hätten, hätten sie die Kriege stoppen können. Hier nur ganz wenige Beispiele: 1898: Spanisch-Amerikanischer-Krieg: Die USA brachten das Kriegsschiff USS Maine in den Hafen des spanisch besetzen Havanna. Das Schiff explodierte und den Spaniern wurde der Abschuss unterstellt. Ein viermonatiger Krieg endete mit der US-Besetzung von Kuba, Puerto Rico, Guam und den Philippinen. Spanien verlor damit alle bedeutenden Kolonien. In den nächsten 20 Jahren folgen Honduras, Panama, Nicaragua, Dominikanische Republik und Haiti. 1941: Die Pearl-Habour-Lüge wurde geboren, damit die USA gegen den Willen ihrer Bevölkerung einen Grund bekam, aktiv in das Kriegsgeschehen einzugreifen. Er endete mit dem Abwurf von zwei US-Atombomben auf Japan. 1961: Vietnamkrieg: Erfundener Angriff nordvietnamesischer Boote auf ein US-Kriegsschiff: Aufgedeckt wurde die Täuschung durch die Veröffentlichung eines geheimen Pentagon-Berichtes. 1990: Brutkasten-Lüge: Im Fernsehen gab sich eine Teenagerin als Hilfskrankenschwester aus und behauptete, irakische Soldaten hätten in kuwaitischen Krankenhäusern Säuglinge getötet, indem sie diese aus den Brutkästen gerissen und auf dem Boden zerschmettert hätten. Die Teenagerin stellte sich Jahre später als Tochter des kuwaitischen Botschafters in den USA heraus. Diese Kampagne kostete 10 Millionen US-Dollar. 2003: Irakkrieg: Zu seiner Begründung wurde behauptet, man verfüge über geheimdienstliche Beweise, dass der Irak „Massenvernichtungswaffen“ besitze. Bereits 1940/41 schrieb Brecht in Finnland in den „Flüchtlingsgespräche“, Kapitel XV. Dialog zwischen Ziffel und Kalle (Suhrkampverlag 1961, S. 107.): „Kalle: Tatsächlich, wenn ich mirs überleg, sind die neueren Staaten die edelsten und feinsinnigsten Staaten, die je grössere Kriege geführt haben. Früher hats immerhin den oder jenen Krieg gegeben, der aus Gewinnsucht geführt worden ist. Das hat ganz aufgehört. Wenn heut ein Staat eine fremde Kornkammer einverleibt haben möcht, sagt er entrüstet, dass er hin muss, weil dort unredliche Besitzer sind oder Minister, die sich mit Stuten verheiraten, was das Menschengeschlecht herabsetzt. Kurz, keiner von den Staaten billigt seine eigenen Motive für einen Krieg, sondern er verabscheut sie und schaut sich nach andern, besseren um.“ Allgemein gilt: Das erste Opfer eines Krieges ist immer die Wahrheit. Insgesamt sehr aufschlussreich ist auch der ausführliche, betont wissenschaftliche Schriftwechsel zwischen Einstein und Freud von 1932 zum Thema „Warum Krieg“. Während Einstein dabei als Pazifist auf die Erziehung durch Psychologie setzt, befürchtet Freud die unumgängliche Notwendigkeit von Macht für die Politik gegenüber den Interessen und dem Zusammenhalt der Gruppe. (Weitere Details dazu in: Neue Rheinische Zeitung: Online-Flyer vom 26.2.2014). der Autor hofft etwas auf die Informationsschwelle (nächster Abschnitt). Trotz der vielen bekannten Lügen der Geheimhaltung, dem Versagen der extrem teuren Geheimdienste und den damit meist nur beabsichtigtem Entstehen von großen Schäden für Andere, werden immer wieder Begründungen für die Notwendigkeit von Geheimhaltungen gegeben. Absichtlich wird dabei oft auf den durchaus nicht bestehenden Zusammenhang mit der Privatsphäre verwiesen. Zusätzlich wird dann auch noch – völlig im Gegensatz dazu – scheinheilig die Überwachung der Bevölkerung (angeblich zu deren Schutz) erweitert. Gewiss gibt es viele Gründe für eine geschützte Privatsphäre, zu der teilweise auch die Intimsphäre gezählt wird. Von beachtlich vielen, insbesondere jungen Menschen wird sie jedoch bereits leichtfertig selbst preisgegeben. Das ist u. a. bereits bei Facebook und Twitter, aber auch bei Google und StreetView deutlich zu erkennen. Hinzu kommen der oft leichtfertige Umgang mit Passwörtern, Emails usw. Was früher am Stammtisch blieb, wird heute vielfach im öffentlichen Internet und auf Homepages preisgegeben. So entstand um das Jahr 2009 bei der Debatte bezüglich der Sozialen Netze der Begriff Post-Privacy. Das soll --- 348 ---

etwa soviel heißen wie: „Was nach der Privatheit kommt“. Vielleicht führt diese Entwicklung zu der großen Herausforderung eines neuen sozialen Miteinanders. Wegen der Lügen, den Missetaten und den dafür benutzten Umgang mit der Privatsphäre ließ ich Bild 6 zeichnen. Der Bauer schlägt auf den Sack, obwohl er den bockigen Esel meint, den er noch braucht und lenkt dabei völlig von der Ursache, der Schlange ab. Bild 6. Zu den wirklichen Zusammenhängen bei der Geheimhaltung. Aus den durchgeführten Betrachtungen folgt unmittelbar: Nicht nur jedes Verbrechen, sondern auch die fast nur dazu dienenden Geheimhaltung muss generell verboten und sogar entsprechend den möglichen Folgen bestraft werden. Der Weg dorthin ist sehr lang. Ein Anfang können vielleicht die ersten Erfolge beim Bank-Steuer-Geheimnis sein. Es darf dann aber auch keinen Geheimnisverrat (eigentlich ist es ja Geheimhaltungsverrat) mehr geben. Bezüglich Wissen und Information muss der Öffentlichkeit völlige Transparenz und Wahrheit gesichert werden. Denn schließlich ist „gute“ Kommunikation eine wichtige, ja notwendige Grundlage des gesellschaftlichen, sozialen Lebens. Neben der nur persönlich zu pflegenden Privatsphäre sind eigentlich nur noch das Ärzte-, Anwaltsund teilweise das Post- und Fernmelde-, aber kein Bankgeheimnis usw. zu vertreten. Beim Beichtgeheimnis ist sogar schon Luther anderer Meinung! Stark zeitlich begrenzt sind noch die unter 3. in der obigen Aufzählung genannten Beispiele (Patente usw.) vertretbar.

10.6 Informationsschwelle Den Begriff habe ich als Folgerung aus der so genannten Wende um 1990 geschaffen [Völ90a], [Völ03a], [Völ14a]. Diese Schwelle ist durch die Entwicklung der Informationstechnik bestimmt. Zu diesem Zeitpunkt wird es den meisten Menschen einer zusammenhängenden Gesellschaft (z. B. einem Staat oder Kulturkreis) im Prinzip leicht möglich, sich über das gesellschaftliche Geschehen einen guten Überblick zu verschaffen. Dafür ist die These grundlegend, dass neue Information im Prinzip nicht mehr verloren gehen kann (Kapitel 9). Das belegen viele Beispiele: Verbote, Bücherverbrennungen, Folterungen oder Töten von Menschen vernichteten niemals unerwünschte Information vollständig. Sie erlangten dadurch eher größere Aufmerksamkeit. Am ältesten sind hierfür wohl die Auswirkungen des erzwungenen Todes von Sokrates. Jeder Index von Büchern hat sich höchstens nur zeitweilig leidlich aufrechterhalten lassen. Alle Versuche der Kirche, das heliozentrische Weltsystem als falsch und sündhaft zu erklären, blieben erfolglos. Der Buchdruck (1456) durch Gutenberg ermöglichte nicht nur bessere Bildung für viele, sondern auch die schnelle Verbreitung von Aussagen zur Verbesserung der Welt. Die 95 Thesen, die 1517 Luther an der Schlosskirche zu Wittenberg befestigte, bewirkten so die Glaubenskriege, vor allem den Dreißigjährigen Krieg (1618 – 1648). Neben „Fortschritten“ sind also dabei leider auch negative Folgen möglich! Das Zeitalter der Aufklärung (englisch Age of Enlightment, französisch Siècle des lumières) ist ganz erheblich durch die Idee der modernen (alphabetischen) Enzyklopädie bestimmt. z. B.: Encyclopédie ou Dictionnaire raisonné des sciences, des arts, et des métiers (1751-1776) von d’Alembert und Diderot. Sie bewirkte wesentlich die Konstituierung des Dritten Standes und die 1789 folgende Französische Revolution. Das Kommunistisches Manifest von Marx und Engels war eine Grundlage für die russische Revolution von 1917. Im 2. Weltkrieg wurden die Sendungen des Londoner Rundfunks trotz angedrohter und durchgeführter Todesstrafen beachtlich viel gehört. Ein frühes Beispiel der unmöglich werdenden Vernichtung von unerwünschter Information geschah --- 349---

1963. In der Zeitung „National Enquirer“ erschien ein Foto des zusammengenähten Lee Oswald, dem mutmaßlichen Mörder von Kennedy. Die gesamte Auflage wird verbrannt, zuvor wird aber ein Exemplar gestohlen. Es ist im Besitz des belgischen Sammlers George Blommaert. Um also unerwünschte Information garantiert zu vernichten, müsste folglich die gesamte Menschheit ausgerottet werden. Doch auch dann könnte das Gespeicherte später von eventuellen Außerirdischen gefunden und interpretiert werden, und zwar ganz ähnlich, wie es die Archäologie tut. Wesentlich stärker bewirken das leichte und einfache Speichern und Kopieren von Information und später das Internet den notwendigen Qualitätssprung für die Informationsschwelle. Vielleicht ist die Watergate-Affäre von 1972 ist ein erstes Anzeichen. Die Wende in der DDR wurde in beachtlichem Umfang mit Disketten (von der Kirche) unterstützt. So ergab sich die Möglichkeit, unerwünschte oder verbotene Information massenhaft zu verbreiten. Ähnlich wurden die verbotenen Reden des iranischen Schiitenführers Chomeini illegal über Tonbandkassetten verbreitet. Die Wyssotzki-Lieder gab es in der UdSSR offiziell nicht, auch sie wurden über illegale Tonbandkopien fast zum Allgemeingut. Der Arabische Frühling ist vor allem per Internet gefördert worden. Diese Entwicklung wird sich mit der technischen Weiterentwicklung ständig verstärken und ausbreiten. Das bewirkt eine sich weltweit ausbreitende Demokratisierung und Liberalisierung, wodurch Schandtaten immer mehr allgemein bekannt werden und so die Diktaturen usw. ständig an Glaubwürdigkeit und Macht verlieren. Zusätzliche Hilfe dafür bringen die Whistleblower. Aber genau diese Entwicklungen können die Machthaber und Politiker nicht eingestehen. Mit ihrer Macht glauben sie immer noch die Entwicklung weitgehend bestimmen zu können und wollen ihre „Leistungen“ anerkannt haben. Dazu leiten sie vielfältige (z. T. brutale) Gegenmaßnahmen ein (s. o. Lügen und Geheimhaltung bis hin zu Folterungen). Es ist sehr wahrscheinlich, dass die Informationsschwelle ständig weiter sinken wird. Dafür gibt es viele Hinweise. Dazu ist zunächst zu klären, welche Prinzipien und Grenzen es für die Geheimhaltung gibt. Besonders übersichtlich ist dabei ein reziprokes Analogiemodell zur Unterdrückung von Störungen bei Messprozessen. In Bild 7 sind dabei der oder die Störer (rote Pfeile), der Raum, in dem die Störungen wirksam sind (rot) und der (fast) störungsfreie Raum (grün) zu unterscheiden. Für die Realisierung der Zusammenhänge existieren drei Varianten: Bei a) wird der Störer abgeschirmt. Dann entsteht ein großer, störfreier Raum und die hier gewählte Ferrit-Antenne kann von überall her Signale störfrei empfangen. Für die Geheimhaltung bedeutet das, mögliche Spione werden ausgeschaltet. Das entspricht der Kryptografie. Bei b) existieren so viele (und große) Störer, dass sie nicht alle einzeln abgeschirmt werden können. Dann ist für die Messung ein eigener abgeschirmter, störfreier Raum, z. B. ein Faraday-Käfig zu schaffen. Darin muss dann der gesamte Messaufbau untergebracht werden. Das Geheimzuhaltende darf dann keinem außerhalb mitgeteilt werden. Politisch entspricht das dem Mauerbau. Bei c) wird mit einem zweiten Empfangssystem (Hilfsspule) und einer Kompensationsschaltung der Einfluss aller Störquellen weitgehend kompensiert. Das Geheimzuhaltende wird ähnlich durch möglichst viel Information mit gegenteiligen Aussagen quasi unerkennbar gemacht. Politisch entspricht das der englischen Gleichgewichtspolitik bzw. dem Gleichgewicht des Schreckens im Kalten Krieg. Welche Methode in einem gegebenen Fall am effektivsten ist, lässt sich oft schwer entscheiden. Alle haben ihre spezifischen Grenzen und sind nur bedingt zuverlässig. In jedem Fall verringern sich so die Möglichkeiten der Geheimhaltung und damit wird erneut die Informationsschwelle gesenkt. Wesentlich ist dabei, dass alle Abschirmungen und Kompensationen nie total wirksam sind. Ergänzt sei noch ein wenig bekanntes Prinzip nach Bild 8. Es entspricht speziellen Optiken beim TV für indirekte Nahaufnahmen. Ähnlich lange ist schon der virtuelle Lautsprecher bekannt: Zwei starke, gerichtete Ultraschallquellen können am Ort ihrer Überlagerung eine Nichtlinearität der Luft bewirken. Dort entstehen dann Kombinationsfrequenzen. Die Ultraschallquellen werden dabei so moduliert betrieben, dass dort eine virtuelle gut hörbare Schallquelle auftritt. Der Schall kommt dann unsichtbar aus einem Raum, wo materiell keine Schallquelle zu finden ist. Reziprok dazu existieren auch Fernmikrofone. Unsichtbar und ohne auffindbare oder nachweisbare Mikrofone (Wanzen) kann so fast jeder Raum überwacht --- 350 ---

werden. Weiter sei erwähnt, dass heute bereits extrem kleine Drohnen mit Mikrofon und Kamera möglich und sogar leicht privat verfügbar sind. Ferner gibt es viele Ansätze zu Tarnkappen, z. B. um Flugzeuge gegen Radar abzuschirmen und Meta-Material im Infrarot- und bald auch im optischen Bereich. Sie benutzen u. a. Material mit negativem Brechungsindex. Auch können Felder benutzt werden, die wir nicht wahrnehmen, also Röntgen-, Infrarot-, J-Strahlen, THz-Frequenzen usw. (Scanner an Flughäfen!).

Bild 7. (oben) Modell zur Einschätzung der Grenzen von Störeinflüssen als reziprokes Analogiemodell für die Zuverlässigkeit von Geheimhaltung.

Bild 8. (rechts) Prinzip des virtuellen Lautsprechers bzw. Mikrofons. Die technische Entwicklung dürfte also dazu führen, dass die Informationsschwelle beliebig klein, sogar praktisch Null wird. Dann wäre keine Geheimhaltung mehr möglich. Das tritt aber leider mit großer Wahrscheinlichkeit wohl nicht ein. Denn die „Übeltäter“ werden hiergegen mit großem --- 351---

Aufwand nach neuen Möglichkeiten suchen. Die Folge ist ein immer aufwändiger werdender Wettlauf zwischen Geheimhaltung und deren Aufdeckung. Das kann als ein nicht unterhaltsames „Spiel“ betrachtet werden, bei dem Material, Geld und geistige Leistung sinnlos verschwendet werden, die besser für nützliche Zwecke wirksam eingesetzt werden sollten (Bild 9a). Es muss daher mit möglichst vielen Mitteln hiergegen intensiv vorgegangen werden. Dazu sind moralische Vorbilder auch bei den „Mächtigen“ (Gesetzgebung und Justiz) und die Zivilcourage einzelner, z. B. Whistleblower notwendig. Auf keinen Fall darf die Entwicklung zu einer Gegenüberstellung der kontrollierenden Macht mit den kontrollierten Bürger führen b).

Bild 9. a) Unnötiger und unerwünschter Wettlauf zwischen Geheimhaltung und dessen Vermeidung, b) Gegenüberstellung von Kontrollierenden und Kontrollierten.

10.7 Rundfunk, Fernsehen, Streaming Mit Hochleistungsnetzen (z. T. Kabel) und dem Internet dürfte es bald möglich sein, direkt (und teilweise unverzögert) auf fast alle vorhandenen Daten zuzugreifen. Für Kultur und Bildung (s. o.). sollte das dann sogar kostenlos ermöglicht werden. Für Rundfunk und Fernsehen dürfte diese Entwicklung weitaus stärkere Auswirkungen als bei den Verlagen für die Druckerzeugnisse sowie für Schallplatte, CD und Film haben. Das wird (leider) ungerechtfertigt dadurch abgemildert, dass vieles staatlich gesichert, nämlich aus Steuergeldern finanziert wird. Das ist auch am ständig wach˜senden kulturellen Niedergang zu erkennen. Bei den Rundfunkprogrammen ist das noch deutlicher als beim Fernsehen. So werden z. B. in der Sommerzeit seit etwa zehn Jahren alle länderbezogenen Kultursender Deutschlands ab etwa 18:00 Uhr bis Mitternacht im Sinne einer „Gleichschaltung“ mit einem einheitlichen Programm betrieben. Auffällig ist dabei, dass das einzige rundfunktypische Kunstwerk, das Hörspiel in all den Jahren nicht einmal vorgekommen ist. Am 1.1.15 wurden der letzte Langwellensender Deutschlandradio und dann am 31.12.15 alle Mittelwellensender abgeschaltet. Das war sogar mit einer beachtlichen Energieeinsparung verbunden. Da Kabel, Satellit und Internet verfügbar sind, könnten eigentlich sogar alle Sender abgeschaltet werden, was weiteren Gewinn brächte. In der Zukunft werden sich daher Rundfunk und Fernsehen deutlich ändern müssen. Denn im Internet können bereits mehr als 10 000 „Radiosender“ und viele „Fernsehsender“ empfangen werden. Dabei gibt es u. a. beachtlich viele hoch anspruchsvolle Sonderprogramme. Für klassische Musik bietet z. B. Finnlands Sender YLE Klassinen ein höchst anspruchsvolles Musterbeispiel. Bei der ARD sind seit einiger Zeit gewisse „Anpassungen“ zu erkennen. So werden einige Programmteile bereits als kostenloser Stream zum Nachhören oder sogar zum Download angeboten. Doch was geschieht nun mit den Redaktionen? Meines Erachtens sind auch hier dringend Änderungen erforderlich. Wirklich aktuelle Information sind nur für Wetter, Verkehr, Gefahrenmeldungen und ähnliches erforderlich. Das könnte/sollte in Deutschland wiederholend umlaufend auf wenigen landesspezifischen Streams (oder alten Mittelwellensendern) verfügbar sein. Viel gehört oder gesehen würden wahrscheinlich fortlaufende Streams mit ausgewählten Genres, die nur noch An- und Absagen enthielten. Sie können auf vorhandene Archive zurückgreifen, die mit mittlerer --- 352 ---

Häufigkeit von speziellen Redaktionen ergänzt würden (Bild 10). Weitaus seltener werden wahrscheinlich allgemeine Bildungs- und Informationskanäle benötigt. So ergeben sich fachspezifische Redaktionen, die nur einzelne spezialisierte Streams indirekt versorgen. Je früher ein solcher Umbruch vorbereitet und eingeleitet wird, desto weniger Aufwand und Kosten werden bei höherer Qualität in der Zukunft anfallen.

Bild 10. Mögliche Struktur für künftige Rundfunk- und Fernsehredaktionen.

10.8 Mensch und intelligente Roboter Menschenähnliche und den Menschen übertreffende Lebewesen wurden bereits in der Antike u. a. bei Homer und Ovid in mehreren Varianten (Verwandlungen) beschrieben: Götter, Sirenen (Vogelkörper mit Mädchenköpfen), Sphinx (geflügeltes Ungeheuer mit Löwenkörper und Frauenkopf), Zentauren (menschlicher Oberkörper und Pferdeleib), Gorgo (Ungeheuer mit Schlangenhaaren und grauenvollem Haupt) sowie Harpyie (weiblicher Unheilsdämon mit Flügeln und Vogelkrallen oder Vogel mit Frauenkopf). Danach entstanden immer wieder neue Vorstellungen. In germanischen Sagen gab es z. B. Elfen (Elben, Alben) als Mischwesen zwischen Menschen und Göttern, lebend in der Erde, im Wasser oder in der Luft. Auch Hexen, Teufel usw. können hier eingeordnet werden. Im Mittelalter wurde ähnlich an Geister der vier Elemente geglaubt: Salamander im Feuer, Undinen (ähnlich Nixen) im Wasser, Sylphen in der Luft und Gnomen in der Erde. Der Sage nach schuf sich im 16. Jh. der Rabbi Loew im Prager Ghetto einen dienstbaren Golem (hebräisch Klumpen). Der Sagenstoff wurde nach einer Fassung (1808) von J. Grimm wiederholt in der Romantik (u. a. E. T. A. Hoffmann) bearbeitet. Die bekannteste Fassung erhielt die Sage in dem Roman »Der Golem« (1915) von Meyrink. Die Anfänge einfacher Realisierungen entstanden aus den ebenfalls lange vorhandenen automatischen Mechanismen. Nach der Räderuhr und Dampfmaschine wurde versucht, so künstliche Menschen zu schaffen. Erste Ausführungen waren wohl die um 1760 von den Brüdern Droz und Vaucanson geschaffenen schreibenden, zeichnenden und klavier- bzw. flötespielenden Puppen. Im Sandmann (1817) von E.T.A. Hoffmann gibt es die mechanische Olympia, in die sich der Held unsterblich verliebt. Danach erscheint sie in Offenbachs „Hofmanns Erzählungen“ (1880) und Delibes „Coppelia“ (1870) als tanzende Puppe. Aus solchen und ähnlichen Ideen erschafft 1920 apek mit seinem Roman "R.U.R. Werstands Universal Robots“ das Wort Roboter. Das sind in Tanks gezüchtete, menschenähnliche, künstliche Arbeiter. Heute würden sie Androiden heißen (griechisch anér Mann, Mensch und eîdos Aussehen, Gestalt, also etwa des Menschen Abbild). Der erste hergestellte, eigentliche Roboter war „Televox“ von R. J. Wensley in Pittsburgh (1927). Danach lassen sich ähnliche, mechanisch handelnde und wahrnehmende „Mechanismen“ immer perfekter mit Spezialleistungen herstellen. Heute werden etwa unterschieden: x

Industrieroboter für Handhabungs- und/oder Fertigungsaufgaben (nicht mobil), Palettieren, Bestücken, Fügen, Montieren, Kleben, Punkt- und Bahnschweißen, Messaufgaben. --- 353---

x

Haushaltsroboter verrichten selbstständig Arbeiten im Haushalt, wie Rasenmähen, Fensterund Raumreinigung sowie Service. x Spielzeugroboter, z. B. der einem Hund ähnelnde Lauf- und Spielroboter Aibo von Sony sowie schach- und anderes spielende Automaten. x Erkundungsroboter (rover, lander) die an Orten operieren, die für Menschen lebensgefährlich oder gar unzugänglich sind und ferngesteuert oder (teilweise) autark operieren. Benutzt wurden sie u. a. auf der Mond- (Lunachod) oder Mars-Oberfläche und zur Erkundung enger Pyramidenschächte. x Militärroboter für militärische Aufklärungs- und/oder Kampfzwecke. x Spezialroboter gibt es für viele Anwendungen, u. a. werden sie für den Krankenbettentransport, der Essensausgabe sowie als Erntehelfer auf Obstplantagen eingesetzt. x Eigentlich können auch die autonom fahrenden Autos zu den Robotern gezählt werden. x Humanoide Roboter waren bis etwa 2000 technisch nicht realisierbar. Sie reagieren und interagieren autonom in ihrer Umwelt. Ihre Mobilität ist durch zwei Beine als Fortbewegungsmittel beschränkt, mit zwei künstlichen Armen und Händen können sie Arbeiten verrichten. Teilweise sind hier auch die Avatare einzuordnen (Sanskrit Abstieg, Herabsteigen einer Gottheit in irdische Sphären, im Hinduismus für Inkarnationen Vishnus verwendet). das sind künstliche Personen oder grafische Stellvertreter echter Person in der virtuellen Welt, beispielsweise in Computerspielen, die dann mit dem Anwender in natürlicher Sprache kommunizieren. Was ein Roboter ist, das ist stark länderspezifisch, z. B. wurden 1983 aus Japan 47 000 installierte Roboter gemeldet, von denen aber nach der VDI-Richtlinie nur 2860 als Roboter gegolten hätten. Grob abgeschätzt waren um 2004 etwa 2 Millionen Roboter im Einsatz. Ein theoretisch wissenschaftliches Gebiet für Roboter gibt es nicht. Teilgebiete sind Elektrotechnik, Informatik, Mechatronik und Maschinenbau. Das Gebiet, das sich mit der Konstruktion von Robotern beschäftigt, heißt Robotik. Der Begriff wurde 1942 von Asimov in seinem Buch „Runaround“ erstmals erwähnt. Darin stellte er auch die drei Robotergesetze vor: 1. Ein Roboter soll ein menschliches Wesen nicht verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2. Ein Roboter muss den Weisungen menschlicher Wesen gehorchen, ausgenommen ist der Fall, dass diese Weisungen dem ersten Gebot widersprechen. 3. Ein Roboter muss seine eigene Existenz schützen, ausgenommen sind die Fälle, wo ein solcher Schutz dem ersten oder zweiten Gebot widerspricht. Doch, wie verhält sich nun ein Roboter, wenn ein Chirurg einen Menschen operieren will? Weiter vertieft sagte Lem etwa, wenn wir keine Krüppel, keine Degenerierten, keine Schwachsinnigen morden, nur weil sie menschenähnlich sind, dann dürfen wir dies auch nicht mit menschenähnlichen künstlichen Wesen tun. Schon mit dem Kauf eines solchen Wesens übernehmen wir folglich eine moralische Verantwortung. Die Literatur und vor allem der Film benutzen umfangreich erdachte künstliche Menschen. Bereits 1892 schildert Vernes in seinem Roman „Das Karpatenschloss“ die überraschende Wiederkehr der toten Sängerin Stilla, die einst während einer Arie auf der Opernbühne zusammengebrochen war. Im Film „Metropolis“ wurde 1927 erstmals ein Roboter dargestellt. Sehr bekannt wurde auch der riesenhafte Roboter „Gort“ mit der ihn betreffenden Dialogzeile „Klaatu Barada Nikto“ aus dem Film „Der Tag, an dem die Erde stillstand“ von 1951. Kultstatus erlangte der Roboter „Robby“ aus „Alarm im Weltall“ von 1956. In der Star-Wars-Saga (1977 – 2005) spielen R2D2 und C3PO eine eher komödiantische Rolle. In „The Next Generation“ (1987 – 1994) ist der Androide Data ein Führungsoffizier. Bereits 1987 schrieb hierzu Fromm in seinem Buch „Die Revolution der Hoffnung“ auf Seite 60: „Die Möglichkeit, menschenähnliche Roboter zu konstruieren, ist höchstens ein Zukunftstraum. Aber die Gegenwart führt uns bereits Menschen vor Augen, die sich wie Roboter verhalten. --- 354 ---

Wenn erst die meisten Menschen Robotern gleichen, wird es gewiss kein Problem mehr sein, Roboter zu bauen, die Menschen gleichen.“ Letztlich wird so teilweise gehofft oder geglaubt, dass auf diese Weise der menschliche Geist aus seinem vergänglichen Körper befreit werden kann und dann in einem Computer ewig weiterlebt. Freud ordnet so etwas den Kränkungen der Menschheit zu. Schließlich wurde mehrfach versucht, auch künstliche Menschen aus Fleisch und Blut herzustellen. In der griechischen Mythologie war der Schmiedegott Hephaistos für die Anfertigung solcher künstlicher Geschöpfe zuständig. Im 15./16. Jh. unternimmt Paraclsus ernsthaft den Versuch, in einer Retorte einen Menschen aus Sperma und Blut wachsen zu lassen. Doch erst 1818 schreibt Schelley dazu ihren Roman „Frankenstein or The Modern Prometheus“. Erweitert geht hieraus 1831 der Homunkulus (lateinisch Menschlein) hervor. Ihn hat dann Goethes in seinem „Faust II“ von 1832 durch den Famulus Wagner genau nach Paracelsus gegebener Anleitung versucht erzeugen zu lassen. 1932 beschreibt Huxleys in „Schöne neue Welt“ die Züchtung und Kultivierung eines Menschenparks mit unterschiedlichen „Leistungsstufen“. All diese Mythologien nehmen jedoch eigentlich nur die Träume einiger heutiger Biowissenschaftler vorweg. Auf genetischer Basis erfolgte um 1988 so die Übertragung eines Embryos in eine Leihmutter. Sogar die extra-uterine Schwangerschaft ist bereits geplant. So soll schließlich die „genetische Schranke“ der Arten durchbrochen, Arten untereinander vermischt oder gar neue Arten gezüchtet werden. 1997 kündigte der Physiker Richard Seed (Chicago) an, einen Menschen nach Art des Schafes „Dolly“ zu klonen (griechisch. klón Zweig, Schössling, der durch ungeschlechtliche Vermehrung entsteht). Die meisten Wissenschaftler glauben jedoch ernsthaft, dass die „natürliche“ Fortpflanzung und Geburt der Standard bleiben wird und sogar zum (Weiter-) Bestehen der Menschheit unbedingt notwendig ist. Schließlich wachsen die Kinder in der üblichen Familienumgebung am effektivsten auf. Alles andere, wie Roboter usw. sind dann aber nur ähnlich den technischen Maschinen nützliche Hilfsmittel. Es gilt wahrscheinlich sogar, dass es keine „Übermenschen“ geben kann und darf. Und was soll ein Mensch mehr können, als die Welt zu erkennen und in ihr mit den anderen gut und glücklich zu leben. Nicht von ungefähr hat hierzu schon Schiller in seinen Gedichten „Die Künstler“ 1789 geschrieben: Der Menschheit Würde ist in eure Hand gegeben, bewahret sie! Sie sinkt mit euch! Mit euch wird sie sich heben! Dieser Text ist steht auch als Inschrift am Stadttheater Hildesheim und dem 1954 neu eröffneten Theater von Neustrelitz (Bild 11)

Bild 11. Inschriften an den Theatern in Hildesheim und Neustrelitz. --- 355---

Eigentlich sollte wohl die Menschheitswürde der Würde jedes Menschen (nach 1. unserer Verfassung) übergeordnet sein. Mit Schiller lässt sich dann auch leicht der Bogen zum Beginn des Buches (Schallplatte V. Sinfonie von Beethoven) schließen. Seine „Ode an die Freude“ vom Sommer 785 wurde von Beethoven nämlich in den 4. Satz seiner IX. Sinfonie übernommen: Seid umschlungen Millionen! Diesen Kuß der ganzen Welt! Brüder – überm Sternenzelt muß ein lieber Vater wohnen. Wem der große Wurf gelungen, eines Freundes Freund zu seyn; wer ein holdes Weib errungen, mische seinen Jubel ein! usw.

Freude, schöner Götterfunken, Tochter aus Elisium, Wir betreten feuertrunken Himmlische, dein Heiligthum. Deine Zauber binden wieder, was der Mode Schwerd getheilt; Bettler werden Fürstenbrüder, wo dein sanfter Flügel weilt. – Chor –

___________________________________________

Unterm Strich

Ich bin der „Püffki“, nur 33 mm groß und aus Keramik, habe viele Ideen und bin die männliche Muse und das Maskottchen meines Herrchens. Ich habe fleißig mitgearbeitet und kann nun in Ruhe und mit Genuss meine Pfeife schmauchen. --- 356 ---

11. Anhang 11.1 Literaturverzeichnis [Abr84] [Ada10] [Ard66]

[Ass00] [Ass97] [Bal89] [Bar06] [Bar93] [Bar94] [Bar71] [Bet88] [Beu89] [Bil77] [Bir33] [Bis95] [Bla00] [Bon63] [Bon87]

[Bor94] [Bru03] [Buc50] [Bur83] [Car52] [Car54] [Car09]

[Cha75] [Chu90] [Cry98] [Cub65] [Daw94] [Dra97] [Dre85]

Abramowitz, M.; Stegun, I. A.: Handbook of mathematical Functions, Dover Publikations, INC, New York, 1964, Harry Deutsch, Thun – Franfurt a/M. 1984 Adamatzky, A. (Editor): Game of Life Cellular Automata, Springer London u.a. 2010 Ardenne, M. v., Effenberger, D., Müller, M., Völz, H.: Untersuchungen über Herstellung und Eigenschaften aufgedampfter Magnetschichten als Speicherschichten für Magnetbänder. IEEE Trans. Mag. MAG-2 (1966) 3, 202 - 205. engl.: „Investigations regarding production and properties of vapour deposited magnetic films for dynamic stores“ Assmann, J.: Religion und kulturelles Gedächtnis. Beck, München 2000 Assmann, J.: Das kulturelle Gedächtnis Beck, München, 1997 Balfans, D. u. Bergholz, A.: Untersuchungen zum Shannon-Fano- und Huffman-Code. Nachrichtentechnik - Elektronik 39 (1989) 6, 220 - 222 Barrow, J. D.: Das 1u1 des Universums. Rororo, Reinbeck b. Hamburg 2006 Barnsley, M. F.; Hurd L. P.: Fractal Image Compression, AK Peters Ltd., Wellesley, MA, 1993 Barrow, J. D.: Ein Himmel voller Zahlen. Spektrum-Verlag. Heidelberg - Berlin - Oxford 1994 Barron, D. W.: Rekursive Techniken in der Programmierung. B. G. Teubner, Leipzig 1971. Bennett, C. H.: Maxwells Dämon. Spektrum der Wissenschaft (1988) 1, S. 49 - 55. Beutelspacher, A. u. Petri, B.: Der Goldene Schnitt. BI Wissenschaftsverlag, Mannheim Wien – Zürich 1989 Billing, H.: Zur Entwicklungsgeschichte d. digitalen Speicher. Elektron. Rechenanlagen (1977) 5, 213 - 218 Birkhoff, G. D.: Aesthetic Measure. Cambridge (Mass.) 1933 Bischof, M.: Biophotonen. Zweitausendundeins, Frankfurt a. M. 1995 Blackmore, S.: Die Macht der Meme. Spektrum der Wissenschaft (2000) H. 12. S. 74 Bongard, M. M.: Über den Begriff der nützlichen Information. Probleme der Kybernetik 6 (1966) S. 91 - 130 (russ. Original 1963) Bonitz, M.: Zum Stand der Diskussion über Verhaltensprinzipien der wissenschaftlichen Information. Symposiumsband des WIZ, Berlin vom 5. Wiss. Symposium des wissenschaftlichen Informationszentrums der AdW der DDR, 12. -14. Okt. 1987, S.1 - 7 Bormann, S.: Virtuelle Realität - Genese und Evaluation. Addison-Wesley, Bonn u. a. 1994 Bruß, D. Quanteninformation. Fischer, Frankfurt 2003 Buchwald, E.: Das Doppelbild von Licht und Stoff. 3. Aufl. Schiele und Schön, Berlin 1950. Burrows, M.; Wheeler D. J.: A Block-sorting Lossless Data Compression Algorithm. Digital Equipment Corp, Sys Res Ctr SRC-124.ps. Z (74K) SRC Research, Report 124 (1983) Carnap, R.; Bar-Hillel, Y.: On the outline of a theorie of Semantic Information (1952); in Y. Bar-Hillel: Language and Information. Reading MD, 1964 pp. 221 - 274 Carnap, R.: Einführung in die symbolische Logik. Springer-Verlag, Wien - New York 1954 Carnot, S.: "Betrachtungen über die bewegende Kraft des Feuers und die zur Entwicklung dieser Kraft geeigneten Maschinen". Verlag von Wilhelm Engelmann, Leipzig 1909. Nachdruck: Akademische Verlagsgesellschaft Geest & Portig K.-G., Leipzig 1982. Chaitin, G.: Randomness and Mathematical Proof. Scientific American 1975, Mai. Churchland: „Ist die denkende Maschine möglich?“; sowie Searl, u. a.: „Ist der menschliche Geist ein Computerprogramm ?“ Spektrum der Wissenschaft, März 1990 S. 40 - 54 Crystal, D.: Die Cambridge Enzyklopädie der Sprache. Parkland Verlag, Köln 1998 Cube, F. v.: Kybernetische Grundlagen des Lernens und Lehrens. Stuttgart 1965 Dawkins, R.: Das egoistische Gen. Spektrum Akademischer Verlag. Heidelberg 1994 Drake, F., Sobel, D.: Signale von anderen Welten. Weltbild Verlag, Augsburg 1997 Dreyfus, H. L.: Was Computer nicht können – die Grenzen künstlicher Intelligenz. athenäum, Frankfurt/M 1985

--- 357---

[Dri72] [Ebb85] [Eig83] [Eco76] [Ern86] [Fan66] [Fis87]

[Fra69] [Fra85] [Fri96] [För74]

[Foe93] [Fra01] [Fra69] [Fre30] [Fre85] [Fuc68] [Ger97] [Ges98] [Gof99] [Hag58] [Hau81] [Hei95] [Her94]

[Hil84] [Hen97] [Hi84a] [Hil59] [Hil87] [Hil90] [Hil00] [Hol94] [Hor94]

Drischel, H.: Das neuronale Gedächtnis. Nova acta Leopoldina Band 37/1, Nr. 206. S. 325 353. Johann Ambrosius Barth, Leipzig 1972 Ebbinghaus, H.: Über das Gedächtnis. Dunker, Leipzig 1885 Eigen M. u. Winkler, R.: Das Spiel. Piper. München - Zürich, 1983 Umberto E.: A theory of semiotics. Bloomington 1976. dt. Semiotik. Entwurf einer Theorie der Zeichen. Fink, München 1987, ISBN 3-7705-2323-7. Ernst, B.: Holographie - Zaubern mit Licht. Wittig, Hückelhoven 1986/7 Fano, R. M.: Informationsübertragung. Oldenbourg, München - Wien 1966. (engl. Original 1961) Fischer, G.: Über Proportionalitäten und Erhaltungssätze: Eine Physik der Natur-Konstanten oder Entwurf einer Feldtheorie für die Biologie: Teil I bis 3, Zool. Jb. Anat. 116(1987) 1338; 129-167; 245- 283. Frank, H.: Kybernetische Grundlagen der Pädagogik. 2. Aufl. Bd. 1 + 2. Agis - Verlag Baden-Baden 1969 Franke, H. W.: Computergraphik - Computerkunst. Springer; 1985 Friedrichs, B.: Kanalcodierung; Springer 1996 Foerster H. v.: Cybernetics of Cybernetics, The Control of Control and the Communication of Communication 1974 at the University of Illinois, Urbana, Illinois. 2. Auflage. Future Systems Inc., Minneapolis (Minn.) 1995 Foerster, H. v.: Wissen und Gewissen. Suhrkamp, Frankfurt/M 1993 Frayn, M.: Kopenhagen, 2. Aufl. Wallstein, Göttingen 2001 Frank, H.: Kybernetische Grundlagen der Pädagogik. 2. Aufl. Bd. 1 + 2. Agis - Verlag Baden-Baden 1969 Freud, S.: Vorlesungen zur Einführung in die Psychoanalyse, Verlag Wien 1930 Freud, S.: Der Witz und seine Beziehungen zum Unbewußten. 2. Aufl., Franz Deuticke, Leipzig - Wien 1912, (Kiepenheuer, Leipzig - Weimar, 1985) Fucks, W.: Nach allen Regeln der Kunst. Deutsche Verlagsanstalt, Stuttgart 1968 Gerthsen, Chr.: siehe Vogel, H: Gerthsen Physik. 19. Aufl. Springer - Verlag, Berlin u.a. 1997 Geschke, H. W.; Wehr, W.: Technisches Zeichen; 23. Auflage. B.G. Teubner, Stuttgart Leipzig 1998. Goff, J. L.: Geschichte und Gedächtnis. Ullstein, Berlin, 1999 Hagenmaier, O.: Der Goldene Schnitt. Impuls-Verlag. Heidelberg - Berlin 1958 Hauffe, H.: Der Informationsgehalt von Theorien. Springer-Verlag, Wien - New York, 1981 Heiß., P.: Die neue Holographie - Fibel. 4. Aufl. Wittig - Fachbuch, Hückehofen 1995 Hertz, H.: Die Prinzipien der Mechanik, im neuen Zusammenhang dargestellt. Leipzig 1894. Neu in Ostwalds Klassiker der exakten Wissenschaften, Bd. 263. Akademische Verlagsgesellschaft Geest & Portig, Leipzig 1984 Hilberg, W.: Assoziative Gedächtnisstrukturen - Funktionale Komplexität. R. Oldenbourg München 1984 Hennig, A.: Die andere Wirklichkeit - Virtual Reality - Konzepte - Standard - Lösungen. Addison-Wesley. Bonn u. a. 1997 Hilberg, W.: Ist die Entropie als Informationsmaß schon der Weisheit letzter Schluß? Elektronische Rechenanlagen 26(1984) 6, 281-289 Hiller Jr, L. A.,; Isaacson, L.M.: Experimentel Music. McGraw-Hill, New York. Toronto, London 1959 Hilberg, W.: Eine deterministische Informationstheorie auf der Basis relevanter logischer Entscheidungen. Institut für Datentechnik, TH Darmstadt. Nr. 67/87 vom 6.7.87 Hilberg, W.: Die texturale Sprachmaschine als Gegenpol zum Computer. Verlag Sprache und Technik, Groß - Bieberau, 1990 Hilberg, W.: Große Herausforderungen in der Informationstechnik. Sprache und Technik, Groß - Bieberau, 2000 Holtorf, K.: Das Handbuch der Grafikformate. Franzis, 1994 Horobuchi, S.: Stereogramm. ars-Edition, Zug 1994

--- 358 ---

[Hos84] [Huf52] [Jür89] [Kap72] [Kit72] [Kla63+]

[Kli71] [Kli93] [Kra00] [Kru92] [Kuh04] [Kup70] [Lau54] [Lau89] [Leo71] [Ler70] [Lev93] [Lew63]

Hoschek, J.: Mathematische Grundlagen der Kartographie. Bibliographisches Institut, Mannheim - Wien - Zürich 1984 Huffman, D. A.: A method for the Construction of Minimum Redundncy Codes. Proc IRE 40 (Sept. 1952) 1098 - 1101 Jürgens, H., Peitgen, H. - O. und Saupe, D.: Fraktale eine komplexe Sprache für komplexe Strukturen. Spektrum der Wissenschaft; (1989) S. 106 - 118 Kaplan, R. W.: Der Ursprung des Lebens, Georg Thieme, Stuttgart 1972 Kittler, F.: Draculas Vermächtnis - Technische Schriften. Reclam-Verlag, Leipzig 1993 Klaus, G.: Die Macht des Wortes. 5. Aufl. Deutscher Verlag der Wissenschaften. Berlin 1969 (1. Aufl. 1963) + Kybernetik in philosophischer Sicht. Dietz - Verlag, Berlin 1965 + Semiotik und Erkenntnistheorie. 2. Aufl. VEB Deutscher Verlag der Wissenschaften, Berlin 1969 + u. Liebscher, H.: Systeme - Informationen - Strategien. Verlag Technik, Berlin 1974 Klix, F.: Information und Verhalten. Deutscher Verlag der Wissenschaften, Berlin 1971. Klix, F.: Erwachendes Denken. 2. Aufl. Deutscher Verlag der Wissenschaften, Berlin 1983 + Spektrum Akademischer Verlag, Heidelberg - Berlin - Oxford 1993 Krause, W.: Denken und Gedächtnis. Hogrefe, Göttingen - Bern - Toronto - Seattle 2000 Kruger, A.: Block Truncation Compression. Dobb`s Journal (1992),4, 48-107 Kuhlen, R.: Informationsethik - Umgang mit Wissen und Information. UVK Konstanz 2004 Kupper, H.: Computer und musikalische Komposition, Vieweg 1970 Lau, E.: Intensionale Keime verschiedener Programmlänge. Forschungen und Fortschritte 28 (1954) 1, 6 - 10 Lauwerier, H.: Fraktale I/II, Wittig-Fachbuch, Hückelhoven 1989/1992 Leon Chua: Memristor, the Missing Circuit Element, IEEE Transactions on Circuit Theory 1971, CT-18 (5) S.507 - 519 Lerner, A.: Grundzüge der Kybernetik. Verlag Technik, Berlin 1970 Levy, St.: KL - Künstliches Leben aus dem Computer. Droemer Knaur, München 1993. Lewin, K.: Feldtheorie in den Sozialwissenschaften. Ausgewählte theoretische Schriften. Verlag Hans Huber, Bern - Stuttgart 1963 ++ Lück, H. E.: Die Feldtheorie und Kurt Lewin. Eine Einführung. Weinheim:

Psychologie Verlags Union 1996 [Lyr98] [Mai14] [Mai16] [Man61]

[Man87] [Mar66] [Mas70] [Mat00] [May78] [Mey59] [Mey89]

[Mol56]

Lyre, H.: Die Quantentheorie der Information. Springer Akademischer Verlag, Berlin 1998 Mainzer, Kl.: Die Berechnung der Welt. - Von der Weltformal bis zu Big Date. C. H. Beck. München 2014 Mainzer, Kl.: Information. Berlin University Press, Wiesbaden 2016 Mandelbrot, B. B.: On the theory of word frequencies and on related Markovian models of discourse. In R. Jacobson (Hrsg.): Structures of language and its mathematical aspects (American Mathematical Society, New York, 1961) Mandelbrot, B. B.: Die fraktale Geometrie der Natur. Birkhäuser, Basel - Boston, 1987 Marko, H.: Die Theorie der bidirektionalen Kommunikation und ihre Anwendung auf die Nachrichtenübermittlung zwischen Menschen. Kybernetik 3 (1966) 3, 128-136 Maser, S.: Numerische Ästhetik. Verlag ?? 1970 Mater, E.: Rückläufiges Wörterbuch der deutschen Gegenwartssprache. Ausgabe auf CD ROM, 2000 Mayer, W.: Grundverhalten von Totenkopfaffen unter besonderer Berücksichtigung der Kommunikationstheorie. Kybernetik 8 (1970) 2, 59-68 Meyer-Eppler, W.: Grundlagen und Anwendungen der Informationstheorie. 2. Aufl. Springer - Verlag. Berlin - Heidelberg - New York 1959 Meyer, J.: Die Verwendung hierarchisch strukturierter Sprachnetzwerke zur redundanzarmen Codierung von Texten. Dissertation, Technische Hochschule Darmstadt, 1989 Moles, A. A.: Informationstheorie der Musik. In: Nachrichtentechnische Fachberichte, Bd. 3 Braunschweig, 1956. S. 47 - 55

--- 359---

[Mol60] [Mol68] [Mor46]

[Muc65]

[Mül90] [Nak74] [Neu69] [Neu70] [Nei94] [Nic72] [Nyb94] [Oer82] [Opp29] [Opp95] [Ost89] [Pet67] [Pei31] [Pru90] [Ren62] [Ren82] [Res68] [Ric94] [Rie13] [Roc09] [Ruc90] [Sac79] [Sau67] [Sch41]

[Sch51] [Sch83]

Moles, A.: Über konstruktive und instrumentale Komplexität. Grundlagenstudium und Geisteswissenschaft 1(1960)1, 1 Moles, A.: Information Theory and Esthetic Perception; Illinois Press 1968 (deutsch DuMont 1971) Morris, C. W.: Sign Languages and Behavier Prentice-Hall Inc. New York 1946, dt. Grundlagen der Zeichentheorie, Ästhetik und Zeichentheorie. Carl Hanser Verlag, München 1972 Mucke, H., Simon, H.: Anaglyphen zur Darstellenden Geometrie. Volk und Wissen. Berlin 1965 + Mucke, H., Günzler, G., Fischer, Cl.: Anaglyphen zur Struktur der Stoffe. Volk und Wissen. Berlin 1986 + Mucke, H.: Anaglyphen Raumzeichnungen. B.G. Teubner, Leipzig 1970 Müller, J.: „Arbeitsmethoden der Technikwissenschaften - Systematik, Heuristik, Kreativität“. Springer-Verlag. Heidelberg u.a. 1990. Nake, F.: Ästhetik der Informationsverarbeitung, Springer - Verlag, Wien - New York 1974 Neuberger,E.: Kommunikation in der Gruppe. R. Oldenbourg-Verlag, München - Wien 1969 Neuberger,E.: Zwei Fundamentalgesetze der bidirektionalen Information. AEÜ 24 (1970) 5, 209ff. Neirynck, J.: Der göttliche Ingenieur. Expert - Verlag, Renningen - Malsheim, 1994 Nickel, K.: Die Dualität Hardware – Software. in Nova Acta Leopoldina Band 37.1; Nr. 206; Informatik, J. A. Barth, Leipzig 1972. Nyberg, D.: Lob der Halbwahrheit. Junius, Hamburg 1994 Oerter, R.; Montada, L. (Herausgeber): Entwicklungs-Psychologie. 4. Aufl. BeltzVerlagsunion, München 1982 Oppenheim, P.: Die natürliche Ordnung der Wissenschaften. Gustav Fischer, Jena 1929 Oppermann, D., Ludwig, A.: Möglichkeiten zur Approximation von L-Systemen durch Evolution. Diplomarbeit, TU-Berlin 1995 Ostrowski, J. I.: Holographie - Grundlagen, Experimente und Anwendungen. Harri Deutsch, Thun - Frankfurt/M. 1989 Peters, J.: Einführung in die allgemeine Informationstheorie, Springer Verlag, Berlin – Heidelberg – New York 1967 Peirce, C. S.: Collected Papers, Herausgeber: Charles Hartshorne / Paul Weiss, Harvard UP 1931, 2.243. dt: Vorlesungen über Pragmatismus. Felix Meiner Verlag, Hamburg 1973 Prusinkiewicz, P.; u. a.: The Algorithmic Beauty of Plants. Springer-Verlag, New York, 1990. http://algorithmicbotany.org/papers/abop/abop.pdf Renyi, A.: Wahrscheinlichkeitsrechnun. Deutscher Verlag der Wissenschaften. Berlin 1962 Renyi, A.: Tagebuch über die Informationstheorie. Deutscher Verlag der Wissenschaften, Berlin 1982 Resnikow, L. O.: Erkenntnistheoretische Fragen der Semiotik. Deutscher Verlag der Wissenschaften Berlin, 1968 Richardson, D.: Create Stereogramms on Your PC. Waite Group, 1994 Riekenberg, M.: Erstellung eines Textassistenten auf der Basis der Hilbergcodierung. Diplomarbeit TU Berlin 2013 Roch, A.: Claude E. Shannon – Spielzeug, Leben und die geheime Geschichte seiner Theorie der Information. Gegenstalt Verlag. Berlin 2009 Rucker, R.: Der Ozean der Wahrheit. Fischer-Logo, Frankfurt/M 1990 Sachsenweger, R.; Stereo - Sehübungen. Georg Thieme, Leipzig, 1979 Saussure, F.: Grundfragen der allgemeinen Sprachwissenschaft. de Gruyter, Berlin 1967. Schmidt; H.: Regelungstechnik. Die technische Aufgabe und ihre wirtschaftliche, sozialpolitische und kulturpolitische Auswirkung. Z. Verein Deutscher Ingenieure 85 (25.1.1941) Nr. 4; 81 - 88 Schrödinger, E.: Was ist Leben. Franke, Bern 1951 Scheel, H. u. Lange W. (Herausgeber): Zur Bedeutung der Information für Individuum und Gesellschaft. Akademie Verlag, Berlin 1983.

--- 360 ---

[Sch93]

[Ste72]

Schmidt, R. F. u. Thews, G. (Hrsg.): Physiologie des Menschen, 25. Aufl. Springer Berlin u.a. 1993 Schmidt, R. F.: Neuro - und Sinnesphysiologie. 2. Aufl. Springer Berlin u.a. 1995 Schumacher, B.: Physical Review A, 51 (4); 1995, S. 2738 - 2747 Seiffert, G.; Radnitzky, G. (Herausgeber): Handlexikon der Wissenschaftstheorie. dtv, München 1992 Shannon, Cl. E.: A mathematical theory of communication. Bell Syst. Techn. J. 27(Juli 1948) S. 379 - 423 und (Oktober 1948) S.623 - 656. (auch University Illonois Press 1949). + Teil 2 Communication in the Presence of Noise. Proc. IRE 37 (1949) pp. 10 - 20, (eingereicht am 24.3.1940), übersetzt in: „Mathematische Grundlagen der Informationstheorie“. R. Oldenbourg, München - Wien, 1976 Sheldrake, R.: Das Gedächtnis der Natur. Scherz - Verlag Bern - München - Wien, 4. Aufl. 1993. engl. Original: "The Presense of the Past" 1988. Stichel, G.: Monte-Carlo-Texte - Automatische Manipulation von Sprachlichen Einheiten. in: Kunst aus dem Computer - Exakte Ästhetik 5 Nadolski Stuttgart 1967 Steinbuch, K.: „Über die künftigen Entscheidungen der Nachrichtenverarbeitungstechnik“ ETZ-A 84 (1963) S. 485-493 Steinbuch, K.: Mensch und Maschine. In: Nova Acta Leopoldina, Neue Folge Nr. 206 Band

[Str02] [Tho94]

Strutz, T.: Bilddatenkompression. 2. Aufl. Vieweg, Braunschweig - Wiesbaden 2002 Thompson, R. F.: Das Gehirn. 2. Aufl. Spektrum Akademischer Verlag, Heidelberg - Berlin

[Sch95] [Sch95a] [Sei72] [Sha48]

[She88] [Sti67] [Ste63]

37/1, S. 451 ff. J. A. Barth, Leipzig 1972 - Oxford, 1994 [Tuc??] [Völ00] [Völ01] [Völ03] [Völ03a]

[Völ04] [Völ05] [Völ07] [Völ08]

[Völ14] [Völ14a] [Völ15] [Völ16]

[Völ58a] [Völ58b]

Tucholski, H.: Bildfläche und Maß. Verlag der Kunst, Dresden o. J. Völz, H.: Zur Möglichkeit eines Informationsfeldes. GrKG 41(2000) 1, 3 - 9, auch 36 GrKG (1995) 4, 164 - 170 Völz, H.: Wissen - Erkennen - Information. Allgemeine Grundlagen für Naturwissenschaft, Technik und Medizin. Shaker Verlag, Aachen 2001 Völz, H.: Handbuch der Speicherung von Information Bd. 1 Grundlagen und Anwendung in Natur, Leben und Gesellschaft. Shaker Verlag Aachen 2003 Völz, H.: Gedanken zur Verdaulichkeit von Information. In: Informationswissenschaft (Über-) Leben in der Informationsgesellschaft. Deutsche Gesellschaft für Informationswissenschaft und Informationspraxis e.V. Wiesbaden 2003, S. 15 - 3 Völz, H.: Ist Kybernetik nur noch Nostalgie? In: Abhandlungen der Leibniz-Sozität, Band 11. Georg Klaus zum 90. Geburtstag. trafo verlag Berlin 2004, S. 73 – 83 Völz, H.: Handbuch der Speicherung von Information Bd. 2 Technik und Geschichte vorelektronischer Medien. Shaker Verlag Aachen 2005 Völz, H.: Handbuch der Speicherung von Information Bd. 3 Geschichte und Zukunft elektronischer Medien. Shaker Verlag Aachen 2007. S. 109ff. Völz, H.: Kontinuierliche Digitaltechnik. Shaker-Verlag. Aachen 2008, siehe auch: Völz, H.: Kontinuierliche Digitaltechnik. Elektronik 2008, H. 15, 38 – 42 + H. 17, 44 – 49 + H. 19, 46 – 52 Völz, H.: Maßstäbe für die Zeit. Versuch einer Umrechnung. Shaker Verlag, Aachen 2014 Völz, H.: Informationsschwelle und Geheimdienste. GrKG 55 (2014) 3: 112 - 122 Völz, H.: Zur Relativität der Zeit. GrKG 56 (2015) 2: 55 - 64 Völz, H. Information - Software - Hardware. In: Fuchs-Kittowski, Frank / Kriesel, Werner (Hrsg.) Informatik und Gesellschaft. Festschrift zum 80. Geburtstag von Klaus FuchsKittowski. Frankfurt a. M., Berlin, Bern, Bruxelles, New York, Oxford, Wien: Peter Lang Internationaler Verlag der Wissenschaften 2016. Völz, H.: Beitrag zur reziproken Dynamikregelung. Hochfrequenztechnik u. Elektroakustik 67 (1958) 2, 87 - 94 Völz, H.: Zur Steigerung der Registriergenauigkeit bei der Magnetbandaufzeichnung. Wiss. Zeitschr. Universität Greifswald, Math.-Nat. Reihe, VIII (1958/59), 277-281 + Abschätzung der Kanalkapazität für die Magnetbandaufzeichnung. Elektron. Rundschau 13 (1959) 6, 210 - 212

--- 361---

[Völ67] [Völ67a] [Völ75] [Völ76] [Völ79] [Völ82] [Völ83] [Völ83a] [Völ88] [Völ88a] [Völ89] [Völ90] Völ90a] [Völ90b]

+ Möglichkeiten und Grenzen der Magnetbandaufzeichnung für Messzwecke. Nachrichtentechnik 9 (1959) 8, 376-379 + Zur Registriergenauigkeit der Magnetbandaufzeichnung. Elektron. Rundschau 14 (1960) 1, 23-25 Völz, H.: Zum Zusammenhang von Energie - und Speicherdichte bei der Informationsspeicherung. Internat. Elektron. Rundschau 16 (1967) 2, 41 - 44 Völz, H.: Betrachtungen zum Zusammenhang von Speicherdichte und Zugriffszeit. Wiss. Zeitschr. f. Elektrotechnik 9 (1967) 2, 95-107 Völz, H.: Beitrag zur formalen Musikanalyse und -synthese. Beiträge zur Musikwissenschaft 17 (1975) 2/3, 127 - 154 Völz, H.: Diskussionsbeitrag zur Information und Emotion. In: Philosophische und ethische Probleme der Biowissenschaften. Akademie-Verlag Berlin 1976, S.269 - 277 Völz, H.: Zum Begriffsbereich von „analog“ und „digital“. Nachrichtentechnik-Elektronik 29 (1979) 5, 217-219 Völz, H.: Information I - Studie zur Vielfalt und Einheit der Information. Akademie Verlag, Berlin 1982. Völz, H.: Information II, Theorie und Anwendung vor allem in der Biologie, Medizin und Semiotik. Akademie-Verlag, Berlin 1983. Völz, H.: CORDIC und ähnliche Algorithmen der elementaren Funktionen mit besonderer Eignung für Mikrorechner. Nachrichtentechnik-Elektronik 33 (1983) 12, 506-510 Völz, H.: Entropie und Auffälligkeit. Wissenschaft und Fortschritt 38 (1988) 10, 272-275 Völz, H.: Fraktale - Ästhetik - Kunst. Spectrum 19 (1988) H. 8, S, 16-19 Völz, H.: Elektronik - Grundlagen - Prinzipien - Zusammenhänge. 5. Aufl. Akademie Verlag, Berlin 1989 (1. Aufl. 1974) Völz, H.: Computer und Kunst. Urania-Verlag, Leipzig - Jena - Berlin 1990. 1. Aufl. 1988 Völz, H.: „Zu einer Informationsschwelle“. Kommunikationskongress Kokon ‘90, ChaosComputer-Club- Hamburg, Berlin, Haus der jungen Talente, 25.2.90 Völz, H.: Neuer „Knigge“ über den Umgang mit Informationen. Computerwoche 10,

9. März 1990, S. 8 [Völ91] [Völ96] [Völ96a] [Völ99] [Wei77] [Wei01] [Wel84]

[Wer89]

[Wie48]

[Wit87] [Wor77] [Zeh05] [Zem75]

Völz, H.: Grundlagen der Information. Akademie - Verlag, Berlin 1991 Völz, H.: Informationsspeicher, Grundlagen - Funktionen - Geräte. Expert-Verlag, Renningen - Malmsheim 1996. S. 95ff. Völz, H.: Die Welt in Zahlen und Skalen. Spektrum Akademischer Verlag, Heidelberg , Berlin, Oxford 1996 Völz, H.: Das Mensch - Technik - System. Expert - Verlag, Renningen - Malmsheim 1999 Weizenbaum, J.: Die Macht der Computer und die Ohnmacht der Vernunft. Suhrkamp, Frankfurt/M, 1977 Weizenbaum, J.: Computermacht und Gesellschaft. Suhrkamp, Frankfurt/M 2001 Welch, T. A.: A Technique for high-performance data compression. IEEE Computer J. (1984), 10, 8ff. Wersig, G.: Organisation - Kommunikation: Die Kunst, ein Chaos zu organisieren. FBO Fachverlag für Büro und Organisationstechnik GmbH. Baden-Baden 1989. +Wersig.G.: Organisiertes Chaos. Eine umfassende Konzeption zum Informationsmanagement. gdi impuls 3/90, S. 4 - 18 Wiener, N.: Cybernetics or control and communication in the animal and the machine Hermann, Paris 1948 / Regelung und Nachrichtenübertragung in Lebewesen und in der Maschine, Econ - Verlag, Düsseldorf - Wien 1963, dito Econ 1992 Witten, I. H., Neal, R. M., Cleary, J. G.: Arithmetic Coding Data Compression. Communications ACM 30 (1987) 6, 520 - 540 Worobjow, N. N.: Die Fibonaccischen Zahlen. Deutscher Verlag der Wissenschaften, Berlin 1977 Zeh, H. D.: Entropie, Fischer, Frankfurt 2005 Zemanek, H.: Elementare Informationstheorie. R. Oldenbourg Verlag, München - Wien 1975

--- 362 ---

[Zem88] [Zip48] [Ziv77] [Zho15] [ZZ88]

Zemanek, H.: Der Geist in der Flasche. Warum der Computer nicht ausschaut. Informationstechnik 30(1988) 1, 3 - 10. Zipf, G. K.: Human behaviour and the principle of heart effort. Addison-Wesly, Cambridge, Mass. 1949 Ziv, J., Lempel, A.: IEEE Trans IT-23 (1977) 337 - 343 Zhong, L.: Bildanalyse mit Eye-Tracking – Holbeins Porträt Heinrichs VIII., Die Gesandten und Darmstädter Madonna. Hausarbeit HU-Berlin. Medienwissenschaften 2015/16 http://www.jugend-forscht.de/projektdatenbank/gedicht-generator-ein-anwendungsbeispielfuer-natuerlichsprachliche-texterzeugung/2.html

--- 363---

11. 2 Einige Begriffserklärungen Information besteht aus einem stofflich-energetischen Informationsträger, der auf ein System (oft genügt für die Betrachtungen eine kybernetische black box) wirkt und in ihm und/oder in seiner Umgebung Veränderungen hervorruft, die das Informat sind. Dieser Zusammenhang kann hoch komplex sein (maximal bei Katastrophen). Nur wenn die Zusammenhänge von Informationsträger und Informat nicht mit übersichtlichen stofflichen und/oder energetischen Erklärungen zu beschreiben sind, dann ist der Begriff Information „richtig“, ja nützlich. Es können dann die verschiedenen Informationsaspekte W-, Z-, S-, P- und V- Information unterschieden werden. Die Software für eine Hardware kann als Sonderfall, nämlich K-Information betrachtet werden. Für eine Quanteninformation ist die Zuordnung (noch) unklar. Das QuBit passt nicht recht in dieses Modell. Infolge der Besonderheiten der Quantenphysik ist die weitere Entwicklung abzuwerten. Wissen ist primär in unserem Bewusstsein vorhanden und damit (subjektiv) nutzbar. Dann bewirkt es ein Informat. Gespeichert kann es als P-Information abgelegt und davon individuell erlernt werden. (Abschnitt 6.95) Messwerte sind Ergebnisse von Messungen, die quantitativ in ganzen Zahlen oder t-kontinierlichen Werten und qualitativ in Maßeinheiten angeben werden. Daten sind vor allem Messwerte, die als gespeicherte P-Information existieren. Sie bestehen aus tkontinuierlichen Größen (Zahlenwerten), zu denen auch eine Maßeinheit als Qualität gehört. Signale sind zeitabhängige Größen (Daten, Messwerte), die vor allem bei der Übertragung als SInformation benutzt werden. analog, dezimal, binär, digital, diskret, dual, kontiuierlich, stetig, oktal, quantisiert betreffen vor allem (Mess-) Werte (s. S. 57ff.). Bei kontiuierlich sind m-, t- und p-kontinuierlich zu unterscheiden (s. Bild 5.14, S. 58f.). Wahrscheinlichkeiten (Häufigkeiten) (Bild 5.12. S. 54 ff.)

--- 364 ---

11.3 Personenverzeichnis Adorno, Theodor (Wiesengrund): 1903 – 1969 Alberti, Leon Battista. 1404 – 1472 Alzheimer, Alois: 1864 – 1915 Archimedes. 287 – 212 v. Chr. Ardenne, Manfred, Baron von: 1907 – 1997 Aristoteles aus Stagira: 384 – 322 v. Chr. Arrhenius, Svante August:1859 – 1927 Asimov, Isaak: 1920– 1992 Assmann, Jan: *1938 Avery, Oswald Theodore: 1877 – 1955 Babbage, Charles: 1792 – 1871 Bach, Johann Sebastian 1685 – 1750 Barkhausen, Georg Heinrich: 1881 – 1923 Barrow, John D.: *1952 Bates, Henry Walter: 1825 – 1892 Bateson, William: 1861 – 1926 Beethoven, Ludwig van: 1770 – 1827 Beijerinck Martinus Willem: 1851 – 1931 Bell, John Stewart: 1928 – 1990 Bense, Max: 1910 – 1990 Bethe, Hans Albrecht: 1906 – 2005 Bernoulli, Daniel: 1700 –1782 Billing, Heinz: 1914 – 2017 Birkhoff, George David: 1884 – 1944 Binet, Alfred: 1857– 1911 Bleuler, Eugen: 1857 - 1939 Bohr, Niels: 1885 – 1962 Böll, Heinrich: 1917 – 1985 Braunmühl, Hans-Joachim von: 1900 – 1980 Brecht, Bert, Bertolt (eigentl. Eugen Berthold Friedrich): 1898 – 1956 Brewster, Sir David: 1781 – 1868 Broadbent, Donald: 1926 – 1993 Brodmann, Roman: 1920 – 1990 Morgenstern, Christian: 1871 Bloch, Felix: 1905 – 1983

Bohr, Niels: 1885 – 1982 Boltzmann, Ludwig: 1844 – 1906 Bolyai, János: 1802 – 1860 Bonnet, Maurice: 1907 – 1994 Born, Max: 1882 – 1970 Bose Satyendra Nath: 1894 – 1974 Braun, Wernher Freiherr von: 1912 – 1977 Brecht, Bertolt: 1898 – 1956 Broglie, Louis Victor Pierre Raymond Prince de: 1982 – 1987 Brunelleschi, Filippo: 1377 – 1446 apek, Karel Matj: 1860 – 1927 Carnap, Rudolf: 1891 – 1970 Carnot, Nicolas Léonhard Sadi: 1796 – 1832 Caesar, Gaius Julius: 100 – 44 v.Chr. Camras, Marvin: 1916 – 1995

Chaitin, Gregory J.: *1947 Champollion, Jean-Françoi: 1790 – 1832 Chomeini, Ayatollah (Ruhollah Mussawi Hendi): 1900 – 1989 Chomsky, Noam *1928 Church, Alonzo: 1903 –1995 Churchill. Sir Winston Leonard, Spencer 1874 – 1965 Clausius, Rudolf: 1822 – 1888 Conway, John Horton: *1937 Dali, Salvador: 1904 – 1989 Dalton, John: 1766 – 1844 Darwin, Robert Charles: 1809 – 1882 Davisson, Clinton: 1881 – 1958 Debye, Peter (Petrus Josephus Wilhelmus): 1884 – 1966 Delibes, Léo: 1836 – 1891 Dennard, Robert: *1932 Demokrit aus Abdera: ca. 460 – 370 v. Chr. Descartes, René (Cartesius): 1596 – 1650 Diesel, Rudolf Christian Karl: 1858 – 1913 Dirac, Paul Adrian Maurice: 1902 – 1984 Drake, Frank: *1930 Dreyfus, Hubert L.: *1929 Drischel, Hans: 1915 - 1980 Droz, Henri-Louis Jaquet: 1752– 1791 Droz, Pierre Jacquet: 1721 – 1790 Dürer, Albrecht: 1471 – 1528 Eco, Umberto: 1932 – 2016 Eddington, Arthur Stanley, Sir: 1882 – 1944 Ehrenfest, Paul: 1880 – 1933 Eigen, Manfred: 1927 Einstein, Albert: 1879 – 1955 Eisler, Hanns: 1898 – 1962 Escher, Maurits Cornelis: 1898 – 1972 Euklid in Alexadria: 365 – 300 v. Chr. Euler. Leonhard: 1707 – 1783 Fano, Robert Mario: 1917 – 2001 Faraday. Michael:1791 –1867 Fechner, Gustav Theodor: 1801 – 1887 Feigenbaum, Mitchell Jay: *1944 Feuerbach, Anselm: 1829 – 1880 Fick, Adolf: 1829 – 1901 Fibonacci ,Leonardo: um 1170 – ca. 1240 Fourier, Jean Baptiste Joseph Baron de: 1768 – 1830 Förster, Heinz von: 1911 – 2002 Frank, Helmar: 1931 –2013 Franz Joseph I. (Kaiser Österreich): 1830 – 1916 Fresnel, Augustin Jean: 1788 – 1827 Freud, Sigmund, Schlomo: 1856 - 1939 Friedmann, Aleksandrowitsch: 1888 – 1925 Fromm, Erich: 1900 – 1980 Furtwängler, Wilhelm: 1886 – 1954

--- 365---

Gábor, Dennis: 1900 – 1979 Galilei, Galileo: 1564 – 1642 Galois, Évariste: 1811 – 1832 Gamow, George Anthony: 1904 – 1968 Gardner, Martin: *1914 Germer, Lester: 1896 – 1971 Gibson, William: *1948 Gimpel, Léon: 1878 – 1948 Giotto, di Bondone 1267 – 1337 Goethe, Wolfgang von: 1749 – 1832 Golgi, Camillo: 1844 – 1926 Grandville, eigentlich Jean-Ignace-Isidore Gérard: 1803 – 1847 Grossmann, S.: *1930 Grothe, Franz: 1908 – 1982 Gutenberg, Johannes: um 1400 – 1468 Halbwachs, Maurice: 1877 – 1945 Hamming, Richard Wesley: 1915 – 1998 Hartley, Ralph Vinton Lyon: 1888 – 1970 Hausdorff, Felix: 1868 – 1942 Heesters, Johannes: 1903 – 2011 Heicking, Wolfram: *1927 Heidegger, Martin: 1889 – 1976 Heisenberg, Werner. Karl: 1901 – 1975 Hemholtz, Hermann Ludwig Ferdinand von: 1821 – 1894 Heraklit: ca. 540 - 480 v.Chr. Heron von Alexandria: ca. 100 – 20 v. Chr. Hertz, Heinrich: 1857 – 1894 Heß, Rudolf: 1884 – 1966 Hilberg, Wolfgang: 1932 – 2015 (Funkuhr) Hilbert, David: 1862 – 1943 Hoffmann, Ernst Theodor Amadeus (E. T. A.): 1776 – 1822 Holbein, Hans der Jüngere: 1497 – 1543 Homer: 8 Jh. v. Chr. Hubble, Edwin Powell: 1889 – 1953 Huffman, David Albert: 1925 – 1999 Huxley, Aldous: 1894 – 1963 Huygens, Christiaan: 1629 – 1695 Jolly, Johann Philipp Gustav von: 1809 – 1884 Jordan, Pascal: 1902 – 1980 Josephson, Brian David: *1940 Joule, James Prescott: 1818 – 1889 Julia, Gaston Maurice: 1893 –1978 Kämmerer, Wilhelm: 1905 – 1994 Kant, Immanuel (Cant): 1724 – 1804 Karajan, Herbert von: 1908 – 1989 Kasparow, Gary: *1963 Kekulé, Friedrich August von Stradonitz: 1829 – 1896 Kelvin, Lord of Largs; Sir William Thomson: 1824 – 1907 Kennedy, John Fitzgerald: 1917 – 1963 Kerr, John: 1824 – 1907

Klaus, Georg: 1912 – 1974 Kleist, Heinrich von: 1777 – 1811 Klix, Friedhard: 1977 – 2004 Knigge, Adolf Freiherr von: 1752 – 1796 Koch, Helge: 1870 – 1924 Kolmogorow, Andrej Nikolajewitsch: 1903 – 1987 Kotelnikow, Alexandrowitsch: 1908 – 2005 Kronecker, Leopold: 1823 – 1891 Kuczynski, Jürgen: 1904 – 1997 Küpfmüller, Karl: 1897 – 1977 Lau, Ernst: 1893 – 1978 Laplace, Pierre Simon 1749 – 1827 Leibniz, Gottfried Wilhelm, Freiherr von: 1646 – 1716 Lem, Stanislaw: 1921– 2006 Lemaîtres, Georges: 1894 – 1966 Leeuwenhook, Anton van: 1632 – 1723 Lewin, Kurt: 1890 – 1947 Lindenmayer Aristid: 1925 – 1989 Locke, John: 1632 – 1704 Lorenz, Edward Norton: 1917 – 2008 Lorenz, Konrad Zacharias: 1903 – 1989 (Graugänse) Lovelace, Ada: 1815 – 1852 Löw, hoher Rabbi. eigentlich Juda ben Bezalel, genannt Maharal: vor 1525 – 1609 Luther, Martin: 1483 – 1546 Mach, Ernst: 1838 – 1916 Manet, Édouard: 1832 – 1883 Mandelbrot, Benoit B.: 1924 – 2010 Mann, Thomas: 1875 – 1955 Marc, Franz: 1880 – 1916 Marx, Karl: 1818 – 1883 Maxwell, James Clerk: 1831 – 1879 Mayer, Julius Robert: 1814 – 1878 Maazel, Lorin: 1930 – 2014 Mann Thomas: 1875 – 1955 McCarthy, John: *1927 Meyrink, Gustav, eigentlich Gustav Meyer: 1868 – 1932 Mendel, Gregor Johann: 1822 – 1884 Mendelejew, Dmitrij Iwanowitsch: 1834 – 1907 Minkowski, Hermann: 1864 – 1909 Minsky, Marvin Lee: 1927 – 2016 Moles, André Abraham: 1920 – 1992 Moore, Edward F.: 1925 – 2003 Morgenstern, Christian: 1871 – 1914 Morris, Charles William: 1901 – 1979 Mozart, Wolfgang Amadeus: 1756 – 1791 Müller, Johannis; 1921 – 2008 Nernst, Walther Hermann: 1864 – 1941 Nake, Frieder: *1938 Neumann, John Baron von: 1903 – 1957 Newton, Isaac: 1642 – 1727 Nyquist, Harry: 1889 – 1976 Ockham, Wilhelm von: 1284 – 1350

--- 366 ---

Offenbach, Jacques, ursprünglich Jacob: 1819 – 1880 Ovshinsky, Stanford: *ca. 1924 Ostwald, Wilhelm Friedrich: 1853 – 1932 Ovid, eigentlich Publius Ovidius Naso: 43 v. Chr. – etwa 17 n. Chr Pauli, Wolfgang: 1913 – 1993 Paraclsus, Philippus Theophrastus, eigentlich Philipp Aureolus Theophrast Bombast von Hohenheim: 1493 – 1541 Penfield, Wilder: 1891 – 1976 Pfleumer, Fritz: 1897 – 1945 Poulsen, Valdemar: 1869 – 1942 Peirce, Charles Sanders: 1839 – 1914 Planck, Max Karl Ernst Ludwig: 1858 – 1947 Platon: ca. 428 – 347 v. Chr. Penzias, Arno (Arnold), Allen: *1933 Piaget, Jean 1896 – 1980 Poe, Edgar Allen: 1809 – 1849 Poincaré, Henri: 1854 – 1912 Prandtl, Ludwig: 1875 – 1953 Pythagoras von Samos: 570 – 500 v. Chr. Rado, Tibor: 1895 – 1965 Ravel, Joseph Maurice: 1875 – 1937 Reichardt, Walter: 1903 – 1985 Renyi, Alfred: 1921 – 1970 Riemann, Georg Friedrich Bernhard: 1826 - 1866 Rollmann, Willhelm: 1821 bis nach 1890 Rompe, Robert: 1905 – 1993 Saussure, Mongin Ferdinand de: 1857 – 1913 Shelley, Merry eigentlich Percy Bysshe: 1792 –1822 Schiller, Johann Christoph Friedrich von: 1759 – 1805 Schopenhauer, Arthur: 1788 - 1860 Schrödinger, Erwin: 1887 – 1961 Schüller, Erhard: 1904 – 1976 Schwann, Theodor: 1810 – 1882 Seume, Johann Gottfried: 1763 – 1810 Shannon, Claude Elwood: 1916 – 2001 Sierpiski, Wac aw Franciszek: 1882 – 1969

Sloan Alfred P.: 1875 – 1966 Smith, Oberlin: 1840 – 1926 Sokrates: 470 – 399 v.Chr. Steinbuch, Karl: 1917 – 2005 Stifel, Michael (Styfel, Stieffel, Stiefel): 1487 –1567 Stille, Curt: 1873 – 1957

Swift, Jonathan: 1667 – 1745 Sylvester, James Joseph: 1814 - 1897 Tauschek, Gustav: 1898 – 1945 Tucholsky, Kurt: 1890 - 1935 Tullies, Servius: 578 – 534 v. Chr. Turing, Alan Mathison: 1912 – 1954 Twain, Mark (Samuel Langhorne Clemens): 1835 – 1910 Vaucanson, Jacques de: 1709 – 1782 Vernes, Jules: 1828 – 1905 Virchow, Rudolf: 1821 – 1902 Volk, Theo: *|1890) Waldeyer Anatom Wilhelm: 1836 – 1921 Watt, James: 1736 – 1819 Weber, Ernst Heinrich: 1795 – 1878 Weber Walter: 1907 – 1944 Weizenbaum, Joseph: 1923 – 2008 Weizsäcker, Carl Friedrich Freiherr von: 1912 – 2007 Wells, Herbert George: 1866 – 1946 Welte, Edwin: 1876 – 1958 Wheatstone, Sir Charles, Brücke: 1802 – 1875. Whittaker, Edmund Taylor: 1873 – 1956 Wiener, Norbert: 1894 – 1964 Wilkes, Maurice Vincent: *1913 Wilson, Charles: 1869 – 1959 Zenon von Elea: ca. 490 – ca. 430 v.Chr. Zemanek, Heinz: 1920 – 2014 Zermelo, Ernst: 1871 – 1953 Zipf, George Kingsley: 1902 – 1950 Zuse, Konrad: 1910 – 1995

--- 367---

11.4 Sachwort Die fetten Zahlen betreffen Bergriffe über mehrere Seiten a posteriori 55 a priori 55 Abakus 278, 291 Abstand interpersonal 26 Abstraktion 39 Acetylcholin 239 Ackermann-Funktion 284 ADP 229 Adressierung 162 ADU 62 Akkommodation 217 Aktin 235 Alexandrische Bücherei 344 Algorithmische Codierung 120 Aminosäure 224 Amnesie 247 amorph-kristallin 201 Amplitudenstufen, logarith. 72 Anaglyphen 217 analog 56 Anamorphosen 219 Apfelmännchen 306 Äpfel-Speichen 140 Apokalypse 135 Archimedes 312 Arecibo 268 arithmetische Codierung 121 Arrhenius-Gleichung147 Artificial Reality 296 Artikel weggelassen 39 Assoziativ-Speicher 162 Atome/Bit 146 Auffälligkeit 51, 124 Aufzeichnungsdichte 147, 193 Auslöse-Effekt 8 Auslöseffekte gefährliche 21 Außerirdische 267 Austauschmöglichkeiten 74 Auswicklung 45 Automat 291 Autopoeme 323 Axiomatik 44 Axon 237 backup 196 Band- Bibliotheken 187 Herstellung 181 Vorteil 194 Barnsley prinzip 309

Baum-Verzweigungen 304 Bedeutung 37 Begriff 37 Bénard-Zelle 22 Benzinmotor 12 berechenbar 288 Beständigkeit 147 BG19 183 bidirektionale Entropie 85 Bilder, räumlich 205 Methoden 115 Bildung, Kultur 341 Binäre Schaltungen 155 Birkhoff-Maß 127 Bit 60 Bittiefe 68 black box 5 Block-Parity 96 Boltzmann-Entropie 81 Bongard-Weiß-Entropie 86 Burrows-WheelerTransformation 122 Burst 92 Cache 161 CAM 159, 162 Carnap-Entropie 89 Chaos-Theorie 310 Chinesische Zimmer 318 Chromosom 225 Chunk 247 Church’sche These 285 CIE-RGB-Modell 111 Clausius-Entropie 79 CMOS 157 Code, Aufwand 49 Erweiterung 122 genetisch 227 Spreizung 101 Codierung, arithmetisch 121 computable 288 CORDIC-Algorithmus 278 CPU 291 CPU-Geschwindigkeit 196 CRC 98 Data-Suite 296 Daten, menge-Rate 105 rate 339 schutz 351 --- 368 ---

Daten, sicherheit 342 DCT 115 Definition 4 deklarativ 251 Dekohärenz 330 Denken, Prozesse 260 Deterministische Entropie 88 Diagonal-Verfahren 282 difference-engine Babbage 291 digital 56, 60 Digitalisierungs-Fehler 63 Dimensionen richtige 15 Dirac-Schreibweise 329 Diskette 187 Divergenz 307 DLT-Varianten (DEC linear tape) 186 DNS 226 Dolby-Verfahren 112 Doppelhelix 226 dRAM 164 Drehmultiplikation 309 Dynamikregelung, reziprok 76 ECC, EDC 90 ECL 157 EEG 254 EEPROM 167 Ehrenfest-Spiel 16 eidetisch 253 e-Kostante 279 Elektronik, digitale 155 Elementar-Zeit, -Länge, -Masse 16 Eliza 318 Emotion 23 emotionale Intelligenz 313 Empfangssystem 20 Energie 11 Energie, Dichte 146 Energie, Gewinnung 222 Energie, je Bit 76 Energie, Produkt, magnet. 176 Energie, Träger 19 Energie l Stoff 13 Entmagnetisierung 176 Entropie, Ableitg., Feinstein 90 bidirektionale 85 Bongard-Weiß 86

Entropie, Deterministische 88 kontinuierlich 69 Shannon 49 Signalverteilungen 70 weitere 79 Erbgut, Anteile 232 Ergodensatz 55 euklidischen Geometrie 311 Experiment 275 Expertensysteme315 Exponent 280 Faltungs-Codes 102 Fano-Code 49 Faraday 312 Farbsehen 109 Fehler, Arten 92 Fehler, Behandlung 91 Korrektur einfach 95 Rate 91, 344 Feigenbaum-Kurven 305 Fernsehen 352 Festplatten Fotos 190 Festplatten, Entwicklung 192 Festplatten, Speicher 189 Festwertspeicher 169 Flächen-Redundanz 166 Flash 167 Fleißiger Biber 290 Flickenteppich 273 Fliehkraftregler 6 Fließgleichgewicht 7 Flipflop 158 floating gap 265 Floppy 187 Fraktal 301 Fraktale 115 fraktale Geometrie 311 FRAM 199 Freitod, Boltzmann 83 Funktionen, elementare 278 logische 156 Theorie 306 Furtwängler 2 Galois-Felder 99 Gauß-Verteilung 59 Gedächtnis 142, 243 Arten 251 Geschichte 264 gesellschaftliche 263. Interferenz 248 Lücke 249

Gedächtnis, Modelle 246. Todes 253 Ultrakurzzeit 253 Utilitares 266 Vergleiche 267 Gedicht-Generator 324 Längen 135 Gegenwartsgedächtnis GG 248 Geheimhaltung 346 Gehirn, Area 243 Gen 232 Genetik 223 Gesetze, Information 89 GG = Gegenwartsgedächt. 248 Gleichverteilung 55 Gleiter 191 GMR 191 Goldener Schnitt 124 Grafikcode 118 Graphen 34 Grenzen Speicherung 141 Grenzzelle 144 Grundkräfte 12 Gulliver Reisen 321 hacker 345 Hamming-Abstand 92 HAMR-Aufzeichnung 191 Handelreisender 289 Hard-, Software 297 Häufigkeit 55 Häufigkeit, Ziffern 52 Haus, Schönheit 128 Hausdorff-Dimension 301 Heimtongeräte 183 Heisenbergunschärfe 145 Herzfehler 317 HF, Vormagnetisierg. 179, 182 Hilberg-Codierung 123 Hilbert-Kurve 301 Hippocampus 247 Histone 233 Höhlengleichnis 274 Holografie 206 Datenspeicher 213 Interferometrie 212 holographische Elemente 212 Homunkulus355 Huffman-Code 47 Hund-Flöhe-Spiel 16 Hüpfer-Prinzip 309 HVD 213 --- 369---

Hysterese 172 Ikon 36 ILLIAC-Suite 324 Index 36 Indiz 36 Informat 19 Informatik 314 Information, Arten 333. Feld 25 K- 299 keine 17 Kultur 338 P- 134 S- 46. Schwelle 349 Speicher 134 V- 273 W- 18. Z- 27 Intelligenz 312 Quotient IQ 313 Interleaving 101 Interpretant 32 Ionenpumpen 235 irreduzibel 46 irreduzible, Polynome 97 Irreversiblitäten 143 JPG 115 Kanalkapazität 69 Karikaturen 311 Kartendarstellungen 219 Katalysator 22 Katastrophen 21 Keilschrift 36 Kernprozesse 222 Klassifikation 39 Kochkurve 301 Koerzitivfeldstärke 174 Kollateralen 237 Kolmogoroff-Entropie 89 Komplexität 124 Komplexitäten, Moles 300 Komprimierung 104 Konstruktion 219 kontinuierlich 56 - digital 78 Kontinuierliche Digitaltech. 66 Konvergenz 307 Kosmologie 221 Kosmosspeicher 184 Kreativität 259

Kreis-Digitalisierung 69 prozess, Carnot 79 Künftige Speicher 197 Künstliche Intelligenz 312 Leben 319 Kybernetik 4, 314 2. Ordnung 9 KZG = Kurzzeitgedächtnis 248 Länge einer Grenze302 Langeweile 255 Lauflänge 53 Codierung 122 Lenticular-Bilder 216 Lernen 30mal 257 Lesbarkeit 132 Lichtablenkung diskret 213 life 319 LIFO 161 Lindenmayer 303 Link-Codierung 120 LoCoS 120 logischen Funktionen 156 L-System 303 LTO (linear tape open 186 MacAdams-Ellipsen 112 Magnet, Band 177 Band, Geräte 178 Karten 185 Kopf, integriert 191 Speicher, rotierende 187 Trommel 185, 187 Magnetische Maßeinheiten 173 Speicher 170 Wände 171 magnetisiert - magnetisch 172 Magnetisierung 174 Magnetismus 170 Maschinen, intelligenter314 Maskierung 108 Maßstab 302 Master-Slave-Flipflop 159 Mathematik - Welt 325 Grenzen 282 Matrix-Methode 99 Matrizen 283 matter 1 Maxwell-Dämon 143 Mealy- Automat 291 Medien 270 austauschbar 195 Mem 263

Memristor 205 PAL 164 Mensch- Computer, Roboter 316 Paraclsus355 heitswürde 355 Parity 95 werdung 27 PCRAM 200 Messgenauigkeit 76 peak 240 Messwert 270 Peitgen-Kopiermaschine 309 Metall-Dünnschichtband 184 Periodenverdopplung 306 MIDI-Code 113 Perspektive 206 Mikro-makro-Zustände 81 Pflanzen Drehwinkel 131 Mikroprogramm 298 Pflaumenmännli 307 Mimose 8 Pfleumer-Band 179 Mitose 228 Phonem 34 MMOPRG 296 Piktogramm 36 Modell, 276 Pilotton 76 Welt 274 PLA 164 Hören, Sehen 106 Plattenspeicher 188 Modeschöpfer 283 Plural 39 Monsterkurven 301 Poincaré, Wettbewerb 21 Moore-Automat 291 Pointer-Verfahren 122 Morse-Code 47 Polarisationsbrille 215 Motivlängen 257 Polynommethode ECC 96 Mp3 113 Poulsen Draht 179 MPEG 113, 117 Präfix-code 46 MRAM 201 Pragmatik 30 Multiplizität 233 Preisentwicklung, Speicher 154 Musik und Gedächtnis 256 Priming 252 Statistik 134 Primzahlen 281 Muskel 235 PRLM 103 Myosin 235 Prognose-Problem 197 Nachricht 270 Programmieren Produkti. 262 Nake-Grafik 324 PROM 166 Nano-Röhrchen 203 Protein 231 Nerv 238 Psychologie 314 Nerven, Impuls 241 Quantencomputer 332 System 242 Gatter 332 Neumann-Rechner 292 theorie 326 Neuron 237 quantisiert 60 nichtberechenbar 290 QuBit 330 Nichtlokalität 331 Systeme 332 NP-Probleme 288 Quellencodierung121 NRZ 99 Rado‘sche Funktion 290 Nukleotid 226 Ranvier-Knoten 240 NV-RAM 169 Rasterbilder 115 Obsoleszenz 345 Rateversuche 136 Ockham’schen Rasiermesser 39 Rauschen, multiplikativ 72 offline-Medien 193 Rechen, Knechte 278 Ökonomische Faustregel 154 Speicher, große 185 Oppenheim 9 Technik, Geschichte 293 ORAM 204 Leistungen 339 Orbital 328 Rechteck-Ferrit 175 Ovonics 200 Reduktion 39 --- 370 ---

Redundanz 106 Code 50 Regenbogen-Hologramm 211 Regler, Watt 6 Rekursion 283 Rekursivität 8 Relevanz 106 Remanenz 174 Renyi -Entropie 87 Rezeption 119 RGB-Raum 111 Ribosom 230 Ringkopf, Schüller 180 RLE 122 RLL 99 RNS 226 Roboter, Gesetze 354 intelligente 353 ROM 166 Rückkopplung 8 Rückrechnung 141 Rundfunk 352 sample hold 62 Sampling- Rauschen 68 Rate 64 Sättigung 174 Schaltkreistechniken 157 Schieberegister 98 Schielen 218 Schildkrötengrafik 303 Schnürring 240 Schönheit Haus 128 Schriftentwicklung 35 Schrödinger-Gleichung 328 Scrambler 99 Seepferdchental 307 Selbstähnlichkeit 305 Semantik30 Semiose 31 Semiotik 28 Senkrechtspeicherung 191 SETI-Experiment 268 Shannon-Leistungen 136 shingled magnetic recording 191 shuffling 102 Sierpinki-Dreieck 309, 320 Signal 270 kontinierlich-dikret 62 Verteilung-Entropie 70 Silbe 34 Sinnensorgane Bit/s 243

SIRDS 218 TTL-Speichers 7481 161 Software 297 Turing-Automat 285 Speicher Nutzbarkeit, Test 318 Zuverlässigkeit 155 Übertragung, bestmöglich 45 Speicher, Daten 151 Raten (cache) 196 Einsatz,Geschichte 198 Umlaufspeicher 160 Kapazität, Zugriffzeit 152 Vectorbilder 115 Kapazität, Geschicht 153 Verdeckung 108 Künftige 197 Vergangenheit 142 Matrix 162 Verschachtelung 101 Prozesse 150 Verschränkung 331 Schaltungen 159 Verstärker 7 Vergleich 199 Verwürfler 99 Vielfalt 1970 149 Virtuelle Realität 295 Speicherung notwendig 340 Vocoder 112 rasenfrei 187 Wackelbilder 216 Spiele 319 Wahrscheinlichkeit, subjektiv 88 Eigen 320 Wahrscheinlichkeiten, Arten 54 Karten, Raten 51 Walkman 182 Sprache 27, 315 Wandverschiebungen 172 Aten 35 Wärmestrahlung 327 Geschichte 35 Wavelet 117 Spreizung 101 Weber-Fechner-Gesetz 73 Stack 161 Wechsel-Platte 188 Stereo-Betrachter 215 Wirkungen 12 bilder 214 Weißsche Bezirke 171 Steuerung 7 Werke, kunstähnlich 321 Stille-Technik 180 whistleblower 345 Stoff 1, 10 Whittacker-Funktion 64 Storage Management 196 Winchester-Speicher 187 Streaming 352 Wirkungsgrade 83 streifenförmige Stereobilder 216 Wissen 269 Superzeichen 52 graues 274 Symbol 35 Witzerlebnis 136 Symptom 36 Wortarten 34 Synapse 237 Wörter, gültige 92 Syndrom 99 Zahlen, Arten 280, 282 Syntax 30 Bereiche 280f. System, kybernetisches 19 Entwicklung 35 Takt 53 irrationale 282 Tamagotchi 273 Zeichen 31 Textanalysen 131 Zeichenerkennung 212 Thalamus 248 Zeichnen, technische 219 Tierkommunikation 86 Zeit 13 Tod, speichern für 266 Betrachtung 223 Token 36 Komplexität 287 Transmitter 238 Reisen 142 Traumaskop 330 Rückblick 255 Trellis-Diagramm 103 Wahrnehmung 254 t-RNS 230 Zelle, biologische 224 TTL-Pegel 63 Zell-Potenztial 235 --- 371---

Zerstörungen, absichtlich 345 Zipfsches Gesetz 133 Zirkularität 8 Zonenlinse 209 Zufalls- Programm 294

--- 372 ---