Medientechnisches Wissen: Band 3 Mathematik, Physik, Chemie 9783110496277, 9783110496260

This multi-volume textbook provides media students and professionals an introduction to disciplines in the natural scien

336 95 10MB

German Pages 458 Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Vorwort des Herausgebers
Teil I: Mathematik für Medienwissenschaftler (Bernd Ulmann)
1. Einleitung
2. Einführung
3. Analysis
4. Lineare Algebra
5. Stochastik
6. Ausblick und Lektüreempfehlungen
Griechische Buchstaben
Literatur
Teil II: Physik für Medienwissenschaftler (Martin Wendt)
1. Vorwort
2. Einleitung
3. Methoden und Einheiten
4. Messfehler
5. Kräfte und Mechanik
6. Wärme
7. Drehbewegungen
8. Mechanische Schwingungen
9. Elektrizität
10. Magnetismus
11. Elektromagnetische Wellen
12. Optik
13. Beugung und Interferenz
14. Atome und Moleküle
15. Was bleibt?
16. Wie geht es weiter?
17. Anhang
Literatur
Teil III: Chemie für Medienwissenschaftler (Ingo Klöckl)
1. Die Chemie der Medien – eine Annäherung
2. Anorganische Chemie und Grundlagen
3. Glas und Keramik
4. Metalle
5. Halbleiter
6. Organische Chemie
7. Polymere, Makromoleküle, Kunststoffe
8. Farbstoffchemie, Fotochemie
9. Schluss
10. Auswahlbibliografie
Literatur
Schlagwortverzeichnis
Recommend Papers

Medientechnisches Wissen: Band 3 Mathematik, Physik, Chemie
 9783110496277, 9783110496260

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Bernd Ulmann, Martin Wendt, Ingo Klöckl Medientechnisches Wissen 3 De Gruyter Studium

Weitere empfehlenswerte Titel Medientechnisches Wissen, Band 1 S. Höltgen (Hrsg.), 2017 ISBN 978-3-11-047748-1, e-ISBN (PDF) 978-3-11-047750-4, e-ISBN (EPUB) 978-3-11-047762-7

Medientechnisches Wissen, Band 2 S. Höltgen (Hrsg.), 2019 ISBN 978-3-11-049624-6, e-ISBN (PDF) 978-3-11-049625-3, e-ISBN (EPUB) 978-3-11-049358-0

Grundgebiete der Elektrotechnik 1, 13. Aufl. + Arbeitsbuch Elektrotechnik 1, 2. Aufl. Clausert, Wiesemann, Brabetz et al., 2021 ISBN 978-3-11-067673-0

Grundgebiete der Elektrotechnik 2, 13. Aufl. + Arbeitsbuch Elektrotechnik 2, 2. Aufl. Clausert, Wiesemann, Brabetz et al., 2021 ISBN 978-3-11-067674-7

Mathematik für angewandte Wissenschaften Erven, Schwägerl, Horák, 2019 ISBN 978-3-11-054889-1, e-ISBN (PDF) 978-3-11-055350-5, e-ISBN (EPUB) 978-3-11-055365-9

Bernd Ulmann, Martin Wendt, Ingo Klöckl

Medientechnisches Wissen Band 3: Mathematik, Physik, Chemie Herausgegeben von Stefan Höltgen

Herausgeber Dr. Stefan Höltgen Humboldt-Universität zu Berlin Inst. für Musikwissenschaft und Medienwissenschaft Georgenstr. 47 10117 Berlin [email protected]

ISBN 978-3-11-049626-0 e-ISBN (PDF) 978-3-11-049627-7 e-ISBN (EPUB) 978-3-11-049359-7 Library of Congress Control Number: 2019957965 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbiblio­ grafie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2020 Walter de Gruyter GmbH, Berlin/Boston Redaktion: Chiara Rochlitz Satz: satz&sonders GmbH, Dülmen Einbandabbildung: Martin Meier Druck und Bindung: CPI books GmbH, Leck www.degruyter.com

Inhalt Vorwort des Herausgebers | XIII

Teil I: Mathematik für Medienwissenschaftler (Bernd Ulmann) 1

Einleitung | 3

2 2.1 2.2 2.3 2.3.1 2.3.2 2.3.3 2.3.4 2.3.5 2.3.6 2.3.7 2.3.8

Einführung | 4 Notation und Begriffe | 4 Grundlegende Beweistechniken | 11 Mengen | 14 Operationen auf Mengen | 16 Einige besondere Mengen | 17 Kommutativität, Assoziativität und Distributivität | 21 Abbildungen | 22 Mächtigkeit | 23 N, Z, Q, R, C | 24 Zahlenrepräsentation | 26 Abtastsysteme | 37

3 3.1 3.1.1 3.1.2 3.1.3 3.1.4 3.2 3.2.1 3.3 3.3.1 3.3.2 3.3.3 3.3.4 3.3.5 3.3.6 3.3.7 3.3.8 3.3.9

Analysis | 40 Folgen | 40 Beschränktheit, Grenzwerte, Häufungspunkte | 41 Arithmetische, geometrische und harmonische Folgen | 44 Die logistische Gleichung | 45 Die Mandelbrot-Menge | 46 Reihen | 48 Spezielle Typen von Reihen | 50 Funktionen | 52 Grenzwerte | 54 Stetigkeit | 55 Polynome | 57 Algebraische und transzendente Zahlen | 60 e x und log(x) | 61 Trigonometrische Funktionen | 67 Infinitesimalrechnung | 72 Differentialgleichungen | 87 Approximation und Interpolation | 91

VI | Inhalt 4 4.1 4.2 4.3

Lineare Algebra | 96 Vektorräume | 97 Matrizen, Vektoren und Gleichungssysteme | 102 Weitere Operationen und Matrizen | 107

5 5.1 5.2 5.3 5.4

Stochastik | 112 Grundlagen | 112 Verteilungen | 115 Bedingte Wahrscheinlichkeiten | 117 Korrelationen | 120

6

Ausblick und Lektüreempfehlungen | 122

Griechische Buchstaben | 124 Literatur | 125

Teil II: Physik für Medienwissenschaftler (Martin Wendt) 1

Vorwort | 129

2

Einleitung | 131

3 3.1 3.2 3.2.1 3.2.2 3.3 3.3.1 3.3.2 3.3.3

Methoden und Einheiten | 132 Koordinaten | 133 Längen und Winkel | 134 Flächen und Volumen | 136 Winkel | 137 Weitere Einheiten | 139 Lichtstärke | 139 Zeit und Masse | 139 Geschwindigkeit und Beschleunigung | 140

4 4.1 4.2 4.3 4.4

Messfehler | 144 Statistische Fehler | 144 Systematische Fehler | 146 Messergebnisse | 146 Beispiel | 147

Inhalt |

5 5.1 5.2 5.3 5.4 5.5 5.6

Kräfte und Mechanik | 150 Erdanziehungskraft | 150 Arbeit | 152 Leistung | 153 Mechanische Energie | 154 Der Wurf | 156 Die Kreisbahn | 157

6 6.1 6.2 6.3 6.4

Wärme | 159 Temperatur | 159 Wärmemenge | 159 Entropie | 160 Wärme als Teilchenbewegung | 161

7 7.1 7.2 7.3 7.4

Drehbewegungen | 163 Beschleunigung und Trägheit | 163 Grundgesetz der Drehbewegung | 165 Gravitation | 166 Planetenbewegung | 169

8 8.1 8.2 8.2.1 8.3 8.3.1 8.3.2 8.3.3 8.3.4 8.3.5 8.3.6

Mechanische Schwingungen | 171 Wellen | 173 Interferenz | 175 Stehende Wellen | 177 Akustik | 178 Hören | 180 Klänge | 180 Wellenausbreitung | 181 Doppler-Effekt | 182 Reflexion und Brechung | 183 Beugung | 183

9 9.1 9.2 9.3 9.3.1 9.3.2 9.3.3

Elektrizität | 186 Das elektrische Feld | 188 Ladungen | 190 Elektronenleitung | 191 Ladungstransport in Flüssigkeiten | 191 Ladungstransport in Metallen | 193 Halbleiter | 194

10 10.1

Magnetismus | 197 Magnetfelder durch Ströme | 197

VII

VIII | Inhalt 10.1.1 10.1.2 10.1.3

Kräfte im Magnetfeld | 199 Induktion | 202 Elektrischer Schwingkreis | 203

11 Elektromagnetische Wellen | 205 11.1 Elektrischer Strahlungsdipol | 206 11.2 Elektromagnetismus | 207 11.2.1 Maxwell-Gleichungen | 208 12 Optik | 210 12.1 Licht als elektromagnetische Welle | 210 12.2 Quellen | 211 12.3 Lichtstrahlen | 211 12.4 Die Lochkamera | 212 12.4.1 Tiefenschärfe | 214 12.4.2 Spiegel | 215 12.4.3 Brechung | 217 12.4.4 Polarisation | 221 12.5 Farben | 222 12.6 Linsen | 225 12.6.1 Brennpunkt | 226 12.7 Abbildungen | 227 12.7.1 Zerstreuungslinsen | 229 12.7.2 Abbildungsfehler | 229 12.7.3 Das Auge | 230 12.7.4 Das Auflösungsvermögen | 233 12.7.5 Die Kamera | 234 12.7.6 Das Teleskop | 235 13 Beugung und Interferenz | 240 13.1 Interferenz | 240 13.2 Beugung | 242 13.2.1 Beugung am Gitter | 242 13.3 Spektrum | 244 13.4 Wärmestrahlung | 247 14 14.1 14.2 14.3 14.4

Atome und Moleküle | 251 Mikrowellenherd | 251 Atomspektren | 252 Schalenmodell | 253 Quantenmechanik | 256

Inhalt

15

Was bleibt? | 258

16

Wie geht es weiter? | 260

17

Anhang | 262

| IX

Literatur | 263

Teil III: Chemie für Medienwissenschaftler (Ingo Klöckl) 1 1.1 1.2

Die Chemie der Medien – eine Annäherung | 267 Eine kurze Geschichte der Chemie | 267 Überblick über das Kapitel | 273

2 2.1 2.2 2.2.1 2.2.2 2.2.3 2.3

Anorganische Chemie und Grundlagen | 274 Nutzen und Einflussbereich | 274 Das Periodensystem und die Elektronenstruktur | 274 Struktur: Gruppen und Perioden | 275 Elektronische Struktur der Elemente | 277 Ausblick: Das PSE der Zukunft | 278 Sekundäre und Van-der-Waals-Wechselwirkungen | 279

3 3.1 3.1.1 3.1.2 3.1.3

Glas und Keramik | 281 Glas | 281 Glassorten | 283 Glaskeramik (Zerodur, Pyroflam) | 284 Vergütung von Glas, Antireflexbeschichtung, Lambda-Schicht, IRC, dielektrische Spiegel | 284 Trübglas, Emaille, Farbglas, Farbfilter | 286 Keramische Werkstoffe | 287 Tonkeramik | 287 Oxidkeramik | 288 Nichtoxidkeramik | 288 Dielektrika | 288

3.1.4 3.2 3.2.1 3.2.2 3.2.3 3.2.4 4 4.1 4.2

Metalle | 291 Metalle als Stars – Arbeitspferde, Hight-Tech-Metalle und Seltene Erden | 291 Notationskonventionen | 292

X | Inhalt 4.3 4.4 4.4.1 4.4.2 4.5 4.5.1 4.5.2 4.5.3 4.5.4 4.5.5 4.6 4.6.1 4.6.2 4.7

Metalle als Konstruktionswerkstoffe | 293 Seltene Erden | 294 Optische Anwendung | 295 Magnetische Anwendung | 296 Elektrische Eigenschaften von Metallen | 297 Leitmetalle | 297 Exkurs: Chemie der Elektronik – Ätzen von Leiterplatten | 298 Lot, Weichlot, Elektroniklot | 299 Bleifreies Löten, RoHS | 300 Licht durch Widerstand – Glühlampen und Halogenglühlampen | 301 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) | 303 Primäre Batteriesysteme | 307 Sekundäre Batteriesysteme | 310 Vorkommen und Gewinnung | 314

5 5.1 5.1.1 5.1.2 5.1.3 5.2

Halbleiter | 319 III-V-Halbleiter – LEDs (lichtemittierende Dioden) | 320 Prinzip der Lichterzeugung in Halbleitern | 321 Chemischer Aufbau von LEDs | 322 Weißlicht-LEDs | 324 Siliziumorganische Verbindungen | 324

6 6.1 6.2 6.2.1 6.2.2 6.2.3 6.3 6.3.1 6.3.2 6.4

Organische Chemie | 327 Nutzen und Einflussbereich der Organischen Chemie | 327 Nomenklatur, Taxonomie und Notationssysteme | 328 Notationssysteme, Summen- und Strukturformeln | 329 Isomerie | 333 Stereoisomere | 333 Taxonomien für Verbindungen | 338 Kohlenwasserstoffe, Stammverbindungen, systematische Nomenklatur | 340 Stoffklasse, funktionelle Gruppen | 343 Taxonomie von Reaktionen, Reaktionsmechanismen | 345

7 7.1 7.2 7.2.1 7.2.2 7.3 7.4

Polymere, Makromoleküle, Kunststoffe | 346 Geschichtliches | 346 Aufbau von Makromolekülen | 351 Homo- und Copolymere | 351 Molekülgestalt, Superstruktur | 352 Flammschutz und Flammschutzmittel (FSM) | 353 Natürliche Polymere | 355

Inhalt

7.4.1 7.4.2 7.4.3 7.5 7.5.1 7.5.2 7.5.3 7.6 7.6.1 7.6.2 7.6.3 7.7

| XI

Zellulose (CO) | 355 Halbsynthetische Polymere: Zellulosederivate | 356 Weitere Polymere natürlichen Ursprungs | 363 Synthetische Polymere | 364 Kondensations- und stufenweise Additionspolymerisation (KP und APS) | 365 Additionspolymerisation als Kettenreaktion (APK) | 372 Dreidimensional vernetzte Step-Growth-Polymere (Duroplaste) | 379 Klebstoffe | 390 Schmelzklebstoffe | 391 Trockene Klebstoffe | 392 Chemie physikalisch abbindender Klebstoffe | 392 Leiterplatten für elektronische Schaltungen | 393

8 8.1 8.1.1 8.1.2 8.1.3 8.2 8.2.1 8.2.2 8.2.3 8.2.4 8.3 8.3.1 8.3.2 8.3.3

Farbstoffchemie, Fotochemie | 396 Ursache von Farbe bzw. Licht | 396 Additive Farbmischung durch Emission | 396 Subtraktive Farbmischung durch Absorption | 398 Die Farben Weiß, Grau, Schwarz | 399 Farbigkeit durch Molekülorbitalübergänge (MO-Übergänge) | 399 Polyenfarbmittel | 401 Polymethin- und Cyaninfarbmittel | 402 Annulene, Phthalocyanine | 403 Moderne Donor-Akzeptor-Farbmittel | 404 Fotografie | 407 Fotografischer Schwarz-Weiß-Prozess | 408 Aufbau eines Films | 411 Farbfotografie | 415

9

Schluss | 428

10

Auswahlbibliografie | 429

Literatur | 430 Schlagwortverzeichnis | 431

Vorwort des Herausgebers Seinen Aufsatz zur Einführung in die Computergrafik beginnt Friedrich Kittler (2002) mit James Kajiyas (1986) Differenzialgleichung zum Grafik-Rendering. Die Formel steht über dem Text gleich einem Motto und hat sicherlich bei einigen Lesern Respekt und die Frage provoziert, welche Rolle diese Gleichung für das Folgende bekommt. Kittler diskutiert sie in seinem Beitrag jedoch gar nicht näher, sondern beschreibt ihre Implikationen in Hinblick auf die Mathematisierung von Bildern im Computer. Dieser vom Autor als „halbtechnisch“ bezeichnete Zugriff auf die Technologie soll den medienwissenschaftlichen mit dem technikwissenschaftlichen Diskurs konfrontieren, jedoch ohne dass dabei der letztere die Oberhand gewinnt. Dies zeigt sich schon daran, dass Mathematik in den folgenden Passagen des Textes nicht mehr in ihrer eigenen (Formel-)Sprache zu Wort kommt, sondern in nicht selten metaphorischanspielungsreichen Umschreibungen – und dies trotzdem oder weil die mathematische Formelschrift kürzer und exakter sein könnte aber innerhalb einer kultur- und medientheoretischen Einordnung des Themas wenig hilfreich wäre, weil sie dort nur selten gelesen werden will oder kann. Medienwissenschaftler¹ begegnen im Studium und in der Forschung häufig formalen Schriften, wenn es um die Darstellung medientechnischer Sachverhalte geht, weil zahlreiche Quellen aus der technomathematischen Sphäre stammen, weil Mathematiker, Informatiker, Elektroniker, Physiker, Biologen, Chemiker und andere die für sie relevanten Prozesse in Diagramm- und Formelschreibweise notieren, um semantischen Interpretationsspielraum oder gar Mehrdeutigkeiten zu vermeiden. Gerade die Beschreibung medientechnischer Apparate und Prozesse, beispielsweise in Patentschriften, verlangt derartig unzweideutige Notationen. Und auch ausführliche wissenschaftliche Auseinandersetzungen mit den Grundlagen von Medienwissenschaft (etwa der Digitaltechnik, der Kybernetik oder der Informationstheorie) fordern vom Leser formalwissenschaftliche Lesekompetenz. Eine an der Medientechnologie und Medientechnik orientierte und interessierte Medienwissenschaft kann sich also eine Unkenntnis dieser Wissenschaften und ihrer Zeichensysteme kaum erlauben. Denn dort, wo Formeln in einem Text auftauchen, nehmen sie zumeist die Stellung von Argumenten ein; sie zu überlesen oder gar als redundante Illustrationen zu sehen, würde dann dazu führen, den Argumentationsgang nicht nachvollziehen zu können. Aus diesem Grund muss die Medienwissenschaft in der Ausbildung und Forschung auf diese Disziplinen als Rüstzeug zurückgreifen können. Die Erarbeitung der Disziplinen Mathematik, Physik und Chemie kann in einigen Fällen direkt an der Betrachtung von Medientechnologien vorgenommen werden. Es wäre jedoch didaktisch nicht ratsam diese darauf zu beschränken, weil die „Lektü1 Zur Lektüreerleichterung wird in diesem Buch das generische Maskulin verwendet, womit aber alle Geschlechter gemeint und angesprochen sein sollen. https://doi.org/10.1515/9783110496277-201

XIV | Vorwort rekompetenz“ (medien)technischer Texte künftig vielleicht noch weitere Aspekte solcher Disziplinen vom Leser abverlangt und ein grundsätzliches Verständnis nur auf dem Verstehen der Grundsätze fußen kann. Daher werden hier neben den Applikationen dieser Disziplinen im Bereich der Medientechnik auch solche Grundlagen vermittelt. Dies betrifft insbesondere die Definition der Fachterminologien, Vermittlung von Lesekompetenz formaler Darstellungen, Herleitungen und Beweise einzelner theoretischer Aspekte wie auch historische Darstellungen der einzelnen Disziplinen (und Teilen davon). Aus diesem Grund haben die Autoren zentrale Konzepte und Theorien um Verweise auf ihre Urheber und Begründer ergänzt. Dies ermöglicht nicht nur eine historische Einordnung des behandelten Themas, sondern bietet auch einen epistemologischen Ansatzpunkt für inhaltliche Diskussionen. Gerade dieser letzte Punkt könnte sich künftig als Betätigungsfeld von Medienwissenschaft zeigen, weil die medienepistemologischen Grundlagen von Mathematik, Physik und Chemie – von den Messgeräten über die Aufschreibesysteme bis hin zu den fachspezifischen Denkweisen und Wissenskonzepten – maßgeblich zu deren gegenwärtigem Status beigetragen haben. Die medientechnischen Aprioris dieser Fächer wären daher zu erforschen und darzustellen, was allerdings wiederum ohne Kenntnisse in diesen Fächern unmöglich zu leisten ist oder zu Ungenauigkeiten, Widerspruch und letztlich Unglaubwürdigkeit führen muss. Der vorliegende dritte Band der Lehrbuchreihe Medientechnisches Wissen stellt – von Fachleuten auf ihrem Gebiet – die Disziplinen Mathematik, Physik und Chemie dar, jeweils unter Berücksichtigung ihrer medientechnischer Applikation aber nicht auf diese reduziert. Die Kapitelreihung ist dabei so angelegt, dass mit dem Vorwissen des jeweils vorangegangenen Kapitels das jeweils nächste Kapitel erschlossen werden kann. Dies wird durch Querverweise in zu einzelnen Teilbänden dieses sowie der anderen Bände der Reihe gekennzeichnet.² Solche Querverweise helfen also nicht nur dabei Redundanzen zu vermeiden und den notgedrungen geringen Platz für die Darstellungen der jeweiligen Disziplin besser zu nutzen; sie ermöglichen es dem Leser auch „über den Tellerrand“ hinauszublicken und – oft mit Hilfe medientechnischer Beispiele – die Interdependenzen der Fachgebiete untereinander aufzuzeigen. Diesen Zweck verfolgt ebenfalls das angehängte Stichwortverzeichnis, in welchem alle im Band genannten medientechnischen Apparate, Wissenschaftler und zentrale Begriffe gelistet sind. Bei letzteren liegt der Akzent neben kapitelübergreifenden Fachbegriffen der Einzeldisziplinen auf Verweise zu medienwissenschaftlichen, -technischen und historischen Lemmata. Bernd Ulmanns Kapitel zur Mathematik für Medienwissenschaftler steigt in die Thematik dort ein, wo noch Abiturwissen vorliegen sollte. Nach einer Einführung in 2 Die Querverweise zu Kapiteln im selben Band werden wie folgt angegeben: Eine römische Ziffer gibt den Teilband an (hier: I für Mathematik, II für Physik, III für Chemie), die nachfolgenden lateinischen Ziffern die jeweiligen Kapitelnummern. Wird zu anderen Bänden der Reihe verwiesen, wird die Angabe „Band“ mit der betreffenden Bandnummer vorangestellt.

Vorwort |

XV

die mathematische Notation stellt er die Gebiete Analysis, Lineare Algebra und Stochastik vor – jeweils mit spezifischen Anwendungsfällen, denen MedienwissenschaftStudenten schon einmal begegnet sein könnten (etwa die Mandelbrot-Menge, Zahlensysteme, das Abtast-Theorem, die Fourier-Analyse oder die Informationsentropie). Auf eine eigene Darstellung der Geschichte der Rechenautomaten, die sicherlich eng mit der Mathematik in Zusammenhang stehen, haben wir aus Gründen der thematischen Stringenz verzichtet und verweisen hierfür auf die ausführliche und reichhaltig bebilderte Darstellung Helmut Bruderers (2018a, 2018b). Anstelle dessen lässt der Autor Programmierexperimente zur Veranschaulichung komplexer (teilweise im doppelten Wortsinne) mathematischer Sachverhalte einfließen. Im Kapitel Physik für Medienwissenschaftler stellt der Astrophysiker Martin Wendt viele der klassischen Gebiete der Physik noch einmal vor und zeigt, worin ihre Relevanz für die Medienwissenschaft besteht. Hierzu müssen die Grundlagen der Mechanik, des Elektromagnetismus, der Optik, Wärme, Bewegung und anderer Felder jeweils knapp rekapituliert werden. Medientechnische Apparate, die zur Messung physikalischer Sachverhalte genutzt werden, sowie solche Geräte, in denen die jeweils diskutierten physikalischen Gesetze zur Anwendung kommen (wie etwa in der Optik), illustrieren den Text. Ein Ausblick in die Quantenmechanik schließt zum einen an die vorangegangenen Bände, in denen Quantencomputer thematisiert wurden, an und leitet zum Thema Chemie über. Der Farbchemiker Ingo Klöckl legt mit seinem Teilband Chemie für Medienwissenschaftler die wahrscheinlich erste auf dieses Feld fokussierte Abhandlung vor. Hierin geht er von der Geschichte der Chemie (basierend auf der Entwicklung und Erweiterung des Periodensystems der Elemente) und den Grundlagen der anorganischen und organischen Chemie zu Anwendungsfällen chemischer Verfahren und Stoffe in der Medientechnik über. Dies sind in der Anorganik vor allem Gläser und Keramiken (in Linsen, als Filter, Isolatoren etc.), Metalle (als Leiter, Energiespeicher und in Sonderanwendungen der Elektronik) sowie Halbleiter (in Digitaltechnik). Organische Chemie ist insbesondere in der Kunststoffindustrie (Isolatoren, Gehäuse, Datenträger, . . . ), bei Kleb- und Farbstoffen wichtig. Ihre Nomenklatur, Taxonomie und Reaktionstypen, die sich von denen der anorganischen Chemie unterscheiden, werden gesondert dargestellt. Den Abschluss bildet ein Kapitel über Foto- und Farbchemie, in welchem historisch und systematisch die Entwicklung dieser medientechnischen Anwendungsfelder dargelegt wird. Mit diesem dritten Band der Lehrbuchreihe soll also eine zentrale Grundlage zum Verständnis der natur- und ingenieurswissenschaftlichen Probleme der Medientechnik vorgestellt werden. Die Einarbeitung bedarf, aufgrund der Abstraktheit der Themengebiete, sicherlich einer konzentrierten Diskussion in Seminaren und/oder Vorlesungen – flankiert durch ergänzende, vertiefende und Nachschlagsliteratur. Hierfür geben die drei Autoren am Ende ihrer Teilbände kurze und begründete Lektüreempfehlungen. In dem Maße, wie diese Fachgebiete hier für die Medienwissenschaft erschlossen werden, hoffen wir auch zeigen zu können, wie sich Medientechnologien

XVI | Vorwort (etwa in Form von Messinstrumenten und Darstellungsverfahren) auch in die jeweiligen Formal-, Natur- und Ingenieurswissenschaften eingeschrieben haben. Die Reihe Medientechnisches Wissen könnte hier einen interdisziplinären Dialog eröffnen, der Medienwissenschaft als eine Sturkturwissenschaft definiert, die transversal zu den Fächern verläuft. Die Redaktion des dritten Bandes Medientechnisches Wissen wurde von Chiara Rochlitz besorgt. Ihr sowie den Autoren Bernd Ulmann, Martin Wendt und Ingo Klöckl, die vor die Aufgabe gestellt wurden, das Wissen Ihres Fachgebietes auf circa 150 Seiten zu konzentrieren und im Redaktionsprozess zu streichen, zu ergänzen und zu erläutern, gilt mein Dank ebenso wie Wolfgang Ernst, dem Lehrstuhlinhaber für Medientheorien an der Berliner Humboldt-Universität für seine kritische Vorabdiskussion der Kapitel. Dem DeGruyter-Verlag, dessen Lektoren und Setzer uns bei der Erstellung des Bandes technikkundig zu Seite gestanden haben, sei darüber hinaus gedankt. Berlin im Frühjahr 2020 Stefan Höltgen

Literatur Kittler, Friedrich (2002): Computergrafik. Eine halbtechnische Einführung. In: Wolf, Herta (Hg.): Paradigma Fotografie. Fotokritik am Ende des fotografischen Zeitalter. Band 1. Frankfurt am Main: Suhrkamp, S. 178–194. Bruderer, Herbert (2018a): Meilensteine der Rechentechnik. Band 1: Mechanische Rechenmaschinen, Rechenschieber, historische Automaten und wissenschaftliche Instrumente. 2. Auflage. Berlin/Boston: Oldenbourg/De Gruyter. Bruderer, Herbert (2018b): Meilensteine der Rechentechnik. Band 2: Erfindung des Computers, Elektronenrechner, Entwicklungen in Deutschland, England und der Schweiz. 2. Auflage. Berlin/Boston: Oldenbourg/De Gruyter. Kajiya, James T. (1986): The rendering equation. In: Proceedings of the 13th annual conference on Computer graphics and interactive techniques (SIGGRAPH) 1986, ACM Press, S. 143–150.

|

Teil I: Mathematik für Medienwissenschaftler (Bernd Ulmann)

1 Einleitung So ungeliebt Mathematik häufig als Schulfach ist, handelt es sich bei ihrer zumindest grundlegenden Beherrschung um eine Kernkompetenz, lässt sich ohne ihre Werkzeuge und Methoden doch weder die Natur beschreibend erfassen, noch ist wirklicher Erkenntnisgewinn im eigentlichen Sinne möglich. Ohne die zugegebenermaßen gerade zu Beginn des Studiums erdrückend erscheinende Rigorosität, die jeder mathematischen Behandlung eines Gegenstandes zugrunde liegt, wäre es unmöglich, neben dem reinen Beschreiben beobachtbarer Sachverhalte auch begreifend und schöpferisch tätig zu werden. Die folgenden Kapitel geben einen – aus Platzgründen zwangsläufig hinsichtlich seines Umfanges stark beschränkten – Überblick über wesentliche Begriffe und Gedanken der Mathematik und möchten zum weiterführenden Selbststudium anregen. An erster Stelle sollte bei einer Beschäftigung mit mathematischen Fragen stets die Freude an der Beschreibung mehr oder weniger komplexer Fragestellungen und ihrer hoffentlich anschließenden Lösung im Vordergrund stehen. Mathematik ist keine dröge Wissenschaft! Ganz im Gegenteil. In wenigen Fachgebieten tummelten sich im Laufe der Geschichte so viele oftmals vielseitig begabte und häufig auch schillernde Persönlichkeiten, deren Blick meist weit über den sprichwörtlichen Tellerrand ihres eigentlichen Fachgebietes hinaus ging und geht, wie in der Mathematik. Ebenso darf die Feststellung nicht fehlen, dass Mathematik in unserer Zeit eine Rolle spielt, die noch vor wenigen Jahrzehnten unvorstellbar gewesen wäre. Ohne Mathematik und die ihr nahe verwandte Informatik wäre eine vergleichsweise hochtechnologische Zivilisation wie die unsere weder realisier- noch an sich überhaupt denkbar. Kein Bereich des täglichen Lebens kommt ohne mathematische Verfahren in Form von Algorithmen aus, keine Maschine kann ohne die Verwendung von Methoden aus auf den ersten Blick extrem abstrakt anmutenden mathematischen Fachgebieten entwickelt, gebaut oder betrieben werden. Telekomunikation wäre noch immer ein Traum ohne die mathematischen Arbeiten beispielsweise eines Oliver Heaviside¹ und anderer, die ubiquitäre Verfügbarkeit von Strom, Wasser, Gas, die Steuerung von Verkehrsflüssen, schlicht alles, was unsere moderne Welt im wahrsten Wortsinne am Laufen hält, beruht letztlich auf Mathematik. Ein Beitrag wie der vorliegende ist ohne die Hilfe eine Reihe von Personen nicht denkbar. Zunächst möchte ich meiner Frau, Rikka Mitsam, nicht nur für ihre Geduld, mit der sie in den letzten Monaten auf mich verzichtet hat, sondern vor allem für ihre Hilfe beim Korrekturlesen und für viele Verbesserungsvorschläge danken. Weiterhin gebührt Herrn Erik Reischl für seine Korrekturen und Anmerkungen Dank. Nicht zuletzt möchte ich Herrn Dr. Stefan Höltgen danken, auf dessen Initiative das ganze Buchprojekt zurückgeht. 1 Eine sehr lesenswerte Biographie findet sich beispielsweise in (Mahon 2017). https://doi.org/10.1515/9783110496277-001

2 Einführung 2.1 Notation und Begriffe Schlägt man ein mathematisches Fachbuch auf, fällt zuallererst der ungewohnte Textsatz ins Auge: Während bei vielen anderen Wissenschaften Textpassagen überwiegen, nimmt herkömmlicher Text häufig nur einen kleinen Teil einer mathematischen Veröffentlichung ein. Dafür überwiegt eine auf den ersten Blick vollkommen unverständlich anmutende abstrakte Zeichensprache. Dies rührt nicht daher, dass Mathematiker sich partout von anderen Wissenschaften durch eine eigene, arkane Zeichensprache absetzen möchten – ganz und gar nicht. Hintergrund dieser Eigentümlichkeit ist die Tatsache, dass Mathematik eine auf die Spitze getriebene Rigorosität und Genauigkeit im Ausdruck hinsichtlich ihrer Ausdrucksmittel erfordert. Natürliche Sprachen sind, wenn derart hohe Ansprüche gestellt werden, vollkommen ungeeignet, wie der niederländische Mathematiker und Informatiker Edsger Wybe Dijkstra einmal wunderbar auf den Punkt brachte (Dean et al., 1996, Vorwort): So-called ’natural language’ is wonderful for the purposes it was created for, such as to be rude in, to tell jokes, to cheat or to make love in (and Theorists of Literary Criticism can even be contentfree in it), but it is hopelessly inadequate when we have to deal unambiguously with situations of great intricacy, situations which unavoidably arise in such activities as legislation, arbitration, mathematics or programming.

Die Geschichte der Mathematik und damit auch die der Frage, wie man möglichst eindeutig und schnell verständlich hochkomplexe Sachverhalte formulieren und notieren kann, reicht nicht nur Jahrhunderte, sondern Jahrtausende zurück. Bereits in babylonischen Keilschrifttexten finden sich erstaunlich anspruchsvolle Rechenaufgaben, wie diese hier, deren Formulierung noch ohne eine ausgefeilte Notation auskommen musste und entsprechend nur auf den ersten Blick leicht verständlich ist (siehe (Neugebauer 1969: S. 71)): Länge mit 3 vervielfacht[,] Breite mit 2 vervielfacht[,] addiert quadratisch[,] Fläche [der] Länge addiert und so 4,56,40.

Zunächst einmal fällt eine seltsame Zahlennotation auf: „4,56,40“ ist natürlich eine Umschrift in moderne Zahlendarstellung, aber dennoch nicht sofort verständlich. Hierzu muss man wissen, dass die Babylonier mit einem Zahlensystem zur Basis 60, dem Sexagesimalsystem, rechneten – im Unterschied zu unserem heute gebräuchlichen Zehnersystem. Eine Folge dieses Zahlensystems ist in moderner Zeit noch immer

https://doi.org/10.1515/9783110496277-002

2.1 Notation und Begriffe | 5

bei der Angabe von Zeiten und Winkeln zu spüren, bei denen jeweils 60 Sekunden eine Minute und 60 Minuten eine Stunde beziehungsweise ein (Alt-)Grad darstellen.² Übersetzt man diesen historischen Text in eine moderne Form, gestaltet sich die Formulierung an sich nicht nur wesentlich kürzer, sondern auch und vor allem prägnanter: (3x + 2y)2 + x2 = 4, 56, 40 In Ermangelung der Idee einer Variablen als Stellvertreter für einen gesuchten Wert oder gar eine gesuchte Funktion mussten sich die Babylonier bei der Formulierung ihrer mathematischen Probleme, die häufig einen ausgesprochen praktischen Hintergrund besaßen, noch mit Begriffen aus der Anschauungswelt, wie „Länge“, „Breite“ und „Fläche“ behelfen, was die obige Aufgabenstellung aus heutiger Perspektive nahezu unsinnig erscheinen lässt. Erst die wunderbare Idee, Buchstaben oder besondere Symbole zur Kennzeichnung beliebiger unbekannter Quantitäten etc. zu verwenden, befreite die Mathematik aus diesem Korsett einer durch eine ungeeignete und ungenügende Notation erzwungen „Anschaulichkeit“, die in den meisten Fällen eher in die Irre führte, als zu einem Erkenntnisgewinn beizutragen. Auch Symbole zur Kennzeichnung einfacher oder auch komplexer Operationen, wie +, −, ∫ uvm., die uns heute selbstverständlich erscheinen und in vielen Fällen ihren Weg in den Alltag gefunden haben, sind das Resultat eines im Grunde genommen jahrtausendelangen Ringens um sprachliche und notationstechnische Präzision, die von der stetig wachsenden Komplexität der untersuchten Sachverhalte geprägt war. Bereits Landvermesser im alten Ägypten standen vor einer vergleichsweise komplexen Aufgabe – nach Überschwemmungen mussten Landstücke vermessen und zugewiesen werden. Während die Flächenbestimmung bei quadratischen Formen einfach ist, steigt die Komplexität über Trapeze bis hin zu mehr oder weniger unregelmäßig geformten Ackerflächen stark an. Mit der ständig steigenden Komplexität der Fragestellungen, die nurmehr mit Hilfe mathematischer Methoden beschrieben und untersucht werden konnten, musste auch die mathematische Notation immer weiter verfeinert werden – ein Vorgang, der niemals abgeschlossen sein wird: Mit mächtigeren Ausdrucksmitteln können komplexere Fragestellungen untersucht werden. Im Verlauf dieser Untersuchungen ergeben sich jeweils neue Fragestellungen, die über kurz oder lang Änderungen, Anpassungen und Erweiterungen der Notation erforderlich machen, wodurch deren Leistungsfähigkeit weiter steigt usf. 2 Bei der praktischen Handhabung stellt ein solches Sexagesimalsystem den Anwender vor eine nicht zu unterschätzende Hürde: Während eine kleine Einmaleinstabelle lediglich 100 Einträge enthält, die mit wenig Mühe zur Beschleunigung von Rechnungen auswendig gelernt werden können, verfügt eine entsprechende Multiplikationstafel im Sexagesimalsystem über 60 ⋅ 60 = 3600 Einträge. Dieser Nachteil wird nur zu einem kleinen Teil durch den Vorteil erkauft, dass die Darstellung großer Zahlenwerte weniger Ziffern als beispielsweise im Dezimalsystem erfordert und darüber hinaus die 60 als Basis mehr Teiler als die heute gebräuchliche 10 aufweist, was einige Rechnungen wiederum vereinfacht.

6 | 2 Einführung

Abb. 2.1: Die Verwendung von „+“ und „−“ in (Widmann 1508:59f.)

Abb. 2.2: Die Einführung des Gleichheitszeichens und die erste bekannte Gleichung, 14x + 15 = 71 (siehe (Recorde 1557:236))

Ein schönes Beispiel hierfür sind die heute nahezu jedem geläufigen Symbole „+“ und „−“, welche die Operationen Addition und Subtraktion repräsentieren. Noch vor etwa 500 Jahren waren diese Symbole nicht bekannt und selbst einfache kaufmännische Rechnungen konnten nur verklausuliert ausgedrückt werden. Es ist Johannes Widmann, der 1486 in Leipzig die wohl erste wirkliche Algebra-Vorlesung hielt, zu verdanken, bei dieser Gelegenheit diese beiden Symbole in Welt gesetzt zu haben. Weite Verbreitung fanden sie nach der Publikation seines Buches „Behend und hüpsch Rechnung uff allen Kauffmanschafften“, aus dem auch Abb. 2.1 entnommen ist. Auch andere, zum Teil heute wieder nahezu vergessene mathematische Symbole wurden, wenn auch nicht von Widmann eingeführt, so doch einem breiten Publikum bekannt gemacht. Hierunter fallen beispielsweise die sogenannten cossischen Zeichen, die Vorläufer unserer heutigen Potenzschreibweise einer Variablen wie x sind. Andere Autoren, wie beispielsweise Heinrich Schreiber, übernahmen das Plus- und Minuszeichen in ihre Texte und sorgten so für weitere Verbreitung. Erst 1557 wurde eines der wichtigsten und mächtigsten mathematischen Symbole eingeführt, das unscheinbare Gleichheitszeichen „=“. Robert Recorde verwendete zwei parallele Linien, um kenntlich zu machen, dass zwei Dinge einander gleich sind, da, wie er ausführte, nichts gleicher als ebensolche zwei Parallelen sein kann. Abb. 2.2 zeigt die erste wirkliche Gleichung, d. h. die erste notationstechnische Repräsentation zweier einander gleicher Dinge: 14x + 15 = 71 Die Einführung des Gleichheitszeichens und des damit verbundenen Konzeptes verschaffte der Mathematik und damit einhergehend den Naturwissenschaften, insbesondere der Physik, einen zuvor unvorstellbaren Aufschwung, der bis heute anhält und mit einer immer komplexeren und leistungsfähigeren Notation einhergeht. Entsprechend groß ist die Bedeutung, die einer grundlegenden Lesekompetenz hinsichtlich mathematischer Ausdrücke zukommt.

2.1 Notation und Begriffe | 7

Angemerkt werden soll abschließend noch, dass die heute verwendete mathematische Notation nicht ohne Nachteile ist. Aufgrund der langen historischen Entwicklung, der unterschiedlichen, zum Teil nach Jahrzehnten oder Jahrhunderten zusammenfließenden Strömungen innerhalb der Mathematik, persönlicher Vorlieben und Abneigungen einflussreicher Mathematiker und aufgrund vieler anderer Ursachen finden sich viele Eigenschaften, die man, könnte man eine solch komplexe Notation von Grund auf neu entwickeln, sicherlich vermeiden würde. Selbst etwas im Grunde genommen einfaches wie die Summe aller natürlichen Zahlen von 1 bis zu einer beliebig vorgegebenen Zahl n, die zwar intuitiv verständlich als 1 + 2 + 3 + ⋅ ⋅ ⋅ + n geschrieben werden kann, aus Gründen der Eindeutigkeit und besseren Manipulierbarkeit jedoch in der Regel als n

∑i i=1

notiert wird, ist aus heutiger Sicht zumindest gewöhnungsbedürftig, da dieser Ausdruck nicht einfach von links nach rechts gelesen wird, sondern die unter und über dem großen griechischen Buchstaben Sigma stehenden Ausdrücke ebenfalls berücksichtigt werden müssen. Viele, wenn nicht die meisten mathematischen Ausdrücke, besitzen diese Eigenschaft, nicht einfach linear von links nach rechts gelesen werden zu können, sondern sind vielmehr flächig in ihrer Form, eine Eigenschaft, die dem Deutschen oder Englischen etc. fremd ist. Einer der bekanntesten und bemerkenswerten Ansätze, die mathematische Notation als solche grundlegend zu reformieren, geht auf den kanadischen Mathematiker und Informatiker Ken Iverson zurück, der in (Iverson 1962) nichts weniger als eine vollständig eigene, extrem leistungsfähige Notation vorstellte, die kurze Zeit später zum Ausgangspunkt für die Programmiersprache APL wurde. Leider konnte sich Iversons Notation nicht gegen die seit Jahrhunderten benutzte und gewohnte Notation durchsetzen. Die folgende Tabelle listet einige grundlegende mathematische Symbole auf, die im weiteren Verlauf an jeweils geeigneter Stelle eingeführt werden. An dieser Stelle dienen sie zunächst als Ausgangspunkt zur Erläuterung der grundlegenden Struktur mathematischer Formeln, anhand derer eine gewisse Lesekompetenz in diesem Bereich erlangt werden kann. Symbol Bedeutung ⋃ ⋂ ∖ {. . . } N N0 Z R

Mengenvereinigung Mengenschnitt Mengendifferenz Mengenklammern Menge der natürlichen Zahlen Menge der natürlichen Zahlen mit 0 Menge der ganzen Zahlen Menge der reellen Zahlen

8 | 2 Einführung

Symbol

Bedeutung

C P ∅ oder {} 𝒞0 𝒞n (︀a, b⌋︀ (a, b) oder ⌋︀a, b(︀ ∧ ∨ ¬ oder ∼ ⊥ ○ + − ⋅ ⇑ oder ba ⋃︀ ∤ × > < = ∶= ≥ ≤ ⊂ ⊆ ⋃︀x⋃︀ ∆ d ∂

Menge der komplexen Zahlen Menge der Primzahlen leere Menge Menge der stetigen Funktionen Menge n-mal stetig differenzierbarer Funktionen Geschlossenes Intervall von a bis b Offenes Intervall von a bis b Logisches Und Logisches Oder Logische Negation Orthogonal Hintereinanderausführen von Funktionen Addition Subtraktion Multiplikation (nur in Ausnahmefällen notiert) Division teilt ohne Rest teilt nicht ohne Rest Kartesisches Produkt größer kleiner Gleichheitszeichen Definition/Festlegung größer gleich kleiner gleich echte Teilmenge Teilmenge Betrag von x Differenz Differential Partielles Differential

n

∑ ai i=0 n

∏ ai i=0 b

∫ f (x) dx

Summe über alle a i , wobei i von 0 bis n läuft Produkt über alle a i , wobei i von 0 bis n läuft Integral über f (x) zwischen den Grenzen a und b

a

ℵ0 𝒪 x! Γ Ô⇒ ⇐⇒ Ð→ z→ ∃ ∃! ∀

Aleph-Null Big-O, ein Komplexitätsmaß (Landau-Symbol) Fakultät von x Gamma-Funktion Aus . . . folgt. . . . . . genau dann, wenn. . . . . . geht gegen. . . Abbildungsvorschrift Es gibt/existiert ein. . . Es gibt/existiert genau ein. . . Für alle. . .

2.1 Notation und Begriffe | 9

Symbol Bedeutung 2 p(x) P(A) P (A⋂︀B) ρ(x i ) F (x) 𝒫(M) δ i,j e π σ 2X ⌋︂ ... ⌋︂ n . . .

Ende eines Beweises Polynom Wahrscheinlichkeit eines Ereignisses Bedingte Wahrscheinlichkeit Wahrscheinlichkeitsfunktion Stammfunktion, kumulative Verteilungsfunktion,. . . Potenzmenge Kronecker-Delta Euler’sche Zahl Kreiszahl („Pi“) Varianz Quadratwurzel n-te Wurzel

Sogenannte Variablen, d. h. „Stellvertreter“ für (unbekannte) Größen, werden durch Buchstaben in mathematischen Formeln repräsentiert, wobei häufig x, y und z verwendet werden. Eine einfache Gleichung wie y = 2x wird stets von links nach rechts gelesen, in diesem Fall also „y ist gleich zwei mal x“. Häufig genügen einzelne Buchstaben nicht, um alle Variablen einer Problemstellung zu spezifizieren. In solchen Fällen wird oft mit sogenannten Indizes gearbeitet, bei denen es sich um satztechnisch tiefgestellte Zahlen handelt, wie zum Beispiel in x2 = x1 + x0 Gelesen wird dies als „x-zwei ist gleich x-eins plus x-null“. Solche festen Indizes sind eher unüblich, da die Stärke der Mathematik gerade darin liegt, allgemeine Aussagen treffen zu können, so dass eher eine Formulierung wie x i = x i−1 + x i−2 anzutreffen sein wird, die als „x-i ist gleich x-i-minus-eins plus x-i-minus-zwei“ gelesen wird. Der Index i ist hierbei selbst eine Variable, die in der Regel eine sogenannte natürliche Zahl ist, d. h. nur positive ganzzahlige Werte 1, 2, 3, 4, . . . annehmen kann. Im Textsatz gelten für mathematische Formeln besondere Regeln, wie an dieser Stelle bereits aufgefallen sein dürfte. Variablen werden meist in kursiven Buchstaben gesetzt, um sie unter anderem von besonderen Funktionen wie sin(x) zu unterscheiden.³ Funktionen sind Berechnungsvorschriften, die auf ihren sogenannten Argumenten arbeiten, die zwischen dem auf den Funktionsnamen folgenden Klammerpaar notiert werden. Das Argument der eben genannten Sinus-Funktion ist hier also die Variable x. Werden allgemeine Funktionen benutzt, so werden diese meist durch einen ebenfalls kursiven Buchstaben f , g, selten auch h, kenntlich gemacht. Das folgende Beispiel definiert eine Funktion mit Namen f , die zwei Argumente x und y besitzt: ⌈︂ f (x, y) = x2 + y2 3 Eines der besten Werkzeuge für professionellen Text- und Formelsatz ist das LATEX-System, von Notlösungen, wie sie typische Textverarbeitungsprogramme anbieten, sollte nicht zuletzt aus ästhetischen Gesichtspunkten abgesehen werden.

10 | 2 Einführung Gelesen wird dies als „f von x, y ist gleich der Quadratwurzel aus der Summe von x-Quadrat und y-Quadrat“. Die hier auftretende Quadratwurzel ist an sich auch eine Funktion, allerdings wird sie aus historischen Gründen wie gezeigt notiert. Der obere Querbalken des Wurzelsymbols ragt über das gesamte Argument der Wurzelfunktion. Das folgende Beispiel ist aus der Algorithmik entlehnt, wo es im Zusammenhang mit der Laufzeitkomplexität von Algorithmen (vgl. Band 2, Kap. I.5.1.3) auftritt. Es ist hinsichtlich der mathematischen Lesekompetenz vor allem aufgrund der Verwendung verschiedener sogenannter Quantoren von Interesse: 𝒪(f (n)) = {g ∶ N Ð→ N ⋂︀ ∃n0 ∈ N ∧ c ∈ R+ , so dass ∀n ≥ n0 ∶ g(n) ≤ cf (n)} Gelesen wird diese auf den ersten Blick etwas verwirrend wirkende Formulierung wie folgt: „O von f von n ist die Menge aller Funktionen g, die von den natürlichen Zahlen auf die natürlichen Zahlen abbilden, wobei gilt, dass es ein ganzzahliges n-null und einen positiven reellen Wert c gibt, so dass für alle n größer oder gleich n0 gilt: g von n ist kleiner oder gleich c mal f (n)“. Wie aus der oben stehenden Tabelle ersichtlich ist, bezeichnet das Symbol N die sogenannte Menge der natürlichen Zahlen, die an dieser Stelle intuitiv als die Zusammenfassung aller positiven ganzen Zahlen (gegebenenfalls einschließlich der Null) verstanden werden kann. Präziser werden diese und andere grundlegende Mengen in Kapitel 2.3 behandelt. Das Symbol ∈ besagt, dass die links hiervon notierte Variable ein Element der rechts von diesem Zeichen stehenden Menge ist. Eine Reihe mathematischer Symbole verfügt über Indizes oder Grenzen, die unter und über dem eigentlichen Symbol notiert werden. An diesen Stellen wird entsprechend kurzfristig von der gewohnten Leserichtung von links nach rechts abgewichen, wie folgendes Beispiel zeigt: ∞

∫ δ(u)f (t − u) du = f (t)

−∞

Gelesen wird dieser Ausdruck als „Das Integral von minus unendlich bis plus unendlich über Delta von u mal f von t minus u d u ist gleich f von t“. Das kleine Delta ist ein Beispiel für die an sich häufige Verwendung griechischer Buchstaben in mathematischen Ausdrücken. Um derartige Gleichungen lesen zu können, ist die Tabelle griechischer Buchstaben in Anhang 6. Ein weiteres Beispiel für eine mathematische Operation, die Grenzen unter und über dem sie repräsentierenden Symbol verwendet, ist das Summenzeichen ∑, wie folgendes Beispiel zeigt: n n(n + 1) ∑i = 2 i=1 Gelesen: „Die Summe von i gleich eins bis n über i ist gleich n mal n plus eins halbe.“

2.2 Grundlegende Beweistechniken | 11

2.2 Grundlegende Beweistechniken Der zentrale Gedanke der Mathematik ist, Dinge zu beweisen, um allgemeingültige Aussagen zu erhalten. Nur selten sind spezielle Eigenschaften mathematischer Objekte von Interesse, wie beispielsweise die Feststellung, dass 2 die einzig gerade Primzahl ist. Von wirklicher Relevanz sind in der Regel Aussagen, die sich durch logisches Schließen auf einige (wenige) sogenannte Axiome sowie andere bereits bewiesene Aussagen zurückführen lassen. (Vgl. Band 1, Kap. I.2) Als Axiom wird eine Aussage bezeichnet, die innerhalb des betrachteten Systems (in diesem Falle also der Mathematik als solcher) nicht bewiesen werden kann, aber sozusagen „einleuchtend“ oder „intuitiv“ klar ist. Beispielsweise werden die natürlichen Zahlen, deren Menge mit N symbolisiert wird, durch die nach dem italienischen Mathematiker Giuseppe Peano benannten Peano-Axiome charakterisiert. Umgangssprachlich können diese wie folgt formuliert werden: – 0 (oder 1 – je nachdem, wie man den Beginn der natürlichen Zahlen festlegt) ist eine natürliche Zahl. Geschrieben wird dies als 0 ∈ N. – Jede natürliche Zahl hat eine Nachfolgerzahl n∗ , die ebenfalls eine natürliche Zahl ist, d. h. ∀n ∈ N ∶ n∗ ∈ N. – 0 (oder 1 – siehe oben) ist kein Nachfolger einer natürlichen Zahl, also ∀n ∈ N ∶ n∗ ≠ 0. – Zwei beliebige natürliche Zahlen mit gleichem Nachfolger sind gleich, d. h. ∀n, m ∈ N ∶ n∗ = m∗ Ô⇒ n = m. Gelesen wird dies als „für alle n und m aus der Menge der natürlichen Zahlen gilt, dass, wenn die Nachfolger n∗ und m∗ von n und m gleich sind, auch n und m gleich sind“. – Enthält eine Menge X (Mengen werden meist mit kursiven Großbuchstaben bezeichnet) die 0 (oder 1) und mit jeder natürlichen Zahl n auch deren Nachfolger n∗ , so sind die natürlichen Zahlen, d. h. N, eine Teilmenge von X, d. h. X enthält mindestens alle Elemente, die auch N enthält. Keine dieser Aussagen kann auf einfachere Aussagen zurückgeführt, d. h. bewiesen werden, aber jede dieser Aussagen ist intuitiv „klar“. Um damit „arbeiten“ zu können, benötigt man noch die Feststellung, dass 1 der Nachfolger von 0 ist, d. h. 1 = 0∗ (beziehungsweise 2 ist der Nachfolger von 1) sowie eine Definition für eine Addition, um den Nachfolger n∗ = n + 1 einer jeden natürlichen Zahl bestimmen zu können. Mathematische Erkenntnis liegt nun darin, auf Basis solcher Axiome zu beweisbaren Aussagen zu gelangen, die ihrerseits als Grundlage für weitere Aussagen steigender Komplexität dienen. Solche beweisbaren Aussagen, d. h. genauer gesagt, widerspruchsfreie logische Aussagen werden als Sätze (vgl. Band 1, Kap. I.2.1.2) bezeichnet. Mitunter wird ein Satz, der von besonderer Bedeutung ist, als Theorem oder auch Hauptsatz bezeichnet. Ein Satz, der von untergeordneter Bedeutung ist und beispielsweise als Grundlage für einen solchen Hauptsatz dient, wird meist als Lemma bezeichnet. Eine eher triviale Folgerung aus einem Satz heißt Korollar.

12 | 2 Einführung Von zentraler Bedeutung ist der Beweis eines solchen Satzes. Seine Gültigkeit muss widerspruchsfrei und allgemein auf Grundlage bereits bewiesener Sätze beziehungsweise der zugrunde liegenden Axiome bewiesen werden. Hierfür gibt es eine Reihe typischer Beweistechniken, wie den direkten Beweis, bei dem sozusagen konstruktiv aus Bekanntem der zu beweisende Satz hergeleitet wird, den Widerspruchsbeweis, bei dem von der Verneinung des zu beweisenden Satzes ausgegangen wird, um auf dieser Basis einen Widerspruch zu erzeugen, oder den Induktionsbeweis. Ein wunderschönes Beispiel für einen Widerspruchsbeweis geht auf den frühen griechischen Mathematiker Euklid, der vermutlich im dritten Jahrhundert vor u. Z. lebte, zurück. Bewiesen wird die Aussage, dass es unendlich viele sogenannte Primzahlen gibt. Als Primzahl wird eine natürliche Zahl n bezeichnet, die durch genau zwei unterschiedliche natürliche Zahlen, nämlich 1 und sich selbst, ohne Rest dividiert werden kann. Offensichtlich sind die Zahlen 2, 3, 5, 7, 11, 13, 17, 19, etc. prim, aber es ist nicht auf den ersten Blick klar, ob es unendlich viele dieser besonderen Zahlen gibt, die übrigens von großer Bedeutung für moderne Verschlüsselungstechniken sind. Das Erstellen einer Primzahlliste hilft nicht weiter, da sie zwangsläufig nur endlich viele Zahlen enthalten kann, so dass auf ihrer Basis keine allgemeingültige Aussage möglich ist. Eine solche Liste könnte sogar den Verdacht nähren, dass es vielleicht nur endlich viele Primzahlen gibt, da die Lücken zwischen je zwei aufeinanderfolgenden Primzahlen tendenziell immer größer zu werden scheinen, was auf den ersten Blick nicht ganz unvernünftig zu sein scheint, immerhin steigt die Wahrscheinlichkeit dafür, dass ein Teiler für eine Zahl existiert, mit der Größe dieser Zahl. Euklid gelang es nun unter Herleitung eines Widerspruches zu beweisen, dass es unendlich viele Primzahlen gibt, wobei er folgenden Weg beschritt: – Zunächst sei angenommen, es gäbe nur endlich viele Primzahlen, zum Beispiel n Stück, die mit p1 , . . . , p n bezeichnet werden, wobei n eine natürliche Zahl ist. – Aus diesen n Primzahlen kann wie folgt eine neue Zahl x konstruiert werden: x = p1 ⋅ p2 ⋅ ⋅ ⋅ ⋅ ⋅ p n−1 ⋅ p n + 1, was sich unter Verwendung des Produktzeichens auch wie folgt schreiben lässt: n

x = 1 + ∏ pn i=1

– –



Diese neue Zahl x wird offensichtlich von keiner der n Primzahlen p1 , . . . , p n ohne Rest geteilt, da in jedem Fall ein Rest p1i übrig bliebe. Entweder ist also x selbst eine Primzahl, die nicht in der als vollständig vorausgesetzten Liste enthalten war, oder es gibt eine Primzahl, die ebenfalls nicht in der Liste enthalten ist, die x ohne Rest teilt. Damit wurde ein Widerspruch herbeigeführt, was zeigt, dass die zu Beginn gemachte Annahme einer endlichen Anzahl von Primzahlen falsch sein muss, so dass das Gegenteil dieser Annahme gilt. Es gibt also unendlich viele Primzahlen.

2.2 Grundlegende Beweistechniken | 13

Die solchermaßen bewiesene Aussage ist also ein Satz und kann ihrerseits als Grundlage für weitere Beweise dienen usf. Eine weitere grundlegende Beweistechnik ist der bereits erwähnte Induktionsbeweis, der im Folgenden anhand eines einfachen Beispiels dargestellt wird: Einer weitverbreiteten Geschichte nach bekam Carl Friedrich Gauß, der zu Recht als Fürst der Mathematik in die Geschichte eingehen sollte, als neunjähriger Schüler zusammen mit den anderen Schülern seiner Klasse die undankbare Fleissaufgabe gestellt, die Summe der ersten einhundert natürlichen Zahlen, d. h. 1 + 2 + 3 + ⋅ ⋅ ⋅ + 99 + 100 auszurechnen. (Vgl. Band 2, Kap. II.3.3.2) Während seine Mitschüler die Aufgabe rein mechanisch in Angriff nahmen, fiel ihm sofort auf, dass sich diese Zahlen paarweise gruppieren lassen, so dass die Summe einer solchen Gruppe stets den Wert 101 animmt: 1 + 100 = 101, 2 + 99 = 101, . . . , 50 + 51 = 101 Insgesamt gibt es hier also fünfzig Zweiergruppen, deren Summe jeweils gleich 101 ist, so dass die Summe dieser Teilsummen gleich 50⋅101 = 5050 ist. Mit einem brillianten Kunstgriff gelang es ihm so, eine auf den ersten Blick ausgesprochen mühsam anmutende Aufgabe auf einen Schlag zu lösen. Dieser Trick war zwar prinzipiell bereits vor ihm bekannt, nur nicht ihm selbst in diesem jugendlichen Alter. Das Verfahren lässt sich verallgemeinern – ein generelles Ziel jeder mathematischen Betrachtung: n n(n + 1) (2.1) ∑i = 2 i=1 Ein Induktionsbeweis, wie er häufig für den Beweis von Aussagen, die für alle natürlichen Zahlen, die größer gleich einem bestimmten Startwert (im vorliegenden Beispiel ist dies der Wert 1) gelten, genutzt wird, besteht aus drei getrennten Beweisschritten: 1. Dem Induktionsanfang, mit dem gezeigt wird, dass die allgemein zu beweisende Aussage für den gewünschten Startwert gilt (wäre dies nicht erfüllt, erübrigte sich jede weitere Überlegung), 2. der Induktionsannahme, bei der man annimmt, dass die zu beweisende Aussage für irgendeinen Wert n wahr ist, sowie 3. schlussendlich dem Induktionsschritt, in welchem gezeigt wird, dass die Aussage, wenn sie für n erfüllt ist, auch für n+1 erfüllt ist. Induktionsannahme und -schritt werden häufig auch zusammengefasst, so auch im folgenden Beispiel. Der Induktionsanfang für den Beweis der Aussage (2.1) für den Startwert 1 ist einfach: 1

∑i = i=1

1(1 + 1) = 1, 2

was korrekt ist – die Summe über den Wert 1 ist offenbar gleich 1. An diesen initialen Induktionsanfang schließt sich nun der Induktionsschritt an, mit dem der Bogen von diesem einen Sonderfall zu allen folgenden, d. h. unendlich vielen natürlichen Zahlen geschlagen wird. Die Idee hierbei ist einfach: Kann man

14 | 2 Einführung die zu beweisende Behauptung für den Wert n + 1 auf die Behauptung für den Wert n zurückführen, so gilt sie offenbar für alle natürlichen Zahlen, da ihre Gültigkeit für den Wert n = 1 dank des Induktionsanfanges bereits gezeigt wurde. Damit gilt sie also auch für n = 2, n = 3 usf. Im vorliegenden Fall muss also die Aussage n+1

∑i= i=1

(n + 2)(n + 1) , 2

(2.2)

bei der jeweils n durch n + 1 ersetzt wurde, irgendwie auf (2.1) zurückgeführt werden. Hierzu kann zunächst die rechte Seite von (2.2) umgeschrieben werden, indem man den letzten Summanden aus der Summe herauszieht und explizit addiert: n+1

n

i=1

i=1

∑ i = (n + 1) + ∑ i

Für die Summe auf der rechten Seite kann man nun (2.1) einsetzen: n+1

n

i=1

i=1

∑ i = (n + 1) + ∑ i = (n + 1) +

n(n + 1) 2

Nun muss nur noch der Ausdruck auf der rechten Seite so umgeformt werden, dass er der rechten Seite aus Gleichung (2.2) entspricht: (n + 1) +

n(n + 1) 2(n + 1) n(n + 1) 2(n + 1) + n(n + 1) (n + 2)(n + 1) = + = = 2 2 2 2 2

Damit wurde also gezeigt, dass (2.2) auf (2.1) zurück geführt werden kann. Zusammen mit dem Induktionsanfang gilt damit die Aussage (2.1) also für alle natürlichen Zahlen 1, 2, . . . Bei einem direkten Beweis wird die zu beweisende Behauptung direkt durch geeignetes Kombinieren und Umformen aus anderen, bereits bewiesenen Aussagen etc. hergeleitet. Als einfaches Beispiel hierfür wird im Folgenden die Aussage „die Summe dreier aufeinanderfolgender natürlicher Zahlen ist ohne Rest durch 3 teilbar“ bewiesen: Diese Summe hat zunächst einmal die Gestalt n + (n + 1) + (n + 2). Hieraus folgt n + (n + 1) + (n + 2) = 3n + 3 = 3(n + 1), woraus sich die Teilbarkeit durch 3 direkt ergibt. Nach diesen einführenden Bemerkungen werden in den folgenden Kapiteln einige Grundlagen der Mengenlehre behandelt, die einen der Grundpfeiler der modernen Mathematik darstellt.

2.3 Mengen Eine sogenannte Menge ist zunächst einmal ganz anschaulich die Zusammenfassung voneinander unterscheidbarer Dinge, der sogenannten Elemente der Menge, z. B. die

2.3 Mengen

| 15

Menge aller ungeraden natürlichen Zahlen oder die Menge aller roten Autos. Mengen können keine, endlich viele oder unendlich viele Elemente enthalten, wie diese beiden Beispiele bereits intuitiv nahelegen. Im einfachsten Fall wird eine Menge durch explizites Auflisten aller ihrer Elemente definiert. So könnte die Menge aller ungeraden natürlichen Zahlen kleiner 10 als M = {1, 3, 5, 7, 9}

(2.3)

geschrieben werden. Diese Notation findet schnell ihre Grenzen, wenn es sich um Mengen aus vielen oder gar unendlich vielen Elementen handelt. Für die Menge aller ungeraden natürlichen Zahlen ließe sich M = {1, 3, 5, 7, 9 . . . } schreiben, wobei die drei Punkte beunruhigend viel Interpretationsspielraum lassen, was in der Mathematik verständlicherweise nicht gerne gesehen wird. Um kenntlich zu machen, dass ein Element Bestandteil einer Menge ist, wird das Symbol „∈“ verwendet. Mit obiger Menge M gilt 1 ∈ M. Ist ein Element nicht in einer Menge enthalten, wird dies wie folgt notiert: 2 ∈⇑ M. In Fällen wie dem obigen mit der Menge aller ungeraden Zahlen, in denen die exemplarische Auflistung von Elementen zumindest unpraktisch, wenn nicht gar irreführend ist, bietet es sich an, die Menge unter Angabe der Bedingungen, die ihre Elemente erfüllen müssen, zu notieren. Wenn N, wie üblich, die Menge der natürlichen (d. h. positiven ganzen) Zahlen bezeichnet, dann lässt sich die Menge besser wie folgt schreiben: M = {n ∈ N ⋂︀ 2 ∤ n} Gelesen wird dies als „M ist die Menge aller natürlichen Zahlen, die nicht ohne Rest durch 2 teilbar sind“, was gerade die Menge aller ungeraden Zahlen beschreibt. Eine besondere und auf den ersten Blick etwas seltsam anmutende Menge ist die leere Menge, bezeichnet durch ∅. Mitunter wird diese Menge auch durch ein leeres Paar geschweifter Klammern notiert, d. h. ∅ = {}. Diese Menge verfügt über keine Elemente und vertritt in gewisser Weise die Rolle, welche die Null bei den Zahlen innehat. Enthalten zwei Mengen M und N die gleichen Elemente, so sind M und N identisch, was meist einfach als M = N geschrieben wird.⁴ Entsprechend wird durch M ≠ N zum Ausdruck gebracht, dass M und N nicht ausschließlich gleiche Elemente enthalten.

4 Man beachte, dass das Gleichheitszeichen für beliebige gleiche „Dinge“, nicht nur numerische Werte, genutzt werden kann.

16 | 2 Einführung

A A

B

A

B

B B

Der graue Bereich entspricht S=A∩B

Der graue Bereich entspricht V =A∪B

Komplement B der Menge B im Universum A

Abb. 2.3: Venn-Diagramme grundlegender Mengenoperationen (vgl. Band 1, Kap. I.3.1)

2.3.1 Operationen auf Mengen Ein wichtiges Konzept ist das der sogenannten Mächtigkeit einer Menge. Im einfachsten Fall einer Menge mit nur endlich vielen Elementen, wird damit die Anzahl der Elemente einer Menge bezeichnet. Notiert wird die Mächtigkeit einer Menge M als ⋃︀M⋃︀. Für die in (2.3) definierte Menge gilt mithin ⋃︀M⋃︀ = 5. Auf Mengen kann man nun eine Reihe einfacher Operationen wie Schnitt, Vereinigung und andere anwenden. Der sogenannte Schnitt zweier Mengen A und B liefert als Resultat eine dritte Menge, hier mit S bezeichnet und geschrieben als S = A ∩ B, die nur diejenigen Elemente enthält, die sowohl in A als auch in B enthalten sind. Grafisch dargestellt ist dies in Abb. 2.3 links. Die Vereinigung V =A∪B zweier Mengen A und B liefert entsprechend eine neue Menge S, die alle Elemente der ursprünglichen Mengen A und B, jedoch ohne Doubletten enthält (Abb. 2.3 Mitte). Diese Einschränkung ist essenziell, da es eine grundlegende Eigenschaft von Mengen ist, dass diese nur unterscheidbare Elemente, d. h. insbesondere keine Doubletten enthalten kann. Etwas komplexer ist das relative Komplement einer Menge, das rechts in Abb. 2.3 grafisch dargestellt ist. Zentrales Element ist hierbei eine Menge B, die vollständig in einer „umgebenden“ Menge A enthalten ist.⁵ Entsprechend wird B als (echte) Teilmenge von A bezeichnet, was als B ⊂ A notiert wird. Allgemein ist also eine Menge B eine Teilmenge einer Menge A, wenn jedes Element von B auch Element von A ist. A wird hierbei als das Universum bezeichnet, in dem die Menge B liegt. Das relative Komplement von B, geschrieben B oder B C , ist nun die Menge aller Elemente aus

5 Das heißt, für den Schnitt gilt hier B ∩ A = B.

2.3 Mengen

| 17

dem Universum A, die nicht in B liegen, was auch als mengentheoretische Differenz, gelesen „A ohne B“, bezeichnet wird: B = B C = B/A = {x ∈ A ⋂︀ x ∉ B}

2.3.2 Einige besondere Mengen Neben der eben erwähnten leeren Menge, die durch ein eigenes Symbol repräsentiert wird, gibt es eine Vielzahl weiterer besonderer Mengen, von denen die für das Folgende wichtigsten kurz vorgestellt werden sollen. 2.3.2.1 Natürliche Zahlen Die Menge der natürlichen Zahlen enthält alle positiven ganzen Zahlen, üblicherweise beginnend mit der 1, und wird als N notiert. Soll auch die Null Bestandteil dieser Menge sein, wird sie N0 geschrieben und „n Null“ gesprochen. Intuitiv kann man auch N = {1, 2, 3, 4, 5, . . . } schreiben. Eine besondere Teilmenge von N ist die durch P bezeichnete Menge der Primzahlen. Hierbei handelt es sich um Zahlen, die nur durch 1 und sich selbst ohne Rest teilbar sind. Während Fragen rund um Zahlen dieser Menge früher von rein akademischem Interesse waren, besitzen sie heute als einer der Grundbausteine einer Vielzahl moderner Verschlüsselungsverfahren eine große kommerzielle Bedeutung. 2.3.2.2 Ganze Zahlen Die Menge der ganzen Zahlen enthält zusätzlich zu den natürlichen Zahlen auch negative ganze Zahlen sowie die Null und wird mit Z bezeichnet – intuitiv ist damit Z = {. . . , −3, −2, −1, 0, 1, 2, 3, . . . } . Die uns heute völlig selbstverständlichen negativen Zahlen wurden zum Zeitpunkt ihrer Einführung durch Michael Stifel als numeri absurdi, d. h. „absurde Zahlen“ abgetan, da man noch keinen wirklich abstrakten Zahlbegriff besaß und negative Werte keinem Element der Erlebniswelt zugeordnet werden konnten.⁶ 2.3.2.3 Rationale Zahlen Als rationale Zahlen werden Brüche bezeichnet, d. h. Werte der Form p , q 6 Zwar gab es natürlich schon damals Schulden, die aber letztlich in einer Form notiert wurden, die bis heute in Gestalt von Soll und Haben weiter existiert.

18 | 2 Einführung wobei es sich bei p und q jeweils um ganze Zahlen handelt, und q selbstverständlich nicht gleich Null sein darf. Definiert ist die Menge der rationalen Zahlen entsprechend wie folgt: p Q = { ⋁︀p, q ∈ N ∧ q ≠ 0(︀ q 2.3.2.4 Relle Zahlen Auf den ersten Blick könnte man meinen, dass die rationalen Zahlen, d. h. die Brüche, quasi „ausreichend“ sein könnten, um alle in der Praxis benötigten Werte darzustellen. Interessanterweise ist dies jedoch nicht der Fall, da es Zahlen gibt, die sich nicht als Bruch darstellen lassen und entsprechend als irrationale Zahlen bezeichnet werden. Bereits im ausgehenden sechsten oder auch frühen fünften Jahrhundert u. Z. war Hippasos von Metapont⁷ bekannt, dass es derartige Zahlen geben müsse. In Euklids bahnbrechendem Werk Die Elemente findet sich ein Beweis für die Irrationalität des ⌋︂ Wertes von 2, der allerdings auf einen früheren Beweis zurückzugehen scheint. ⌋︂ Ein Wert wie 2 tritt beispielsweise als Länge der Diagonalen in einem Quadrat mit der Seitenlänge 1 auf, d. h. sozusagen in einem Allerweltsobjekt. Um zu beweisen, dass dieser Wert nicht als Bruch dargestellt werden kann, wird in der Regel ein ⌋︂ Widerspruchsbeweis genutzt, indem zunächst behauptet wird, dass 2 als Bruch darstellbar sei, also ⌋︂ p 2= (2.4) q mit p, q ∈ N und q ≠ 0 gelte. Weiterhin kann vorausgesetzt werden, dass dieser Bruch gekürzt ist, dass also p und q keine gemeinsamen Teiler besitzen, was als teilerfremd bezeichnet wird. Aus (2.4) folgt direkt p 2 p2 2=( ) = 2, q q woraus sich durch Multiplikation mit q2 auf beiden Seiten p2 = 2q2

(2.5)

ergibt. Wenn nun aber das Quadrat von p gleich dem Zweifachen irgendeines anderen Wertes ist, muss p2 eine gerade Zahl sein. Damit muss allerdings auch p eine gerade Zahl sein (das Quadrat einer ungeraden Zahl kann niemals gerade sein). Wenn nun p eine gerade Zahl ist, so lässt sich dieser Wert als das Doppelte irgendeiner anderen natürlichen Zahl schreiben, d. h. es ist p = 2r

7 Spätes 6. bis frühes 5. Jahrhundert vor u. Z.

2.3 Mengen

| 19

für irgendein r ∈ N. Daraus und mit (2.5) folgt nun direkt 2q2 = (2r)2 = 4r2 . Werden beide Seiten dieser Gleichung durch 2 dividiert, folgt q2 = 2r2 , so dass sowohl q2 als auch q jeweils gerade Zahlen sein müssen. Dies steht jedoch im Widerspruch zur ursprünglichen Voraussetzung, dass der Bruch pq gekürzt sein soll. ⌋︂ Hieraus folgt direkt die Verneinung der Annahme, womit bewiesen ist, dass 2 keine rationale Zahl ist.⁸ Wie sich zeigt, sind solche irrationalen Zahlen nicht die Ausnahme, sondern vielmehr die Regel und „überwiegen“ die Menge der rationalen Zahlen sozusagen „bei Weitem“. Die Menge der reellen Zahlen besteht nun aus allen Elementen aus Q sowie der ⌋︂ Menge aller irrationalen Zahlen wie 2 und wird mit R bezeichnet. Während man die Elemente der natürlichen, der ganzen und sogar der rationalen Zahlen abzählen kann, wie später gezeigt werden wird – d. h. man kann die Elemente dieser Mengen irgendwie in eine mehr oder weniger naheliegende Reihenfolge bringen und sie dann der Reihe nach durchnummerieren, geht dies mit der Menge R nicht mehr. Die Elemente dieser Menge liegen so „eng“ gepackt in der Menge, dass zwischen zwei beliebig nahe beieinander liegenden reellen Zahlen immer wieder beliebig viele andere reelle Zahlen liegen. Entsprechend spricht man davon, dass diese Menge dicht ist, d. h., etwas hemdsärmelig ausgedrückt davon, dass die Elemente dieser Menge so dicht beieinander liegen, dass man niemals eine wie auch immer geartete „Lücke“ finden kann, die für ein Abzählverfahren benötigt würde.⁹ 2.3.2.5 Komplexe Zahlen Wenn nun R dicht ist, stellt sich die Frage, ob es noch andere, sozusagen „umfassendere“ Zahlmengen gibt – eine Frage, auf welche die Antwort „ja“ ist. Eine solche, und

8 Auf Grundlage dieser Beweisidee lässt sich analog auch zeigen, dass die Quadratwurzel einer Primzahl stets eine irrationale Zahl ist. Im Prinzip genügt schon (2.5) alleine für einen Widerspruch, da jede natürliche Zahl eindeutig als Produkt von Primfaktoren dargestellt werden kann. Das heißt aber, dass eine Quadratzahl niemals das doppelte einer anderen Quadratzahl sein kann, da Werte der Form p2 und q2 stets eine gerade Anzahl von Primfaktoren besitzen (sie sind ja Produkte der Form p ⋅ p bzw. q ⋅ q), während 2q2 einen Primfaktor, die 2, mehr besitzt, so dass links in Gleichung (2.5) ein Ausdruck mit einer geraden Anzahl von Primfaktoren steht, während der Term rechts eine ungerade Anzahl besitzt. 9 Eigentlich in den Bereich der Philosophie gehört die Frage, ob es sich bei reellen Zahlen um „reale“ Objekte handelt, d. h. ob in der Natur, im Universum wirklich reelle Zahlen als solche auftreten können, oder ob es sich vielmehr um eine ideale mathematische Idee handelt.

20 | 2 Einführung die vermutlich wichtigste derartige Menge, ist die der komplexen Zahlen, geschrieben C. Diese erweitern die reellen Zahlen um eine weitere Komponente, sogenannte imaginäre Zahlen. Geschichtlicher Hintergrund für die Entdeckung der komplexen Zahlen waren Fragestellungen wie die nach der Lösung einfacher Gleichungen wie zum Beispiel x2 + 1 = 0. Diese Gleichung hat keine Lösung in den reellen Zahlen, da das Quadrat einer reellen Zahl nicht gleich −1 sein kann. Um diese Schwierigkeit zu umgehen, wurde die imaginäre Einheit ⌋︂ i ∶= −1 eingeführt.¹⁰ Eine komplexe Zahl z ∈ C ist nun ein Paar, ein sogenanntes Tupel, bestehend aus einem Real- und einem Imaginärteil der Form z = (x + yi). Während natürliche, ganze, rationale oder reelle Zahlen als Punkte auf einem (eindimensionalen) Zahlenstrahl interpretiert werden können, gilt dies für komplexe Zahlen nicht. Diese werden auf einer Zahlenebene, der komplexen Zahlenebene, dargestellt, wobei die horizontale und vertikale Achse als reale beziehungsweise imaginäre Achse eines Koordinatensystems aufgefasst werden, eine komplexe Zahl z = (x + yi) beschreibt also eindeutig einen Punkt in dieser Ebene an der horizontalen Position x und der vertikalen Position y. Komplexe Zahlen können addiert, subtrahiert, multipliziert und dividiert werden, wobei stets zu beachten ist, dass i2 = −1 gilt, es ist also zunächst (x1 + y1 i) + (x2 + y2 i) = (x1 + x2 ) + (y1 + y2 )i und (x1 + y1 i) − (x2 + y2 i) = (x1 − x2 ) + (y1 − y2 )i. Multiplikation und Division sind ein wenig komplexer: (x1 + y1 i)(x2 + y2 i) = (x1 x2 + y1 y2 i2 ) + (x1 y2 + x2 y1 )i = (x1 x2 − y1 y2 ) + (x1 y2 + y1 x2 )i und (x1 + y1 i) (x1 + x2 i)(x2 − y2 i) = (x2 + y2 i) (x2 + y2 i)(x2 − y2 i) x1 x2 + y1 y2 y1 x1 − x1 y2 == + i. x22 + y22 x22 + y22 Einer komplexen Zahl kann ein Betrag der Form ⌈︂ ⋃︀x + yi⋃︀ = x2 + y2 zugeordnet werden, was in Kapitel 4.1 in Form sogenannter Normen allgemein auf Vektoren angewandt wird. Interessant ist, dass komplexe Zahlen nicht einfach wie natürliche, ganze, rationale oder reelle Zahlen angeordnet werden können. Während es bei 10 Die Verwendung von „∶=“ anstelle eines einfachen Gleichheitszeichens bedeutet, dass hier etwas definiert wird.

2.3 Mengen

| 21

zwei Punkten auf einem Zahlenstrahl einfach ist zu sagen, einer dieser Punkte sei größer, kleiner oder gleich dem anderen, kann bei Punkten in einer Ebene ohne Weiteres nur zwischen Gleichheit und Ungleichheit unterschieden werden. Ein „Größer“ oder „Kleiner“ gibt es nicht mehr. Eine wesentliche Eigenschaft, für die jedoch an dieser Stelle auf Werke wie (Jänich 2008) und (Remmert et al. 2002) verwiesen sei, ist, dass zwischen komplexen Zahlen, der Euler’schen Zahl sowie den trigonometrischen Funktionen, die in Kapitel 3.3.6 dargestellt werden, folgender faszinierender Zusammenhang besteht: Es gilt allgemein eiφ = cos(φ) + i sin(φ). Diese Identität hat weitreichende Bedeutung in allen Bereichen, in denen, wie in der Elektrotechnik, der Elektronik und Nachrichtentechnik etc. mit Schwingungen gearbeitet wird.

2.3.3 Kommutativität, Assoziativität und Distributivität Von zentraler Bedeutung in allen Bereichen der Mathematik sind die Begriffe Kommutativität, Assoziativität, und Distributivität, die beschreiben, wie sich zweistellige Operationen beziehungsweise allgemeiner beliebige zweistellige Verknüpfungen ○ (im einfachsten Falle beispielsweise Addition, Subtraktion etc.) verhalten, wenn ihre Operanden vertauscht, Klammern umgesetzt oder Ausdrücke ausgeklammert werden. Zweistellig wird eine solche Verknüpfung genannt, wenn sie auf genau zwei Operanden angewandt wird, wie es beispielsweise bei x + y der Fall ist. Eine Verknüpfung ○ heißt kommutativ, wenn x○y=y○x gilt, wie es beispielsweise bei der Addition ganzer Zahlen der Fall ist, d. h. die Reihenfolge der Operanden keinen Einfluss auf das Resultat der Ausführung der Operation hat. Assoziativ wird ○ genannt, wenn x ○ (y ○ z) = (x ○ y) ○ z gilt, was zum Beispiel ebenfalls von der Addition ganzer Zahlen erfüllt wird – es ist beispielsweise gleichgültig, in welcher Reihenfolge drei Zahlen addiert werden. Das Distributivgesetz bezieht sich auf zwei verschiedene Verknüpfungen, beispielsweise Addition und Multiplikation, und beschreibt, wie sich diese verhalten, wenn Klammern aufgelöst werden. In diesem Fall gilt bekanntermaßen x(y + z) = xy + xz,

22 | 2 Einführung das als Ausklammern bekannte Vorgehen. Konkret wird die obige Regel als linksdistributiv bezeichnet, um sie von der Rechtsdistributivität (x + y)z = xz + yz zu unterscheiden. (Vgl. Band 1, Kap. I.2.1.4)

2.3.4 Abbildungen Unter einer Abbildung wird eine Vorschrift verstanden, mit deren Hilfe Elemente einer Art „Ausgangsmenge“, der sogenannten Definitionsmenge eindeutig auf Elemente einer Zielmenge abgebildet werden. Meist ist es wünschenswert, dass eine solche Abbildung Elemente ohne „Mehrdeutigkeiten“ von der Definitions- in die Zielmenge abbildet, d. h. ein Element der Zielmenge kann höchstens das Ergebnis der Anwendung dieser Abbildung auf ein bestimmtes Element der Definitionsmenge sein. Eine solche Abbildung wird injektiv genannt. Abbildungen müssen allerdings nicht alle Elemente der Zielmenge erreichen, d. h. es kann durchaus sein, dass nur einige wenige Elemente der Zielmenge das Ergebnis der Anwendung der Abbildung auf ihre Definitionsmenge sind. Eine solche Abbildung ist nicht surjektiv. Ein einfaches Beispiel mag dies verdeutlichen: Die Abbildung, die alle reellen Zahlen auf ihr jeweiliges Quadrat abbildet, geschrieben f (x) = x2 , hat als Definitions- und Zielmenge z. B. die gesamten reellen Zahlen R. In der Zielmenge werden jedoch die negativen reellen Zahlen ausgespart, da diese nie das Resultat eines Quadrates einer reellen Zahl sein können. Diese Funktion ist also nicht surjektiv. Wie steht es um die Injektivität? Offenbar ist das Quadrat einer positiven reellen Zahl gleich dem Quadrat der gleichen Zahl, jedoch mit negativem Vorzeichen, d. h. es ist x2 = (−x)2 , so dass beispielsweise die Werte 2 und −2 der Definitionsmenge beide auf das gleiche Element der Zielmenge, 4, abgebildet werden. Diese Abbildung ist also auch nicht injektiv. Abb. 2.4 zeigt eine grafische Darstellung der Eigenschaften injektiv und surjektiv. Ist eine Abbildung sowohl injektiv als auch surjektiv, so wird sie bijektiv genannt. Solche Abbildungen sind in der Regel sehr wünschenswert, da man zu ihnen eine sogenannte Umkehrabbildung finden kann, mit deren Hilfe Werte der Zielmenge entsprechend Elementen der Definitionsmenge zugeordnet werden können. Die Elemente, die eine Abbildung, angewandt auf ihre Definitionsmenge, liefert, bilden die sogenannte Bildmenge dieser Abbildung. Entsprechend wird die Bildmenge der Umkehrabbildung auch als Urbild bezeichnet. Abbildungen werden häufig, so auch im Folgenden, als Funktionen bezeichnet, was auch durch Schreibweisen wie f (x) angedeutet wird. Um zu zeigen, von welcher

2.3 Mengen

W D

W D D

f ∶ D Ð→ W ist weder injektiv noch surjektiv

| 23

f ∶ D Ð→ W ist injektiv aber nicht surjektiv

W

f ∶ D Ð→ W ist bijektiv

Abb. 2.4: Injektivität, Surjektivität und Bijektivität

Menge eine Funktion in welche andere Menge abbildet, wird f ∶ X Ð→ Y geschrieben, wohingegen die Schreibweise f (x) = . . . die Funktionsdefinition repräsentiert. Allgemein wird die Umkehrfunktion einer Funktion f mit f −1 bezeichnet. Sind zwei Funktionen f und g gegeben, die in gewisser Art „zueinander passen“, d. h. die Bildmenge von f muss zumindest eine Teilmenge der Definitionsmenge von g sein, so kann g auf das Resultat von f angewandt werden. Dies wird als die Verkettung oder Hintereinanderausführung zweier Funktionen bezeichnet und meist als g (f (x)) oder auch g ○ f geschrieben. Gelesen wird eine solche Verkettung als „g nach f “. Ein Beispiel mag dies verdeutlichen: Es seien zwei Funktionen gegeben: f (x) = x − 1 und g(x) = x2 , wobei als Definitions- und Wertemenge jeweils R gelte. Hiermit sind die beiden Verkettungen (f ○ g) (x) = f (g(x)) = x2 − 1 und (g ○ f ) (x) = g(f (x)) = (x − 1)2 möglich, die Verkettungsoperation ist also nicht kommutativ, d. h. in der Regel ist f ○ g ≠ g ○ f.

2.3.5 Mächtigkeit Mit Hilfe von Abbildungen können nun Betrachtungen bezüglich der Vergleichbarkeit von Mengen angestellt werden. Unter der Mächtigkeit einer endlichen Menge M, ge-

24 | 2 Einführung schrieben ⋃︀M⋃︀, wird, wie bereits erwähnt, die Anzahl der Elemente in dieser Menge verstanden. Beispielsweise ist also ⋂︀ {1, 2, 3, 4, 5} ⋂︀ = 5. Im Falle unendlich großer Mengen, wie beispielsweise N ist eine solche Herangehensweise natürlich nicht möglich. Vielmehr kann man versuchen, eine vergleichende Aussage über die Mächtigkeit zweier unendlich großer Mengen zu machen, indem eine bijektive Abbildung von der einen Menge in die andere konstruiert wird. Existiert eine solche Abbildung, so heißen die beiden Mengen, zwischen denen jene vermittelt, gleichmächtig.

2.3.6 N, Z, Q, R, C Mit dieser Idee kann nun verglichen werden, wie es um die Mächtigkeiten der bereits zuvor beschriebenen grundlegenden Zahlmengen bestellt ist. Wird zum Beispiel die Menge der geraden Zahlen als Teilmenge der natürlichen Zahlen gebildet, könnte sich der Eindruck aufdrängen, diese sei nur „halb so groß“ wie die Menge der natürlichen Zahlen selbst. Eine solche Vermutung geht jedoch in die Irre, da Ideen wie „halb so groß“ im Zusammenhang mit unendlichen Mengen ins Leere führen. Man kann nämlich eine Abbildung f ∶ N Ð→ N durch f (n) = 2n mit n ∈ N definieren, die von den natürlichen Zahlen in die Menge der geraden Zahlen abbildet. Diese Abbildung ist offensichtlich bijektiv, d. h. jedem Element aus N ist genau ein Element aus der Menge der geraden Zahlen zugeordnet. Entsprechend sind beide Mengen gleichmächtig! In Fällen, in denen eine solche bijektive Abbildung zwischen einer Menge und der Menge der natürlichen Zahlen definiert werden kann, spricht man von abzählbarer Unendlichkeit, da die beteiligten Mengen zwar jede für sich unendlich viele Elemente enthalten, diese aber vermittels dieser Abbildung auf die natürlichen Zahlen in einfacher Weise „abgezählt“ werden können. Dies ist sozusagen die „kleinste“ Form der Unendlichkeit, auch, wenn Begriffe wie „klein“ in diesem Zusammenhang eigentlich sinnlos sind. Dieses auf den ersten Blick der Intuition widersprechende Ergebnis ist typisch für den Umgang mit unendlichen Mengen, wie auch das berühmte Beispiel von Hilberts Hotel, benannt nach dem Mathematiker David Hilbert, zeigt: Man versetze sich in die Rolle des Portiers in Hilberts Hotel, das dadurch gekennzeichnet ist, dass es abzählbar unendlich viele Zimmer besitzt. Diese Zimmer sind alle besetzt, als plötzlich ein neuer Gast auftaucht. Als guter Portier steht es natürlich außer Frage, ihn wieder wegzuschicken, d. h. es ist eine Idee gefragt, mit deren Hilfe dieser zusätzliche Gast untergebracht werden kann. Diese Idee ist verblüffend einfach: Der Portier bittet jeden bereits im Hotel residierenden Gast, sein Zimmer zu verlassen und in das Zimmer umzuziehen, dessen Nummer der vorigen Zimmernummer plus eins entspricht. Hierdurch wird in einem einzigen Schritt, da alle Gäste gleichzeitig umziehen, das Zimmer mit der Nummer 1 für den Neuankömmling frei.

2.3 Mengen

| 25

Welche Möglichkeit hat der Portier bei voll besetzem Hotel, wenn anstelle eines einsamen Gastes ein vollbesetzter Hilbert-Bus ankommt, der, man ahnt es bereits, seinerseits abzählbar unendlich viele Plätze aufweist? Er kann nicht unendlich oft das eben beschriebene Verfahren anwenden, weil das niemals zu einem Abschluss käme, es ist also eine andere Vorgehensweise notwendig, die aber ebenso einfach und wirkungsvoll ist: Er bittet alle bereits im Hotel wohnenden Gäste, ihre Zimmer zu verlassen und in die Zimmer umzuziehen, deren Zimmernummer dem Doppelten ihrer bisherigen Zimmernummer entspricht. Hierdurch werden auf einen Schlag alle Zimmer mit ungerader Zimmernummer frei, was, wie oben gezeigt wurde, wieder abzählbar unendlich viele Zimmer sind, in welche die Passagiere des Hilbert-Bus’ einziehen können. Hieraus ergibt sich also, dass nicht nur N und N0 , gleichmächtig sind, sondern auch, dass N auch gleichmächtig zur Menge aller geraden und damit auch zur Menge aller ungeraden Zahlen ist. Lassen sich diese Überlegungen auf N und Z erweitern? Auf den ersten Blick scheint Z mächtiger als N zu sein, da letzteres bei 1 quasi einen „Anfang“ hat, während Z sowohl im Positiven als auch im Negativen ins Unendliche geht. Dennoch lässt sich eine bijektive Abbildung f ∶ N0 Ð→ Z finden: n )︀ ⌉︀ ⌉︀ ⌉︀ 2 f (n) = ⌋︀ n − 1 ⌉︀ ⌉︀ − ⌉︀ ]︀ 2

falls n gerade falls n ungerade

Diese Funktion bildet nun beispielsweise die 1 auf die 0, die 2 auf die 1, die 3 auf die −1, die 4 auf die 2, die 5 auf die −2 usf. ab, d. h. alle Elemente von N werden eindeutig und sozusagen „lückenlos“ auf die Elemente von Z abgebildet, was aber bedeutet, dass diese beiden Mengen ebenfalls gleichmächtig sind, ein auf den ersten Blick vielleicht überraschendes Ergebnis. Verblüffenderweise kann man auch eine bijektive Abbildung zwischen N und Q konstruieren, woraus sich ergibt, dass selbst die auf den nicht nur ersten, sondern sicherlich auch zweiten Blick irgendwie „mächtiger wirkenden“ rationalen Zahlen die gleiche Mächtigkeit wie N besitzen, also abzählbar unendlich sind. Der zentrale Trick hierbei ist eine geschickte Anordnung der rationalen Zahlen, wie in Abb. 2.5 dargestellt. Diese auf Georg Ferdinand Ludwig Philipp Cantor zurückgehende Grundidee ist, die Menge der rationalen Zahlen sozusagen diagonal zu durchlaufen und ihre Elemente hierbei eindeutig und wieder lückenlos Elementen aus N zuzuordnen. Die Tatsache, dass in der Abb. nur positive Brüche dargestellt sind, tut dem Argument keinen Abbruch, da man auch, wenn alle Vorzeichenkombinationen berücksichtigt werden, die rationalen Zahlen quasi in Rhombusform durchlaufen kann. Dies bedeutet also, dass alle folgenden Mengen gleichmächtig sind: N, N0 , Z und Q. Was aber ist mit R und C? Es lässt sich zeigen, dass zwischen keiner der oben genannten Mengen und R bzw. C eine bijektive Abbildung konstruiert werden kann. Diese sind also mächtiger als N, was auch in der Überlegung zur Dichte von R zuvor

26 | 2 Einführung 1 7



2 6

2 7

...

3 5

3 6

3 7

...

4 4

4 5

4 6

4 7

...

5 3

5 4

5 5

5 6

5 7

...

6 2

6 3

6 4

6 5

6 6

6 7

...

7 1

7 2

7 3

7 4

7 5

7 6

7 7















... ⋱

1 1

→ ↙

1 2

1 3

↗ 2 2

2 1

↓ ↗ 3 1

2 3

↙ 3 2



5 1

↙ 6 1

→ ↙

2 5

↙ 3 4

4 3

5 2







1 5

2 4

3 3

4 2

4 1

1 4





↓ ↗

→ ↙

1 6











↓ ↗

Abb. 2.5: Cantors erstes Diagonalargument – ungekürzte Brüche sind hellgrau dargestellt und werden übersprungen

implizit zum Ausdruck gelangt. R und auch C werden entsprechend als überabzählbar bezeichnet, was eine ganz andere Form der Unendlichkeit als die abzählbare darstellt.

2.3.7 Zahlenrepräsentation Nach diesen grundlegenden Betrachtungen über Zahlenmengen stellt sich die Frage, wie numerische Werte eigentlich in Computern¹¹ repräsentiert werden. Zunächst einmal handelt es sich bei jedem Computer um eine in jeder Hinsicht endliche Maschine, d. h. vor allem, dass selbstverständlich nur eine endliche Menge an Speicherplatz zur Verfügung steht, wodurch bereits klar wird, dass kein Computer auch nur mit N, ganz abgesehen von R zu arbeiten imstande ist. Hieraus ergeben sich eine Reihe von Problemen, derer man sich stets bewusst sein muss, wenn Rechnungen mit Hilfe eines Digitalrechners ausgeführt werden sollen. Grundlage nahezu einer jeden Zahlendarstellung in einem Computer ist ein sogenanntes Stellenwertsystem, das dadurch gekennzeichnet ist, dass die Wertigkeit einer Ziffer durch ihre Position innerhalb einer Zahl festgelegt ist. Das gebräuchliche Dezimalsystem ist ein typischer Vertreter eines solchen Stellenwertsystems. Beispielsweise ist der Wert der Ziffernfolge 1, 2, 3 im Dezimalsystem gleich einhundertunddreiundzwanzig, was sich wie folgt ergibt:

11 Unter einem Computer soll im Folgenden stets ein sogenannte speicherprogrammierter Digitalrechner, d. h. eine algorithmisch gesteuerte Maschine mit digitaler, d. h. ziffernweiser Zahlenrepräsentation, verstanden werden.

2.3 Mengen

| 27

1 ⋅ 102 + 2 ⋅ 101 + 3 ⋅ 100 = 123. Der Wert 10 hier ist die sogenannte Basis dieses speziellen Stellenwertsystems, d. h. das System verfügt über zehn verschiedene Ziffern, in diesem Falle also 0 bis 9. Die rechte Ziffer einer Zahl ist die Einerstelle, wobei die Wertigkeit einer Stelle jeweils um den Faktor der Basis stellenweise von rechts nach links vorgehend, steigt. Solche Stellenwertsysteme lassen sich selbstverständlich auch mit anderen Basen konstruieren, wobei der Basis 2 hierbei besondere Bedeutung zukommt, da es technisch wesentlich einfacher ist, Schaltelemente zu bauen, die zwischen zwei anstatt zehn Zuständen unterscheiden können. Entsprechend bilden Zahlen zur Basis 2 die Grundlage nahezu aller modernen Computer. In dieser Basis notierte Zahlen werden als Binärzahlen, Dualzahlen oder (selten) auch als dyadische Darstellung bezeichnet. Anstelle des Begriffes Ziffer, wie er im Dezimalen und in anderen Zahlensystemen üblich ist, wird eine einzelne Stelle solcher Binärzahlen als Bit bezeichnet. Geht aus dem jeweiligen Zusammenhang nicht hervor, in welcher Basis Zahlen notiert sind, so wird diese in der Regel in Form eines Subskriptes angegeben, so entspricht beispielsweise die Dezimalzahl 510 der Binärzahl 1012 . 2.3.7.1 Integerwerte Das Computeräquivalent zu den ganzen Zahlen sind die sogenannten Integers, die sich von Z dadurch unterscheiden, dass ein Computer als endliche Maschine verständlicherweise nur endlich viele dieser Werte unterscheiden kann. Im Unterschied zum Rechnen mit ganzen Zahlen können beim Rechnen mit Integers Überläufe, auch als Overflows bezeichnet, auftreten! In der Informatik wird zwischen Integers mit und ohne Vorzeichen, sogenannten (un)signed Integers unterschieden. Im Folgenden werden zunächst vorzeichenlose Integerwerte betrachtet. Sie können direkt in Dezimalzahlen umgewandelt werden (vgl. Band 1, Kap. I.5.4), wie dieses Beispiel zeigt: 101011012 = 1 ⋅ 27 + 0 ⋅ 26 + 1 ⋅ 25 + 0 ⋅ 24 + 1 ⋅ 23 + 1 ⋅ 22 + 0 ⋅ 21 + 1 ⋅ 20 = 128 + 32 + 8 + 4 + 1 = 173 In der Praxis haben sich heutzutage sogenannte Wortlängen durchgesetzt, die Zweierpotenzen entsprechen. Typische Längen für derartige Binärzahlen sind 8, 16, 32 und 64 Bit. Acht Bit lange Werte werden als Byte bezeichnet.¹²

12 In der Frühzeit der Informatik waren Wortlängen, die ganzzahlige Vielfache von 3 waren, weit verbreitet. 12-, 18-, 24-, 36- und 60-Bit-Maschinen waren keine Seltenheit.

28 | 2 Einführung Wie man anhand des obigen Beispiels leicht sieht, entscheidet das rechte Bit einer Binärzahl, das sogenannte Least Significant Bit, kurz LSB, darüber, ob es sich bei dem jeweiligen Wert um eine gerade oder ungerade Zahl handelt. In diesen Fällen ist das LSB 0 beziehungsweise gleich 1. Diese Beobachtung kann nun als Ausgangspunkt zur Beantwortung der Frage dienen, wie eine Dezimalzahl in die ihr entsprechende Binärzahl umgewandelt werden kann. Betrachtet man den Rest, den die zu konvertierende Dezimalzahl bei Division durch 2 lässt, so stellt dieser gerade das LSB dar. Verfährt man mit dem Divisionsergebnis analog hierzu weiter, ergeben sich die weiteren Bits der Reihe nach, wie folgendes Beispiel anhand der Umwandlung der Dezimalzahl 123 zeigt, wobei MSB das Most Significant Bit bezeichnet: 123 ÷ 2 = 61 Rest 1 (LSB) 61 ÷ 2 = 30 Rest 1 30 ÷ 2 = 15 Rest 0 15 ÷ 2 = 7 Rest 1 7 ÷ 2 = 3 Rest 1 3 ÷ 2 = 1 Rest 1 1 ÷ 2 = 0 Rest 1 (MSB)

D. h. 12310 = 11110112 . Die wiederholte Division durch 2 liefert also die Bits der Binärdarstellung, beginnend mit dem LSB und endend mit dem MSB. Analog kann durch entsprechende Divisionen auch in andere Zahlensysteme konvertiert werden. (Vgl. Band 2, Kap. II.2.2.4) Tab. 2.1: Darstellung von Vierbitgruppen durch jeweils eine hexadezimale Ziffer Binär Hexadezimal

Binär Hexadezimal

0000 0001 0010 0011 0100 0101 0110 0111

1000 1001 1010 1011 1100 1101 1110 1111

0 1 2 3 4 5 6 7

8 9 A B C D E F

Da Binärzahlen für ihre Darstellung mehr Ziffern als zu ihnen äquivalente Dezimalzahlen benötigen, liegt es nahe, in der Praxis an ihrer Stelle mit sogenannten Hexadezimalzahlen, d. h. Zahlen zur Basis 16, zu arbeiten. Hierbei entspricht eine hexa-

2.3 Mengen

| 29

dezimale Ziffer, die Werte von 0 bis 9 und A bis F annehmen kann, jeweils vier aufeinander folgenden Bits der korrespondierenden Binärzahl, wie Tabelle 2.1 zeigt.¹³ Eine solche 4-Bit-Gruppe wird meist als Nibble bezeichnet.¹⁴ Die obige Bitfolge 1111011 wird nun links durch Anhängen einer 0 auf 8 Bit erweitert, deren hexadezimale Darstellung gleich 7B lautet. Allgemein lassen sich die Grundrechenarten direkt auf Zahlen, die in Form eines Stellenwertsystems dargestellt werden, anwenden (vgl. Band 1, Kap. I.5.3). Es muss lediglich berücksichtigt werden, dass für die einzelnen Stellen mitunter nicht zehn, sondern nur 2 oder auch 16 unterschiedliche Ziffern zur Verfügung stehen, wie das folgende Beispiel zeigt: 0 1 1 0 1 0 1 1 + 01 01 11 11 1 01 01 1 1 0 1 0 0 1 0 0 Nun ließe sich problemlos ein Computer konstruieren, der sowohl zu addieren als auch zu subtrahieren in der Lage wäre. Aus kommerzieller Sicht wäre eine solche Maschine jedoch unvernünftig, da zu keinem Zeitpunkt gleichzeit addiert und subtrahiert würde, so dass im besten Falle lediglich 50% der Hardware genutzt werden würden. Einen Ausweg aus diesem Dilemma bieten vorzeichenbehaftete Integers, mit deren Hilfe die Subtraktion a − b auf die Addition a + (−b) zurück geführt werden kann, wobei (−b) das sogenannte Komplement, genauer das Zweierkomplement¹⁵ von b darstellt. Am einfachsten lässt sich die Idee des Zweierkomplementes anhand einer hypothetischen „Uhr“ mit beispielsweise 16 auf einem Ziffernblatt angeordneten Stunden und lediglich einem Stundenzeiger veranschaulichen: Angenommen, der Stundenzeiger stehe auf der Ziffer 7, und es soll hiervon der Wert 4 subtrahiert werden. Anstatt nun den Zeiger um 4 Positionen entgegen dem Uhrzeigersinn (Subtraktion) zu verdrehen, könnte er auch um 12 Positionen im Uhrzeigersinn (Addition) verstellt werden, um auf das korrekte Ergebnis 3 zu kommen. Dies hat seine Ursache offenbar darin, dass das Zifferblatt nur eine endliche Anzahl von Werten, in diesem Fall 16, umfasst, so dass eine vollständige Umrundung des Ziffernblattes stets wieder auf den ursprünglichen Startwert führt.

13 Vor etwa den 1980er Jahren nutze man in der praktischen Informatik häufig auch sogenannte Oktalzahlen anstelle der heute gebräuchlichen Hexadezimalnotation. Von dieser unterscheiden sich jene dadurch, dass jeweils einer Dreibitgruppe eine Ziffer von 0 bis 7 zugeordnet wird, was vor allem dann von Vorteil ist, wenn ein Computer eine Wortlänge besitzt, die ein ganzzahliges Vielfaches von 3 ist. Heute ist die Oktalnotation jedoch nahezu ausgestorben. 14 Das ist ein Wortspiel – ein „Byte“ klingt im Englischen wie ein „Bissen“, während „to nibble“ die Bedeutung „knabbern“ oder „annagen“ hat – sozusagen ein „kleiner Bissen“. 15 Neben diesem heute gebräuchlichen Zweierkomplement wurde historisch auch das Einerkomplement eingesetzt, auf das im Folgenden allerdings nicht weiter eingegangen wird. (vgl. Band 1, Kap. I.5.4)

30 | 2 Einführung Anstatt in diesem Beispiel also 4 zu subtrahieren, kann auch 12 addiert werden, was in diesem Fall das 2er-Komplement zu 4 darstellt. Wie jedoch wird das Komplement einer gegebenen Zahl a allgemein bestimmt? Dies hängt von der Anzahl der Ziffern der Uhr ab, die, wenn man es binär betrachtet, von der Wortlänge des jeweils betrachteten Computers abhängt. Angenommen, die Wortlänge betrage n Bits, beispielsweise 4. Dann lassen sich hiermit allgemein 2n verschiedene Werte darstellen, bei vier Bits wäre dies der Bereich von 0 bis 15, passend zu obigem Beispiel. Um nun das 2er-Komplement a∗ eines Wertes a zu bestimmen, muss lediglich 2n − a gerechnet werden, da 2n Schritte den Zeiger wieder auf seinen Ausgangspunkt bringen, was auf den ersten Blick nicht nach einem Gewinn aussieht, da hier noch immer eine Subtraktion benötigt wird, die ja eigentlich durch den Übergang zu Zahlen in Komplementdarstellung hätte vermieden werden sollen. Um im Kontext des Beispieles zu bleiben, wird im Folgenden von einer Wortlänge von 4 Bits ausgegangen. Zu bestimmen ist nun das 2er-Komplement des Wertes 4, d. h. es ist im Prinzip 24 − 4 = 16 − 4 zu rechnen. Binär entspricht dies der Subtraktion 10000 − 0100, wobei der Wert 24 = 16 selbst eigentlich gar nicht dargestellt werden kann, da er fünf anstelle der verfügbaren vier Bits benötigt. Hier kann nun ein einfacher Trick weiterhelfen, indem die 16 als 15+1 aufgefasst wird, d. h. es wird statt 16 − 4 einfacher 15 + 1 − 4 = 15 − 4 + 1 gerechnet. Diese kleine Umstellung der Operationsreihenfolge ist essenziell, da dies binär die Gestalt 1111 − 0100 + 0001 hat, was eine ausgesprochen einfache Rechnung darstellt, da von 1111 jede beliebige vier Bit lange Binärzahl subtrahiert werden kann, ohne, dass hierbei ein Überlauf auftritt, d. h. bei der Teilrechnung 1111−0100 muss nicht mehr schrittweise von rechts nach links vorgegangen werden, vielmehr können alle vier Bits parallel und damit deutlich schneller als bei sequentiellem Vorgehen subtrahiert werden, indem einfach alle Bits des zu subtrahierenden Wertes invertiert werden, so dass aus jeder 1 eine 0 und umgekehrt wird. Das gesuchte Komplement ist also a∗ = 1111 − 0100 + 0001 = 1011 + 0001 = 1100, was gerade dem bereits oben bestimmten Dezimalwert 12 entspricht. Das Elegante an dieser Methode ist, dass das Komplement eines beliebigen Integerwertes a einfach durch Ausführen der beiden folgenden Schritte bestimmt werden kann: 1. 2.

Invertiere alle Bits der Binärdarstellung von a. Addiere zu dem resultierenden Wert 1.

Wichtig ist hierbei, stets mit der gleichen Anzahl von Stellen zu arbeiten, d. h. auch, wenn führende Nullen auftreten, müssen diese notiert werden, da sie bei der Bildung des Komplementes zu Einsen werden, die natürlich nicht verloren gehen dürfen. Das in Abb. 2.6 dargestellte Beispiel verdeutlicht das allgemeine Vorgehen.

2.3 Mengen

Binär 0 − 0 0 + 1 + 0 − 0 0 + 1 − 0 + 0 0 + 1 + 0 0 + 1 0

1 0 1 1 0 0 1 1 0 0 1 1 0 1 1 1

1 1 1 1 0 1 1 1 1 0 1 0 0 1 0 0

1 0 1 1 0 0 1 1 0 0 1 1 0 1 1 1

1 0 1 1 0 0 1 1 0 0 1 1 0 1 1 1

0 0 0 1 0 0 0 1 0 0 0 1 0 0 1 0

1 1 1 1 0 1 1 1 1 0 1 0 0 1 0 0

1 1 1 1 1 1 1 1 1 1 1 0 1 1 1 0

Dezimal

Bemerkung

123 35 123 255 1 35 123 255 35 1 123 ... 1 123 „−35“ 88

2er-Komplement von 35 Resultat

| 31

Abb. 2.6: Ausführen der Subtraktion 12310 − 3510 in Binärdarstellung unter Verwendung des 2erKomplementes von 3510 , wobei mit 8 Bit langen Zahlen gerechnet wird Dezimal −8 −7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 1000 1001 1010 1011 1100 1101 1110 1111 0000 0001 0010 0011 0100 0101 0110 0111 Binär Abb. 2.7: Werte im Zweierkomplement bei 4 Bit langen Zahlen

Die Bildung des 2er-Komplementes einer Zahl entspricht also einer Vorzeichenumkehr. Als Beispiel ist in Abb. 2.7 eine Darstellung aller mit 4 Bit möglichen 16 Werte unter Berücksichtigung des 2er-Komplementes dargestellt. Hier fallen eine Reihe von Punkten auf: – Sowohl bei positiven als auch bei negativen Zahlen entspricht ein gesetztes LSB einer ungeraden Zahl. – Alle negativen Zahlen können durch ihr gesetztes MSB erkannt werden. – Es gibt nur eine Null (das ist nicht unbedingt selbstverständlich), da das 2erKomplement von 0000 wieder 0000 ist. – Die Zahlen sind unsymmetrisch um die Null verteilt, es gibt also eine negative Zahl mehr, als es positive Zahlen gibt. – Das 2er-Komplement dieser betragsmäßig größten negativen Zahl ist wieder die Zahl selbst! In diesem Beispiel ist diese Zahl binär gleich 1000, d.h. nach Invertieren der Bits ergibt sich zunächst 0111, was nach Addition von 1 wieder 1000 liefert.

32 | 2 Einführung Beim Rechnen mit Computern ist stets darauf zu achten, dass keine unbemerkten Überläufe auftreten, wie das folgende, in der Programmiersprache „C“ geschriebene Beispiel zunächst anhand vorzeichenloser Integers zeigt: Sourcecode: Überlauf 1 #include 2 3 int main() { 4 unsigned char value = 0; 5 unsigned int zaehler; 6 7 for (zaehler = 0; zaehler < 300; zaehler++) 8 printf("%d ", value++); 9 10 return 0; 11 }

Die Idee hierbei ist, zu einer 8 Bit langen Zahl value, deklariert in Zeile 4, 300 mal eine 1 zu addieren, wobei die Addition in Zeile 8 durch ein sogenanntes Postinkrement ausgeführt wird. Die Ausgabe des Programms sieht wie folgt aus: 0 1 2. . . 253 254 255 0 1 2. . . Zunächst steigen die Werte in Einerschritten, beginnend bei 0, an, um nach Erreichen des Wertes 255 wieder bei 0 weiterzulaufen. Hier trat offensichtlich stillschweigend ein Überlauf auf, der nicht einmal ohne Weiteres, d. h. ohne Zugriff auf das Prozessorstatusregister (vgl. Band 2, Kap. I.3.2.5), abgefangen werden könnte! Wird der Datentyp der Variablen value von unsigned char auf char, d. h. in einen vorzeichenbehafteten 8 Bit langen Wert geändert (hierzu muss lediglich Zeile 4 des obigen Programmes angepasst werden), so ergibt sich die folgende Ausgabe: 0 1 2. . . 125 126 127 -128 -127 -126. . . -2 -1 0 1 2 3. . . Auch hier tritt ein Überlauf auf, der sich nach Überschreiten des Wertes 127, dem größten, mit 8 Bits darstellbaren positiven Wert, zeigt. Die Addition von 1 zu 127 liefert analog zu Abb. 2.7 den betragsmäßig größten negativen Wert, nämlich −128, von wo aus wieder zu größen Werten fortgeschritten wird. 2.3.7.2 Gleitkommazahlen Während solche vorzeichenbehafteten beziehungsweise vorzeichenlosen Integerwerte oft ausreichend sind, treten vor allem im technisch/naturwissenschaftlichen Bereich häufig Problemstellungen auf, bei denen numerische Werte stark unterschiedlicher Größenordnungen in einer einzigen Berechnung gemeinsam auftreten, was dann eine einfache Rechnung mit Integervariablen unmöglich werden lässt. Da mit 32 Bit

2.3 Mengen

| 33

langen Integerwerten nur etwas über vier Milliarden (232 ) unterschiedliche Werte dargestellt werden können, ist dies bereits nicht mehr für eine Rechnung ausreichend, in der Variablen auftreten, die beispielsweise einen Wertebereich von 10−3 bis 108 abdecken. Entsprechend war man bereits früh um eine andere Werterepräsentation bemüht, die heute als Gleitkommadarstellung bekannt ist.¹⁶ Eine solche Gleitkommavariable g besitzt allgemein die Form g = mb x mit den folgenden drei Bestandteilen: Basis b: Dies ist die zugrundeliegende Zahlenbasis – in der Regel ist hier wie bei den Integervariablen b = 2, wobei jedoch die Darstellung von Mantisse und Exponent in der Praxis meist von jener von Integervariablen abweicht.¹⁷ Mantisse m: Die Mantisse enthält die signifikanten Stellen der Gleitkommazahl. Sie ist in der Regel, üblicherweise zumindest im Speicherformat, normalisiert, was bedeutet, dass 1 ≤ m < b gilt. Dies ist gleichbedeutend damit, dass die Mantisse stets eine von Null verschiedene Ziffer vor dem (gedachten) Dezimalkomma besitzt. Bei der üblichen Binärdarstellung von Mantissen bedeutet dies insbesondere, dass das erste Bit einer jeden normalisierten Mantisse gleich 1 ist. Dies wird in der Praxis ausgenutzt, um ein zusätzliches Bit für die Mantisse zu gewinnen, indem dieses erste Bit, das ohnehin stets 1 ist, gar nicht explizit gespeichert wird. Dies hat dann allerdings zur Folge, dass der Wert 0 nicht mehr direkt dargestellt werden kann. Hierfür wird dann meist ein bestimmter, reservierter Exponent genutzt, der – unabhängig vom aktuellen Wert der Mantisse – einer Gleitkommazahl den Wert 0 zuordnet. Exponent x: Da eine normalisierte Mantisse stets größer als 1, aber auch stets kleiner als die Basis ist, wird sie mit einem Term der Form b x multipliziert, mit dessen Hilfe die Größenordnung des repräsentierten Wertes dargestellt wird. Wie bei Integerwerten sind auch die Längen von Mantisse und Exponent beschränkt und fix, so dass nur eine bestimmte Zahl signifikanter Stellen und nur eine beschränkte Größenordnung des jeweiligen Wertes dargestellt werden können. Im Folgenden wird der Einfachheit halber die Basis 10 bei einer Mantissenlänge von vier Stellen und einem Wertebereich des Exponenten von −9 ≤ x ≤ 9 angenommen. Unter diesen Voraussetzungen besäße der Wert 12345 die Gestalt 1, 234 ⋅ 104 als normalisierte Gleitkommazahl, was meist in der Form 1.234E4 notiert wird. Wichtig ist hier die Be-

16 Bereits Konrad Zuses frühe Relaisrechner aus der ersten Hälfte des 20. Jahrhunderts erlaubten das Arbeiten mit solchen Variablen, siehe (Rojas 1998:27ff.). 17 Es gab z. B. auch Implementationen, in denen Mantisse und Exponent in unterschiedlichen Basen dargestellt wurden – beispielsweise 2 für die Mantisse und 16 für den Exponenten.

34 | 2 Einführung obachtung, dass die niederwertigste Stelle 5 des ursprünglichen Wertes 12345 unter den obigen Voraussetzungen verloren geht!¹⁸ Eine weitere wichtige Beobachtung ist, dass – im Unterschied zu einfachen Integervariablen – die einzelnen darstellbaren Werte von Gleitkommazahlen nicht äquidistant sind, d. h. sie haben keinen konstanten Abstand voneinander. Je kleiner Werte sind, desto näher liegen sie beeinander, mit steigender Größe der Werte steigen auch die Abstände, so dass die Auflösung von der Größenordnung der dargestellten Werte abhängt. In obigem Beispiel haben die kleinsten darstellbaren Werte g Abstände der 1 Größenordnung 1000 ⋅ 10−9 = 10−12 voneinander, während Werte der größten Grö1 ßenordnung bereits Abstände von 1000 ⋅ 109 = 106 besitzen. Wollte man also einen Geldbetrag von 1001001000 EUR mit einer solchen Gleitkommazahl darstellen, fielen die letzten 1000 EUR sozusagen unter den Tisch. Umgekehrt könnten jedoch bei Werten rund um 1 EUR noch tausendstel Cent repräsentiert werden. Der Verlust von Stellen aufgrund der beschränkten Mantissenlänge hat neben der Genauigkeitseinbuße auch zur Folge, dass das Assoziativitätsgesetz nicht mehr erfüllt ist, d. h. in der Regel gilt für das Rechnen mit Gleitkommazahlen beispielsweise (a + b) + c ≠ a + (b + c), wie folgendes Beispiel unter den oben gemachten Voraussetzungen zeigt: Es seien die drei Werte 1000, 0, 5 und 0, 5 zu addieren. Da ein Computer in der Regel nur zwei Operanden in einem Rechenschritt addieren kann, stellt sich also die Frage, ob diese Berechnung mit Gleitkommazahlen besser in der Form (1000 + 0, 5) + 0, 5

(2.6)

1000 + (0, 5 + 0, 5)

(2.7)

oder als durchgeführt wird. Normalisiert ist 1000 = 1, 000E3 und 0,5=5,000E-1 – hier tritt also noch keine Genauigkeitseinbuße aufgrund von Stellenverlusten auf. Im Fall (2.6) ist als erste Teilrechnung die Addition 1, 000E3 + 5, 000E − 1 auszuführen. Dies geht offensichtlich nicht in normalisierter Form, da die beiden Werte vollkommen unterschiedliche Größenordnung besitzen, so dass sie nicht direkt ziffernweise addiert werden können. Um die Addition auszuführen, muss eine der beiden Zahlen denormalisiert, d. h. auf die gleiche Größenordnung wie der andere Wert gebracht werden, was mit Hilfe des Exponenten gesteuert wird. In der Praxis wird die betragsmäßig kleinere Zahl an die betragsmäßig größere angepasst, was zur Folge hat, dass die Gleitkommazahl 5, 000E − 1 in eine Form gebracht werden muss, die einen Exponenten 3 besitzt. Dies gelingt durch Verschieben des Kommas nach links: 0, 0005E3. Leider ist dieser Wert mit einer nur vierstelligen Mantisse, wie sie hier ja vorausgesetzt ist, nicht darstellbar, da die letzte Ziffer, die 5, nicht

18 In der Praxis würde man diese Ziffer nicht einfach abschneiden, sondern die Zahl korrekt runden, um diesen an sich unvermeidbaren Fehler zumindest zu minimieren.

2.3 Mengen

| 35

mehr mit der Mantisse dargestellt werden kann. Anstelle von 1000 + 0, 5 wird die Maschine hier also 1, 000E3 + 0, 000E3 rechnen, was schlicht falsch ist. Die Addition eines zweiten Wertes 0, 5 hierzu ändert nichts am Resultat, das unverändert 1000 bleibt. Der Fall (2.7) verhält sich hier gutmütiger. Hier ist zunächst die Summe 5, 000E − 1 + 5, 000E − 1 zu rechnen, was bei keiner der beiden Zahlen eine Denormalisierung erfordert und das gewünschte Resultat 1, 000E0 liefert. Die Addition 1, 000E3 + 1, 000E0 erzwingt nun jedoch das Denormalisieren des betragsmäßig kleineren Wertes, gerechnet wird also 1, 000E3 + 0, 001E3, was allerdings gerade noch keinen Stellenverlust beim kleineren Wert nach sich zieht und somit das gewünschte Resultat 1, 001E3 = 1001 liefert.

Beim Arbeiten mit Gleitkommazahlen muss also stets berücksichtigt werden, dass die Assoziativität bezüglich Addition (und entsprechend auch Subtraktion) nicht erfüllt ist. Zu diesen Schwierigkeiten kommt eine weitere Komplikation hinzu, die aus der Tatsache resultiert, dass die Basis der Mantisse in der Praxis gleich 2 und nicht wie in diesen Beispielen 10 ist. Als Beispiel wird im Folgenden die binäre Darstellung des 1 bestimmt, wobei eine (realistische) Mantissenlänge von einfachen Dezimalbruches 10 23 Bit angenommen wird: 1 1 1 1 1 1 1 1 1 +0⋅ +0⋅ +1⋅ +1⋅ +0⋅ +0⋅ +1⋅ +1⋅ + 2 4 8 16 32 64 128 256 512 1 1 1 1 0⋅ +0⋅ +1⋅ +1⋅ +... 1024 2048 4096 8192 ≈ 0, 000110011001100110011012

0, 1 ≈ 0 ⋅

1 zur Basis 2 ein periodischer Bruch Man sieht, dass der endliche Dezimalbruch 10 wird, also eigentlich eine unendlich lange Mantisse zur fehlerfreien Darstellung erforderlich machen würde, was technisch natürlich nicht möglich ist. In diesem Fall wird die Mantisse nach dem 23. Bit abgebrochen, was einen zwar kleinen, aber dennoch nicht zu vernachlässigenden Fehler erzeugt, wie auch folgendes kleines Beispielprogramm demonstriert:

Sourcecode: Fließkommazahl 1 #include 2 3 int main() { 4 float result_0 = 0., result_1 = 0., x = 0.1; 5 int y = 10000000; 6 7 result_0 = (float) x * y; 8 9 for (int i = 0; i < y; i++) 10 result_1 += y; 11 12 printf("Multiplikation -> %f\nwiederholte Addition -> %f\n",

36 | 2 Einführung

13 14 15 }

result_0, result_1); return 0;

Hier wird auf zweierlei Arten das Produkt x ⋅ y mit den Werten x = 0, 1 und y = 107 berechnet – einmal durch direkte Multiplikation von x und y sowie einmal durch eine zehnmillionen Mal wiederholte Addition von 0, 1, d. h. 107

∑ i=1

1 , 10

was das folgende Ergebnis liefert: Multiplikation -> 1000000.000000 wiederholte Addition -> 1087937.000000

Dies hat auch zur Folge, dass der Vergleich von zwei Gleitkommazahlen auf Gleichheit in der Regel keine gute Idee ist. Falls diese aus unterschiedlichen Berechnungen stammen, liegen sie zwar vielleicht sehr nahe beeinander, werden in der Regel jedoch nicht wirklich „gleich“ sein. Anstelle einer Abfrage der Form if (x == y) ...

mit zwei Gleitkommazahlen x und y wird in der Regel entsprechend besser überprüft, ob der Abstand der beiden Werte eine bestimmte, vorgegebene Schranke ε unterschreitet, d. h. ob ⋃︀x − y⋃︀ < ε gilt: if (fabs(x - y) < EPS) ...

Hierbei ist jedoch zu beachten, dass dies kein Ersatz für einen Vergleich auf Gleichheit darstellt, da dann nicht mehr die Transitivität der Gleichheit gewährleistet ist, d. h. aus a = b und b = c ließe sich, wenn die obige Abstandsbedingung als Stellvertreter für die Gleichheit = aufgefasst würde, nicht mehr a = c folgern! Hiermit erschöpfen sich die Schwierigkeiten beim Arbeiten mit Gleitkommazahlen leider keineswegs – weitere Informationen finden sich beispielsweise in (Braverman 2013), (Acton 2005), (Goldberg 1991) und (Hwang 1979). Eine schöne Geschichte ist die des berühmten amerikanischen Numerikers Alston Scott Householder, der Gleitkommazahlen dermaßen misstraute, dass er einmal bemerkte, niemals mit einem modernen Flugzeug zu fliegen, bei dessen Auslegung mit Gleitkommazahlen gearbeitet

2.3 Mengen

| 37

wurde. Dies ist zwar etwas übertrieben und heute schon prinzipiell nicht mehr durchzuhalten, dennoch zeigen die vorangegangenen Kapitel, dass beim Arbeiten mit Gleitkommazahlen große Umsicht gelten sollte, da viele praktische Eigenschaften mathematischer Objekte wie Assoziativität, Transitivität etc. nicht länger gewährleistet sind.

2.3.8 Abtastsysteme Welche Auswirkungen haben diese Eigenschaften von Integerwerten beziehungsweise Gleitkommazahlen, wenn es um die Frage geht, wie beispielsweise Musikstücke, Filme oder sonstige Messdaten von einem Computer verarbeitet werden können? Da die reale Welt – zumindest innerhalb praktischer Grenzen, d. h. unserer makro- und zu einem großen Teil auch mikroskopischen Anschauung – kontinuierlich ist, d. h. Werte folgen „lückenlos“ aufeinander,¹⁹ ist klar, dass jede Verarbeitung beispielsweise akustischer oder optischer Informationen mit Hilfe eines Computers prinzipbedingt fehlerbehaftet ist. Neben den unvermeidlichen Darstellungsfehlern, die letztlich daraus resultieren, dass in einem Computer für einen zu repräsentierenden Wert nur endlich viele Bits zur Verfügung stehen, kommt ein weiteres Problem hinzu: Ein Computer ist gezwungen, ein Signal abzutasten, d. h. es in meist äquidistanten Abständen zu messen und in eine endlich lange Bitfolge zu konvertieren, die gespeichert und verarbeitet werden kann. Abb. 2.8 zeigt den Effekt dieser zwei Eigenschaften von Computern: Aufgrund der beschränkten Auflösung der Repräsentation der Messdaten weicht der Wert des digitalen Wertes, je nach Anzahl von pro Messwert zur Verfügung stehender Bits mehr oder weniger stark vom realen Wert ab. Durch die diskrete Abtastung des eigentlichen Signals entstehen darüber hinaus Lücken zwischen je zwei Abtastvorgängen. Offensichtlich wird man stets bemüht sein, sowohl eine möglichst feine Auflösung in y-Richtung zu gewährleisten als auch die einzelnen Abtastvorgänge möglichst rasch aufeinander folgen zu lassen. Bei einer klassischen Compact Disc (CD) für Audiozwecke werden beispielsweise 16 Bit für die Amplitudenwerte verwendet, wobei pro Sekunde 44100 Abtastvorgänge erfolgen. Dies hat zur Folge, dass die Amplitude, in diesem Fall also die Lautstärke des Signals, in 216 = 65536 diskrete Amplitudenstufen unterteilt wird. Die Wahl der Abtastfrequenz von 44100 Hz²⁰ hat zur Folge, dass das Audiosignal bei der Aufnahme 44100 mal pro Sekunde gesampled wird, so dass für jeden der beiden Stereokanäle sekündlich 44100 ⋅ 16 = 705600 Datenbits, entsprechend 88200 Bytes zu je 8 Bit, anfallen (vgl. Band 1, Kap. II.4.3).

19 Dies hängt letztlich mit der zuvor erwähnten, fast philosophischen Frage, ob es R „wirklich gibt“, zusammen. 20 Die zu Ehren des Physikers Heinrich Rudolf Hertz als „Hertz“, kurz Hz, bezeichnete Einheit entspricht 1s .

38 | 2 Einführung y f (x)

t Abb. 2.8: Abtasten eines kontinuierlichen Signals

Die Abtastfrequenz spielt eine zentrale Rolle bei jeder solchen Analog-DigitalWandlung, da sie die höchste Signalfrequenz bestimmt, die noch aufgelöst werden kann. In alten Kinowestern tritt dieser Effekt häufig anhand der Speichen von Wagenrädern gut in Erscheinung:²¹ Fährt ein Wagen im Film vergleichsweise langsam, so ist der optische Eindruck, den die rotierenden Speichen hervorrufen, konsistent, das Rad dreht sich augenscheinlich in Fahrtrichtung. Fährt der Wagen jedoch schneller, scheinen die Speichen zunächst immer langsamer, bis zum Stillstand, zu rotieren, um dann ihre scheinbare Drehrichtung umzukehren, was den Anschein erweckt, als drehten sich die Räder rückwärts, während der Wagen offensichtlich weiterhin vorwärts fährt. Dieser Effekt rührt daher, dass die Speichen des Rades mit steigender Geschwindigkeit einen immer größeren Winkelbereich zwischen zwei aufeinanderfolgenden Filmbildern zurück legen. Rotiert das Rad so schnell, dass eine Speiche zwischen zwei Bildern genau den Winkel zurücklegt, der zwischen zwei Speichen liegt, so scheint das Rad im Film still zu stehen. Dreht es sich noch schneller, entsteht der Eindruck eines sich rückwärts drehenden Rades. Dieser Effekt wird durch das Nyquist-Shannon-Abtasttheorem, das auf Arbeiten des Ingenieurs Harry Nyquist sowie des Mathematikers Claude Elwood Shannon zurückgeht, beschrieben. Die Frequenz, mit der ein analoges Signal abgetastet wird, muss, um es anhand der resultierenden Daten wieder rekonstruieren zu können, mindestens doppelt so hoch sein wie die höchste auftretende Frequenz im ursprünglichen Signal. Bezogen auf eine Audio-CD bedeutet dies, dass die höchste Signalfrequenz, die bei einer Abtastrate von 44100 Hz noch wiedergegeben werden kann, 22050 Hz beträgt, was jenseits des Hörvermögens der meisten Menschen liegt. Wird sehr großer Wert auf Audioqualität gelegt, so muss zum einen mit einer höheren Frequenz abge-

21 Stummfilme wurden meist mit 16–24 Bildern pro Sekunde aufgenommen, im Kino sind heutzutage 24 Bilder/s üblich.

2.3 Mengen

| 39

Abb. 2.9: Aliasing durch zu geringe Abtastfrequenz

tastet werden, und zum anderen müssen mehr Bits für die einzelnen Werte genutzt werden.²² Abb. 2.9 zeigt den Effekt, der durch eine zu geringe Abtastfrequenz entsteht: Das dünn gezeichnete Originalsignal wird an den durch Punkte markierten Stellen abgetastet, woraus sich die fett gezeichnete Signalform ergibt, deren Form zwar dem Originalsignal entspricht (vorausgesetzt, dessen Verlauf ändert sich über einen hinreichend langen Zeitraum nicht), deren Frequenz aber deutlich zu niedrig ist. Dieser Effekt wird zum Teil in der Messtechnik ausgenutzt, da es hierdurch möglich ist, hochfrequente Signale in einen niedrigeren Frequenzbereich zu transformieren, wovon beispielsweise sogenannte Vektorvoltmeter, mit denen Amplitude und Phasenlage harmonischer Signale bestimmt werden können, Gebrauch machen. In der Regel müssen derartige Unterabtastungen jedoch vermieden werden, indem entweder die Abtastfrequenz hinreichend hoch gewählt oder das abzutastende Signal durch ein Tiefpassfilter in seiner Frequenz nach oben hin geeignet beschränkt wird.

22 Üblich sind hier beispielsweise 24 Bit Auflösung bei Abtastfrequenzen über 105 Hz.

3 Analysis Nach diesem einführenden Kapitel widmen sich die folgenden Kapitel dem Gebiet der sogenannten Analysis,²³ die sich im Wesentlichen mit Funktionen auf R, mit sogenannten Folgen und Reihen sowie der Differential- und Integralrechnung befasst.²⁴

3.1 Folgen Mit Hilfe einer Berechnungsvorschrift lässt sich eine Sequenz von Werten, eine sogenannte Folge, definieren, wie das einfache Beispiel )︀ ⌉︀ 0 ⌉︀ ⌉︀ ⌉︀ x i = ⌋︀ 1 ⌉︀ ⌉︀ ⌉︀ ⌉︀ ]︀ x i−1 + x i−2

für i = 1 für i = 2 sonst

zeigt. Entsprechend dieser Definition sind die beiden Folgenglieder mit den Indices 1 und 2 gleich 0 und 1, während jedes weitere Folgenelement gerade die Summe seiner beiden Vorgängerelemente ist. Aus dieser Definition ergeben sich für die ersten Glieder dieser Folge die Werte x0 = 0, x1 = 1, x2 = 1, x3 = 2, x4 = 3, x5 = 5, x6 = 8, x7 = 13, . . . ²⁵ Eine Folge, deren Glieder von einem zum nächsten Glied größer werden, für die also stets (wie hier) x i−1 < x i gilt, wird als streng monoton steigend bezeichnet. Kann darüber hinaus auch der Fall x i−1 = x i auftreten, so heißt sie nur monoton steigend. Analog hierzu sind (streng) monoton fallende Funktionen definiert. Wechseln die Vorzeichen der Glieder einer Folge von einem zum nächsten Glied, so heißt die Folge alternierend. Eine Folge, deren Folgenglieder wie folgt definiert sind, x i = (ax i−1 + b) mod n,

(3.1)

23 Die Betonung bei der Aussprache liegt hier übrigens auf dem zweiten „a“. 24 Eine Darstellung der historischen Entwicklung der Analysis findet sich in (Körle 2012), über das Folgende Hinausgehendes findet sich beispielsweise in (Forster 2016) oder (Deitmar 2017). 25 Diese besondere Folge ist als Fibonacci-Folge bekannt, siehe beispielsweise (Lüneburg 1993) sowie Band 2, Kap. I.5.1.4. https://doi.org/10.1515/9783110496277-003

3.1 Folgen |

41

kann beispielsweise als (zu) einfacher Pseudozufallsgenerator²⁶ in Computerprogrammen dienen. Die Notation (. . . ) mod n bezeichnet die sogenannte Modulo-Operation, welche den Rest, der bei Division des Terms links des mod durch den rechts stehenden Term zurückliefert. Die Parameter a, b und n definieren hier das Verhalten der Folge, wobei im vorliegenden Fall eines solchen Pseudozufallsgenerators das erste Folgenglied x0 vorgegeben werden muss und als Startwert bezeichnet wird. Diese besondere Folge wird übrigens als linearer (wegen des Terms der Form ax i−1 + b) Kongruenzgenerator (wegen der Modulo-Operation) oder auch kurz LKG bezeichnet. Da die Modulo-Operation in (3.1) den Divisionsrest bei der Division von ax i−1 + b durch n ergibt, muss ein solcher Pseudozufallsgenerator nach einer mehr oder weniger langen Zeitspanne immer die gleiche Sequenz von Werten erzeugen. Beispielsweise erzeugt der LKG der Form x i = (7x i−1 + 3) mod 17 mit dem Startwert x0 = 4 immer wieder die Werte 4, 14, 16, 13, 9, 15, 6, 11, 12, 2, 0, 3, 7, 1, 10, 5, weist also eine Periodenlänge von 16 auf. Während x i ein einzelnes Folgenglied, in diesem Fall das i-te, bezeichnet, so ist mit (x i ) die ganze Folge an sich gemeint. Unterliegt der Bereich, welchen der Index der Folgenglieder durchläuft, Einschränkungen, so wird dies beispielsweise in der Form n (x i )i=0 zum Ausdruck gebracht.

3.1.1 Beschränktheit, Grenzwerte, Häufungspunkte Im Zusammenhang mit solchen Folgen stellt sich die naheliegende Frage, ob die Glieder einer Folge beispielsweise immer nach oben oder unten durch eine Schranke begrenzt werden oder vielleicht über alle Grenzen hinaus wachsen können. Gibt es eine solche obere oder untere Schranke, so heißt die Folge entsprechend nach oben bzw. nach unten beschränkt. Gilt für die Glieder einer Folge u ≤ x i ≤ o ∀i ∈ N, existiert

26 Die Betonung liegt hier auf „Pseudo-“, da eine solche Berechnungsvorschrift natürlich keinen echten Zufall hervorbringen kann. Bestenfalls (und auch das gilt in diesem einfachen Beispiel nur stark eingeschränkt, lassen sich mit einem Computer Zahlenfolgen erzeugen, die zufällig „aussehen“. John von Neumann bemerkte einmal zu der Idee, mit Hilfe eines Computers „Zufallszahlen“ zu erzeugen, Folgendes: „Anyone who considers arithmetical methods of producing random digits is, of course, in a state of sin.“ (Siehe (von Neumann 1951).)

42 | 3 Analysis also sowohl eine untere Schranke u als auch eine obere o, so wird die Folge einfach beschränkt genannt. Ist u eine untere Schranke, so sind alle Werte kleiner als u ebenfalls untere Schranken, analog hierzu sind alle Werte größer als eine obere Schranke o auch obere Schranken. Besondere Bedeutung kommt also der als Infimum bezeichneten größten unteren beziehungsweise der Supremum genannten kleinsten oberen Schranke zu. Bezeichnet werden diese besonderen unteren und oberen Schranken durch inf und sup. Wird die Folge 1 xi = (3.2) i mit i ∈ N betrachtet, so ist zunächst klar, dass es sich um eine streng monoton fallende Folge handelt, da x i < x i+1 gilt. Entsprechend muss der größte Folgenwert der von x1 = 1 sein – hierbei handelt es sich also um die obere Schranke der Folge. Durch welchen Wert wird sie jedoch nach unten beschränkt? Mit steigendem i werden die Folgenglieder immer kleiner, sie „nähern“ sich dem Wert 0 an. Dieser Wert wird als Grenzwert beziehungsweise Limes der Folge bezeichnet, was als 1 =0 i→∞ i lim

notiert wird. Man sagt in diesem Fall, „für i gegen unendlich konvergiert die Folge gegen Null“. In diesem Zusammenhang wird der Begriff des Intervalls benötigt. Ein solches Intervall ist ein „Bereich“, d. h. eine Menge von Werten, die durch einen kleinsten und einen größten Wert beschränkt werden. So bezeichnet (︀0, 1⌋︀ ⊂ R eine Teilmenge der reellen Zahlen, die nach unten durch den Wert 0 und nach oben durch den Wert 1 beschränkt werden, wobei die beiden Schranken 0 und 1 im Intervall selbst enthalten sind, was durch die eckigen Klammern bei der Angabe des Intervalls kenntlich gemacht wird. Sind beide Intervallgrenzen, wie in diesem Fall, Elemente des Intervalls, so heißt das Intervall abgeschlossen. Es gibt jedoch Fälle, in denen eine oder auch beide Grenzen eines solchen Intervalls selbst nicht Bestandteil des Intervalls sind, wie beispielsweise bei den Gliedern der Folge (3.2), die mit Ausnahme des Wertes 0 in obigem Intervall liegen. Um kenntlich zu machen, dass dieses Intervall nach unten durch die 0 beschränkt wird, diese selbst jedoch nicht Teil des Intervalls ist, wird es als (0, 1⌋︀, manchmal auch als ⌋︀0, 1⌋︀ notiert. Die runde beziehungsweise umgekehrte eckige Klammer gibt also an, dass die jeweilige Schranke gerade nicht mehr Element des Intervalls ist. Ein solches Intervall wird als einseitig offen bezeichnet. Etwas präziser wird meist davon gesprochen, dass ein solches Intervall rechtsseitig oder linksseitig offen ist. Sind beide Schranken nicht Bestandteil des Intervalls, so wird es beidseitig offen genannt. Diese Notation findet auch dann Anwendung, wenn ein Intervall nach unten oder oben nicht beschränkt ist, beispielsweise bezeichnet (−∞, 0) ⊂ R das Intervall der

3.1 Folgen |

43

negativen reellen Zahlen ohne die 0. Die positiven reellen Zahlen als Intervall einschließlich der 0 werden dann als (︀0, ∞) bezeichnet.²⁷ In manchen Fällen ist es nützlich, ein Intervall nicht durch einen unteren bzw. oberen Grenzwert, sondern durch einen Punkt und einen (symmetrischen) Bereich um diesen (Mittel-)punkt herum zu spezifizieren. Ein solches Intervall der Form (x − ε, x + ε) beziehungsweise (︀x − ε, x + ε⌋︀ wird auch als ε-Umgebung von x bezeichnet. Mit solchen Intervallen lässt sich nun die Idee der Konvergenz einer Folge besser fassen, wobei als Beispiel wieder die Folge (3.2) dient: Ein Grenzwert x einer Folge ist ein Punkt, wenn nur „wenige“ Folgenglieder außerhalb einer solchen ε-Umgebung um x liegen. Mathematisch lässt sich dies wie folgt formulieren: Ein Wert x ∈ R heißt Grenzwert einer Folge (x i ), falls zu jedem (beliebig kleinen) ε > 0 (ε ∈ R) ein n ∈ N existiert, so dass für alle i ≥ n die Aussage ⋃︀x i − x⋃︀ < ε erfüllt ist, kurz: ∀ε > 0∃n ∈ N∀i ≥ n ∶ ⋃︀x i − x⋃︀ < ε Der einzige Wert, der diese Bedingung für die Folge (3.2) erfüllt, ist der Wert x = 0 – egal, wie klein eine Umgebung um die Null herum gewählt wird, ab einem bestimmten Folgenindex i werden, dank der strengen Monotonie der Folge, alle weiteren Folgenglieder innerhalb dieser Umgebung liegen. 0 ist also der Limes dieser Folge, es handelt sich bei diesem Beispiel also um eine sogenannte Nullfolge. Nun besitzt nicht jede Folge einen Grenzwert, sie kann beispielsweise unbeschränkt oder alternierend, wie im Falle von x i = (−1)i sein. Diese Folge nimmt wechselweise die Werte 1 und −1 an, besitzt also offensichtlich keinen Grenzwert in obigem Sinne. Dennoch sind unendlich viele Folgenglieder gleich 1, aber auch gleich −1. Solche Werte, in deren ε-Umgebung unendlich viele Folgenglieder liegen, werden als Häufungspunkte bezeichnet. Wichtig ist hier, dass nicht alle Folgenglieder ab einem bestimmten Index innerhalb einer solchen Umgebung liegen – für einen Häufungspunkt müssen nur unendlich viele Glieder in einer solchen Umgebung liegen.

27 Da es sich bei ±∞ um ein Konzept, nicht jedoch um fassbare Werte handelt, ist ein Intervall, das durch einen oder beide dieser Werte „beschränkt“ wird, entsprechend ein offenes Intervall. In diesem besonderen Fall ist es also nach unten oder oben (oder beidem) unbeschränkt.

44 | 3 Analysis Für die Folge xi = gilt anschaulich lim

i→∞

i i+1

i = 1, i+1

was für die alternierende Folge x i = (−1)i

i i+1

(3.3)

jedoch nicht mehr gilt, da je zwei aufeinanderfolgende Glieder unterschiedliche Vorzeichen besitzen, d. h. der einfache Limesbegriff stößt hier an eine Grenze. Nun gibt es allerdings zwei Häufungspunkte, nämlich 1 und −1, die sich als Grenzwerte zweier Teilfolgen, einer mit geradzahligem Index i und einer mit ungeradzahligem i, in welche die Folge (3.3) aufgespalten werden kann, auffassen lassen. Diese beiden Häufungspunkte werden als Limes inferior bzw. Limes superior bezeichnet und wie folgt notiert: i = 1 und i+1 i lim inf (−1)i = −1 i→∞ i+1

lim sup(−1)i i→∞

Allgemein gilt nach dem Satz von Bolzano-Weierstrass, dass jede beschränkte Folge reeller Zahlen einen größten und einen kleinsten Häufungspunkt besitzt. Besitzt eine Folge genau einen (endlichen) Häufungspunkt, so ist sie konvergent, ist dies nicht der Fall, so ist die Folge divergent. Im Falle der Divergenz muss noch zwischen bestimmter und unbestimmter Divergenz unterschieden werden: Bestimmt divergent ist eine Folge, wenn ihre Glieder mit steigendem Index über alle Schranken wachsen, also „gegen unendlich“ gehen. Eine einfache alternierende Folge wie x i = (−1)i , wird als unbestimmt divergent bezeichnet.

3.1.2 Arithmetische, geometrische und harmonische Folgen Häufig lässt sich eine Folge einer von drei besonderen Typen von Folgen zuordnen. Der einfachste Typ ist der einer arithmetischen Folge, die dadurch gekennzeichnet ist, dass die Differenz zwischen je zwei aufeinanderfolgenden Gliedern konstant ist, es gilt also x i − x i−1 = c = const., d. h. die Definition einer solchen Folge hat die Gestalt x i = x1 + (i − 1)c mit i ∈ N. Es ist also x i−1 = x i − c und x i+1 = x i + c, d. h. x i−1 + x i+1 x i − c + x i + c = = xi . 2 2

(3.4)

3.1 Folgen

| 45

Jedes Folgenglied einer solchen arithmetischen Folge ist also gerade das arithmetische Mittel seiner beiden Nachbarglieder (für n > 1), was auch die Bezeichnung dieser Folgenklasse erklärt. Ist anstelle der Differenz zweier aufeinanderfolgender Glieder einer Folge deren i Quotient konstant, gilt also xxi−1 = c = const., so handelt es sich um eine geometrische Folge mit dem allgemeinen Bildungsgesetz x i = x1 c i−1 für i > 1. Analog zu obiger Argumentation sind also x i−1 = ⌉︂ ⌋︂ x i−1 x i+1 = x2i = x i

xi c

und x i+1 = x i c, woraus

folgt. Jedes Folgenglied (für i > 1) ist also das geometrische Mittel seiner beiden Nachbarfolgenglieder. Die dritte und letzte wesentliche Klasse ist die der harmonischen Folgen, deren einfachster Vertreter, die Folge x i = 1i bereits mehrfach als Beispiel genutzt wurde. Hier ist jedes Folgenglied x i gleich dem harmonischen Mittel seiner beiden Nachbargliedern, es gilt also 2 xi = 1 . 1 x i−1 + x i+1

3.1.3 Die logistische Gleichung Als Beispiel für eine an sich einfache Folge, die jedoch ein ausgesprochen interessantes Verhalten an den Tag legt, ist die sogenannte logistische Gleichung, die 1837 durch den belgischen Mathematiker Pierre-François Verhulst im Rahmen von Untersuchungen bezüglich der Populationsdynamik in biologischen Systemen entwickelt wurde. In einer etwas vereinfachten Form besitzt sie folgende Gestalt x i = rx i−1 (1 − x i−1 ) ,

(3.5)

wobei die Konstante 1 ein beschränktes Nahrungsangebot darstellt, während der Faktor r die Vermehrungsrate der betrachteten Organismen beschreibt. Die Populationsgröße wird hierbei durch geeignete Skalierung auf das Intervall (︀0, 1⌋︀ beschränkt. Erreicht diese Größe den Wert 1, so bricht sie aufgrund von Nahrungsknappheit zusammen, was durch den Term 1 − x i−1 modelliert wird. Das Verhalten dieser Folge wird durch den Parameter r bestimmt, wie Abb. 3.1 exemplarisch für vier verschiedene Werte zeigt. Für kleine Werte von r (links oben) strebt die Population – gegebenenfalls mit einem kleinen Überschwingen (rechts oben) einer stabilen Größe zu. Für größere r ergibt sich ein oszillierendes Verhalten der Populationsgröße (links unten). Erstaunlich ist nun, dass sich die Folgenglieder für Werte r > 3, 57 augenscheinlich chaotisch verhalten. Sie werden natürlich durch die Definition der Folge exakt beschrieben und sind insofern nicht wirklich „unvorhersagbar“,

46 | 3 Analysis 0.34

0.75

0.32

0.7

0.3

0.65

0.28

0.6

0.26 0.55 0.24 0.5 0.22 0.45 0.2 0.4

0.18

0.35

0.16

0.3

0.14 0.12 0

10

20

30

40

50

60

70

80

90

100

0.25

0.9

0.9

0.8

0.8

0.7

0.7

0.6

0.6

0.5

0.5

0.4

0.4

0.3 0

10

20

30

40

50

60

70

80

90

100

0.3 0

0

10

10

20

20

30

30

40

40

50

50

60

70

80

90

100

60

70

80

90

100

Abb. 3.1: Verhalten der logistischen Gleichung (3.5) für r = 1, 5, r = 3, r = 3, 5 und r = 3, 6

was häufig durch dem Begriff „Chaos“ beschrieben wird. Es ist jedoch so, dass das Verhalten der Folgenglieder beziehungsweise des durch sie beschriebenen Systems extrem stark von geringsten Änderungen der Parameter und Startwerte abhängt, was durch den Begriff des deterministischen Chaos zum Ausdruck gebracht wird. Abbildung 3.1 zeigt rechts unten exemplarisch das Verhalten der ersten 100 Folgenglieder für r = 3, 6.

3.1.4 Die Mandelbrot-Menge Eine weitere bekannte Folge, die sogar Eingang in die Popkultur der 1980er und 1990er Jahre fand, ist durch die Berechnungsvorschrift z n+1 = z2n + c

(3.6)

definiert, wobei z i , c ∈ C gilt und der Startwert z0 = 0 ist. Diese Folge ist also auf den komplexen Zahlen definiert – alle Werte c, für welche die Folge der z i beschränkt bleibt, werden der nach Benoît Mandelbrot benannten Mandelbrot-Menge, deren charakteristische Form ihr den populären Namen Apfelmännchen eingetragen hat, zugeordnet.

3.1 Folgen |

47

Es lässt sich zeigen, dass die Folge (3.6) dann unbeschränkt ist, wenn ein Folgenglied z i = (x i + y i i) den Betrag 2 überschreitet, wenn also ⌉︂ x2i + y2i > 2 (3.7) gilt. Nun lassen sich natürlich nicht alle Glieder der Folge für einen Wert c ausrechnen, so dass ein typischer Algorithmus, um das Bild eines solchen Apfelmännchens zu erzeugen, in der Regel nur eine bestimmte maximale Anzahl von Iterationsschritten durchführt. Wird hierbei ein Fall der Form (3.7) angetroffen, ist die Folge für das gerade betrachtete c sicher divergent. Wurde hingegen nach Durchlaufen der maximalen Anzahl von Iterationsschritten kein solcher Fall für das betrachtete c gefunden, wird „angenommen“, dass die Folge für dieses c nicht divergiert, und der durch c repräsentierte Punkt der komplexen Zahlenebene wird der Mandelbrot-Menge zugeordnet. Das folgende Listing zeigt ein einfaches C-Programm, mit dem die Figur eines Apfelmännchens als ASCII-Grafik ausgegeben werden kann: Sourcecode: Mandelbrot 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29

#include #include #define MAX_ITERATIONS 100 #define #define #define #define #define #define

X_START -2. X_STOP .5 X_STEP .04 Y_START -1. Y_STOP 1. Y_STEP .1

int main() { char *c = " .,-;+*#"; int i, len = strlen(c); for(double y = Y_START; y 0. Anschaulich gibt die Fakultät einer natürlichen Zahl n an, auf wieviele verschiedene Arten n Dinge in eine Reihenfolge gebracht werden können (vgl. Band 2, Kap. II.3.3.2).

52 | 3 Analysis

3.3 Funktionen Der Begriff einer Funktion wurde bereits zu Beginn in Kapitel 2.1 eingeführt und soll hier erweitert und präzisiert werden. Allgemein gesprochen setzen Funktionen Variablen miteinander in Beziehung, wobei zwischen abhängigen und unabhängigen Variablen unterschieden werden muss. Als Beispiel hierfür diene die Funktion f (x, y) = 3x2 − 5y, die zwei Argumente beziehungsweise unabhängige Variablen x und y erhält und, basierend auf den jeweiligen Werten dieser Variablen, den Ausdruck 3x2 − 5y zurückliefert. Das Ergebnis der Funktion wird als abhängige Variable bezeichnet, da es von den unabhängigen Variablen sowie dem eigentlichen Funktionsausdruck bestimmt wird. Das Verhalten einer Funktion wird häufig in Form eines sogenannten Funktionsgraphen, häufig auch kurz Graph genannt, visualisiert, wie das folgende Beispiel anhand der Quadratwurzelfunktion zeigt: Im einfachsten Falle wird zunächst eine Wertetabelle der betrachteten Funktion angelegt, wie sie Tabelle 3.1 zeigt. Hierzu wird für eine (hoffentlich) repräsentative Menge von Argumenten der jeweils zugehörige Funktionswert notiert, so dass sogenannte Tupel³² der Form (x, y) gebildet werden. Tab. 3.1: Wertetabelle der Funktion f (x) =

⌋︂

x

x 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 f (x) 0 1 1, 41 1, 73 2 2, 23 2, 44 2, 64 2, 82 3 3, 16 3, 31 3, 46 3, 6 3, 74 3, 87 4

Abb. 3.2 zeigt den auf dieser Wertetabelle beruhenden Funktionsgraphen der ⌋︂ Funktion f (x) = x. In einem kartesischen Koordinatensystem³³ werden Punkte an den durch die Tupel der Wertetabelle spezifizierten Stellen gesetzt. Könnte man unendlich vieler solcher Tupel bestimmen, ergäbe sich ein vollständiger Funktionsgraph, in der Praxis wird man natürlich nur endlich viele Punkte bestimmen und zwischen ihnen in geeigneter Form interpolieren, d. h. benachbarte Punkte miteinander verbinden.³⁴

32 Ein Tupel ist eine geordnete Liste von Objekten, die nicht notwendigerweise unterschiedlich sein müssen. Hierin unterscheiden sie sich von Mengen, in denen keine doppelten Elemente auftreten dürfen, und in denen die Reihenfolge von Elementen keine Rolle spielt. 33 Diese Bezeichnung geht auf den Philosophen René Descartes zurück, der diese Form der Darstellung verwendet und durch seine Arbeiten bekannt gemacht hat. 34 Heutzutage bieten viele, auch einfachere Taschenrechner Möglichkeiten, Funktionsgraphen darzustellen, eine Fähigkeit, von der oft Gebrauch gemacht werden sollte, um ein Gefühl für das Verhalten unterschiedlicher Funktionen zu gewinnen.

3.3 Funktionen

| 53

4

⌋︂

x

3 2 1 0

0

2

4

6

8 x

10

12

Abb. 3.2: Funktionsgraph der Funktion f (x) =

⌋︂

14

16

x für 0 ≤ x ≤ 16

3 f −1 (x) = x2

y

2

f (x) =

1

0

0

1

⌋︂

2

x

3

x

Abb. 3.3: Funktion und Umkehrfunktion

In Kapitel 2.3.4 wurde bereits der Begriff der Umkehrfunktion eingeführt. Ausgehend von einem Funktionsgraphen kann sehr anschaulich der Graph der entsprechenden Umkehrfunktion erzeugt werden, wie Abbildung 3.3 anhand der Funktion f (x) = ⌋︂ x und ihrer Umkehrfunktion f (x) = x2 zeigt.³⁵ Ausgehend von einem gegebenen Funktionsgraphen kann der Graph der Umkehrfunktion erzeugt werden, indem der Funktionsgraph an der Winkelhalbierenden gespiegelt wird. Anschaulich vertauscht diese Spiegelung die x- und y-Achse des Koordinatensystems, was letztlich der Bildung der Umkehrfunktion entspricht und durch f −1 ○f = id verdeutlicht werden kann, d. h. die Anwendung einer Umkehrfunktion auf die zugehörige Funktion liefert die sogenannte Identität, kurz id, die jedes Argument just auf sich selbst abbildet, also sozusagen „nichts tut“, was dem Graphen der Winkelhalbierenden entspricht.

35 Man beachte, dass der Definitionsbereich beider Funktionen hier auf R+ eingeschränkt ist – anderenfalls käme es zu Problemen, da zum einen x2 = (−x)2 gilt und zum anderen die Quadratwurzel nur für positive reelle Zahlen existiert.

54 | 3 Analysis Wie bereits im Zusammenhang mit Abbildungen erwähnt, sind auch hier die Begriffe Injektivität, Surjektivität und Bijektivität von zentraler Bedeutung. Eingeschränkt auf die Definitionsmenge der positiven reellen Zahlen, R+ , ist die Wurzeloperation offensichtlich injektiv, da keine zwei verschiedenen Argumente das gleiche Resultat zur Folge haben. Weiterhin ist sie auch surjektiv, da sie keine obere Schranke ⌋︂ besitzt, d. h. f (x) = x ist bijektiv, es ist also möglich, eine Umkehrfunktion zu definieren. Unter der gleichen Bedingung, d. h. eingeschränkt auf die Definitionsmenge R+ ist auch die Quadratfunktion bijektiv, was nicht mehr der Fall wäre, falls sie auf ganz R betrachtet würde. Gilt für eine Funktion f (x) = f (−x), ist sie also symmetrisch in Bezug auf die y-Achse, so heißt sie gerade Funktion. Ein Beispiel hierfür ist die Parabel f (x) = x2 . Ist hingegen f (x) = −f (−x), wie es beispielsweise für f (x) = x3 der Fall ist, d. h. ist die Funktion punktsymmetrisch bezüglich des Koordinatenursprungs, so wird sie als ungerade Funktion bezeichnet.

3.3.1 Grenzwerte Wie schon bei Folgen und Reihen stellt sich auch bei Funktionen die Frage nach ihrer Konvergenz beziehungsweise Divergenz und damit nach der Existenz von Grenzwerten. Während bei Folgen (und Reihen) das Verhalten derselben meist für gegen Unendlich gehenden Index i oder n betrachtet wird, nimmt dessen Rolle bei Funktionen meist ein Funktionsargument aus R ein. Analog zur harmonischen Folge sei die Funktion 1 f (x) = x betrachtet. Klar ist, dass der Grenzwert dieser Funktion gegen 0 geht, wenn das Funktionsargument gegen unendlich läuft, d. h. es ist lim

x→∞

1 = 0. x

Gleiches gilt, wenn x gegen −∞ läuft: lim

x→−∞

1 =0 x

Ein solches Verhalten wird als asymptotisch bezeichnet – der Funktionswert kommt dem Wert 0 beliebig nahe, ohne ihn jedoch jemals zu erreichen. Was aber ist, wenn, was bei einer Folge nicht geschehen kann, x gegen 0 geht? Und was geschieht im vorliegenden Fall, wenn x von rechts bzw. von links kommend gegen 0 geht? Abb. 3.4 zeigt einen Ausschnitt des Graphen dieser Funktion rund um den Koordinatenursprung. Nähert man sich von rechts kommend dem Wert 0, so steigt der Funktionswert über alle Grenzen an, geht also gegen ∞. Nähert man sich von links

3.3 Funktionen

| 55

f (x) =

1 x

10

0

−10

−2

0 x

Abb. 3.4: Graph der Funktion f (x) =

2

1 x

der Null, so geht die Funktion offensichtlich gegen −∞, es ist also mitunter von zentraler Bedeutung, von welcher Richtung aus kommend der Grenzwert einer Funktion betrachtet wird. Entsprechend muss zwischen einem rechts- und einem linksseitigen Grenzwert unterschieden werden. In der Praxis wird der rechtsseitige Grenzwert durch ein „+“ neben dem Wert, auf den x zuläuft, bezeichnet (man nähert sich ja von größeren Werten herkommend), während der linksseitige Grenzwert durch ein „−“ repräsentiert wird. Im vorliegenden Beispiel gilt also 1 = ∞ und x 1 lim = −∞. x→0− x lim

x→0+

Die Funktion f (x) = 1x ist also bestimmt divergent für x → 0. Vorsicht: Diese Funktion ist an der Stelle 0 nicht definiert, d. h. der Wert von f (0) existiert nicht – entsprechend ist der Definitionsbereich hier R/ {0}. Solche Stellen, an denen eine Funktion bestimmt divergiert, werden als Polstellen bezeichnet.

3.3.2 Stetigkeit Ein weiterer zentraler Begriff im Zusammenhang mit Funktionen ist jener der Stetigkeit. Anschaulich und wie schon zuvor ein wenig hemdsärmelig betrachtet, kann man sich eine stetige Funktion als eine Funktion vorstellen, deren Graph sich quasi ohne Absetzen des Stiftes zeichnen lässt, d. h. eine Funktion, die keine Sprünge, beispielsweise in Form von Polstellen, aufweist. Mathematisch präziser lässt sich die Idee der Stetigkeit wie in Abbildung 3.5 dargestellt auffassen: Eine Funktion ist an einem Punkt ξ stetig, wenn es zu jedem ε > 0

56 | 3 Analysis

⋃︀f (x) − f (ξ )⋃︀ < ε

⋃︀x − ξ ⋃︀ < δ Abb. 3.5: Konzept der Stetigkeit

ein δ > 0 gibt, so dass für alle Funktionsargumente x in einer Umgebung der Breite δ um den Punkt ξ herum stets ⋃︀f (x) − f (ξ )⋃︀ < ε gilt.³⁶ Anschaulich bedeutet dies also, dass die Funktionswerte für kleine Änderungen des Funktionsargumentes auch nur kleinen Änderungen unterliegen. Ist also eine Funktion an einem Punkt ξ stetig, so lässt sie sich sozusagen in eine „Schachtel“ der Breite δ und Höhe ε packen, wobei es für jede noch so kleine Höhe der „Schachtel“ eine „passende“ Breite gibt, was insbesondere Sprünge der Funktion ausschließt, da hier die Mindesthöhe der „Schachtel“ durch die Höhe des Funktionssprunges festgelegt wäre und nicht von ε abhinge. Dieser Stetigkeitsbegriff lässt sich auch auf einen rechts- und einen linksseitigen Grenzwert zurückführen: Existieren beide Grenzwerte r = lim f (x) und x→ξ +

l = lim f (x) x→ξ −

und gilt überdies r = l = f (ξ ), d. h. sind der rechts- und der linksseitige Grenzwert von f (x) an der Stelle ξ beide gleich f (ξ ), so ist die Funktion am Punkt ξ stetig. Existieren zwar beide Grenzwerte r und l, weichen aber von f (ξ ) ab, so ist die Funktion an dieser Stelle unstetig, aber diese Unstetigkeit ist hebbar, indem man eine neue Funktion definiert, die – außer an dieser Stelle – gleich f (x) ist, und am Punkt ξ anstelle von f (ξ ) den Wert r = l besitzt. Eine Funktion, welche diese Anforderung in einem Punkt ξ erfüllt, heißt punktweise stetig. Ist sie an jedem Punkt ihres Definitionsbereiches stetig, so wird sie einfach nur stetig genannt. Ein extremes Beispiel für eine unstetige Funktion zeigt Abbildung 3.6 anhand der Funktion f (x) = (︀x⌋︀ – die eckigen Klammen werden auch Gauß-Klammern genannt und liefern zu einem rellen Argument die jeweils größte natürliche Zahl, die kleiner oder gleich dem Argument ist, sie runden also ab.

36 Hier wird stillschweigend vorausgesetzt, dass alle betrachteten Argumente stets im Definitionsbereich der Funktion liegen.

3.3 Funktionen

| 57

y 2 1

−2

1

−1

2

x

−1

−2

−3

Abb. 3.6: Eine unstetige Funktion am Beispiel von f (x) = (︀x⌋︀

Der obige Begriff der punktweisen Stetigkeit, bei dem die Wahl von δ > 0 sowohl von ε als auch vom jeweiligen Wert ξ abhängt, kann zum Begriff der gleichmäßigen Stetigkeit erweitert werden, bei dem ξ keine Rolle mehr spielt. Eine Funktion f , die von einem Definitionsbereich D auf R abbildet, ist genau dann gleichmäßig stetig, wenn ∀ε > 0∃δ > 0∀x, ξ ∈ D ∶ ⋃︀x − ξ ⋃︀ < δ ⇒ ⋃︀f (x) − f (ξ )⋃︀ < ε gilt. Ein Beispiel mag den Unterschied zwischen punktweiser und gleichmäßiger Stetigkeit verdeutlichen: Die Funktion f (x) = 1x ist zwar punktweise stetig, da sie auf R/ {0} definiert ist, aber sie ist nicht gleichmäßig stetig, da, wenn man sich von rechts oder links kommend der 0 nähert, die Funktion derart schnell steigt beziehungsweise fällt, dass die Höhe der gedachten „Schachtel“ um jeden Punkt ξ im Definitionsbereich nicht mehr von ξ unabhängig sind. Insbesondere ist offenbar jede gleichmäßig stetige Funktion auch punktweise stetig, was allerdings umgekehrt nicht der Fall ist.

3.3.3 Polynome Eine sehr wichtige Klasse von Funktionen sind die sogenannten Polynome, die auch als ganzrationale Funktionen bezeichnet werden und allgemein folgende Gestalt besitzen: n

p(x) = a n x n + a n−1 x n−1 + ⋅ ⋅ ⋅ + a1 x + x0 = ∑ a i x i , i=0

wobei der höchste auftretende Exponent eines Terms mit von 0 verschiedenem Vorfaktor a i den Grad des Polynoms bestimmt.³⁷ Die Faktoren a i werden als Koeffizien37 Manchmal wird anstelle von p(x) auch p n (x) geschrieben, wenn der Grad n besonders betont werden soll.

58 | 3 Analysis ten bezeichnet. Unter einer algebraischen Gleichung versteht man einen Ausdruck der Form p(x) = 0. Polynome sind in der Regel „angenehme“ Funktionen, da sie stetig sind und sich mit ihrer Hilfe oft kompliziertere Funktionen approximieren, d. h. annähern lassen. Ein Polynom mit Grad 0 ist eine konstante Funktion, Grad 1 wird linear genannt, Grad 2 qudratisch, Grad 3 kubisch und Grad 4 quartisch. Ist der höchste Koeffizient eines Polynoms gleich 1, so wird das Polynom normiert genannt. Die bekannte Parabelfunktion f (x) = x2 ist also ein normiertes quadratisches Polynom. Der Quotient zweier Polynome p(x) und q(x), f (x) =

p(x) q(x)

wird entsprechend als gebrochen rationale Funktion bezeichnet. An Stellen, an denen q(x) = 0 wird, den sogenannten Nullstellen³⁸ des Polynoms q(x), ist f (x) nicht definiert – hier liegen die Polstellen. Eine häufige Aufgabe ist die Bestimmung von Nullstellen eines Polynoms. Ein Polynom nullten Grades ist offensichtlich nur dann Null, wenn der Koeffizient a0 = 0 ist, d. h. ein solches Polynom ist, wenn überhaupt, dann überall gleich Null. Ein Polynom ersten Grades, d. h. eine Gerade, kann ganz anschaulich maximal eine Nullstelle besitzen. Interessanter wird es bei Polynomen höheren Grades. Ist beispielsweise p(x) = a2 x2 + a1 x + a0 , so wird der Funktionsgraph zunächst parabelförmig aussehen. Lässt man Gedanken einmal den Term a1 x fort, so entsteht eine Parabel, die mit Hilfe des Koeffizienten a0 senkrecht verschoben werden kann, wie in Abb. 3.7 gezeigt. Ein solches Polynom kann offensichtlich keine (die Parabel liegt über der x-Achse), eine (die Parabel berührt die x-Achse in genau einem Punkt) oder zwei Nullstellen (die Parabel schneidet die xAchse in zwei Punkten) haben. Ist eine Nullstelle x0 eines Polynoms p(x) bekannt, so kann das Polynom durch x − x0 , einen sogenannten Linearfaktor dividiert werden, wie folgendes Beispiel mit p(x) = x3 − 3x2 − 13x + 15 zeigt. Dieses Polynom besitzt unter anderem eine Nullstelle bei x0 = 1, was die Division durch den Linearfaktor x − 1 ermöglicht, wie Abb. 3.8 zeigt. Allgemein gilt, dass die Division eines Polynomes n-ten Grades durch ein Polynom m-ten Grades (wobei m < n gilt), ein Polynom n − m-ten Grades liefert. Dieser Prozess lässt sich fortsetzen – kennt man eine weitere Nullstelle, in diesem Fall x1 = 5, so kann das aus dieser Division resultierende Polynom q(x) = x2 − 2x − 15 38 Mitunter werden diese auch als Wurzeln des Polynoms bezeichnet.

3.3 Funktionen

| 59

0

Abb. 3.7: Mögliche Lagen einer Parabel x3 −(x 3

−3x 2 −13x +15 ÷ x − 1 = x 2 −2x −15 −x 2 ) −2x 2 −13x −(−2x 2 +2x) −15x +15 −(15x +15) 0

Abb. 3.8: Division des Polynoms p(x) = x 3 − 3x 2 − 13x + 15 durch x − 1

durch x − 5 dividiert werden, was dann ein Polynom ersten Grades der Form x + 3 liefert. Eine solche Polynomdivision kann im Allgemeinen durchaus einen Divisionsrest liefern – etwas, das im Zusammenhang mit Prüfsummen bei Computernetzwerken von großer Bedeutung ist. Hierauf beruhen beispielsweise die sogenannten Cyclic Redundancy Checksums, kurz CRCs. Hier werden die Bits eines Datenpaketes als Koeffizienten eines Polynoms sehr hohen Grades (durchaus > 1000) aufgefasst. Dieses Polynom wird dann durch ein sogenanntes Generatorpolynom dividiert, das fest definiert ist. Vorher wird das Nachrichtenpolynom jedoch um soviele 0-Terme auf der rechten Seite erweitert, d. h. seine Koeffizienten werden um so viele Stellen (Bits) nach links verschoben, wie dem Grad des Generatorpolynoms entspricht. Die Koeffizienten des bei dieser Polynomdivision entstehenden Restpolynoms sind die CRC-Bits und werden dann an die ursprüngliche Nachricht angehängt und mit dieser versandt. Auf der Empfängerseite wird nun die Nachricht mit den angehängten CRC-Bits der gleichen Polynomdivision unterworfen, die einen Rest 0 lässt, wenn bei der Übertragung keine Fehler aufgetreten sind. Dieses Verfahren ist extrem empfindlich gegenüber allen möglichen Übertragungsfehlern und wird in fast allen modernen Netzwerksystemen eingesetzt. Sollen die Nullstellen eines quadratischen Polynoms bestimmt werden, so wird hierfür in der Regel die sogenannte pq-Formel genutzt: }︂ p p 2 x0,1 = − ± ( ) − q, 2 2

60 | 3 Analysis wobei das Polynom zweiten Grades die Form x2 + px + q besitzen muss, d. h. es muss sich um ein normiertes Polynom handeln. Ihre Anwendung sei hier am Beispiel des Polynoms gezeigt, das sich als Ergebnis der Polynomdivision in Abb. 3.8 ergibt, hier ist also p = −2 und q = −15, d. h. ⌋︂ x0,1 = 1 ± 1 + 15 = 1 ± 4, woraus x0 = −3 und x1 = 5 folgt.³⁹ Wie bereits erwähnt, finden Polynome häufig Anwendung, wenn es darum geht, komplizierte(re) Funktionen zu approximieren – beispielsweise lassen sich brauchbare Näherungen für Funktionen wie den Sinus etc. auf Basis von Polynomen aufbauen. Entsprechend wichtig ist es, Polynome effizient für beliebige Argumente auswerten zu können. Betrachtet man ein Polynom der Form p(x) = a n x n + a n−1 x n−1 + ⋅ ⋅ ⋅ + a1 x + a0 ,

(3.8)

so müssten bei einer naiven Herangehensweise alle Potenzen x i für 2 ≤ i ≤ n berechnet werden, was vergleichsweise aufwändig ist. An dieser Stelle stellt das nach dem englischen Mathematiker William George Horner benannte Horner-Schema eine wesentlich elegantere Methode zur Bestimmung des Wertes eines Polynoms für ein gegebenes Argument x dar. Hierzu wird das ursprüngliche Polynom (3.8) durch geschicktes Ausklammern in die Form p(x) = a0 + x(a1 + x(a2 + x(a3 + ⋅ ⋅ ⋅ + xa n ))) gebracht, zu deren Auswertung keine Potenzen von x mehr explizit berechnet werden müssen. Nicht unerwähnt sollte bleiben, dass Zahlen, die in einem Stellenwertsystem wie dem Dezimalsystem dargestellt werden, letztlich auch als Polynome aufgefasst werden können, wobei an die Stelle des Parameters x die Basis des Stellenwertsystems tritt, während die einzelnen Ziffern den Koeffizienten dieses speziellen Polynoms entsprechen, so ist beispielsweise 1234 = 1 ⋅ 103 + 2 ⋅ 102 + 3 ⋅ 101 + 4 ⋅ 100 .

3.3.4 Algebraische und transzendente Zahlen Zahlen, die Nullstellen von Polynomen der Form (3.8) mit Koeffizienten a i ∈ Q darstellen, werden als algebraische Zahlen bezeichnet. Offensichtlich sind alle rationalen Zahlen q ∈ Q auch algebraische Zahlen, da sie stets Nullstellen eines Polynoms 39 Solche geschlossenen Lösungsformeln für die Bestimmung von Nullstellen von Polynomen gibt es nur für Polynome, deren Grad < 5 ist – konkret lässt sich zeigen, dass es keine solchen Formeln für Polynome mit Grad ≥ 5 gibt, was der Inhalt des Satzes von Abel-Ruffini ist (siehe beispielsweise (Tignol 2001).

3.3 Funktionen |

61

der Form f (x) = x − q sind. Die Einschränkung der Koeffizienten auf rationale Zahlen lässt sich sogar noch auf Koeffizienten aus den ganzen Zahlen verschärfen, indem alle Koeffizienten eines Polynoms mit rationalen Koeffizienten durch Multiplikation mit dem Hauptnenner ganzzahlig gemacht werden. ⌋︂ Hieraus darf jedoch nicht gefordert werden, dass eine Zahl wie 2, die nicht ra⌋︂ tional ist, auch nicht algebraisch sei. 2 beispielsweise ist eine algebraische Zahl, da sie Nullstelle des Polynoms x2 − 2 = 0 ist. Zahlen, die nicht algebraisch sind, werden transzendent genannt. Beispiele hierfür sind die bereits erwähnte Euler’sche Zahl e oder auch π.

3.3.5 e x und log(x) Neben Polynomen kommt auch der sogenannten Exponentialfunktion eine herausragende Bedeutung zu. Allgemein wird hierunter eine Funktion der Form f (x) = a x verstanden – hier tritt also der Parameter x im Exponenten einer sogenannten Basis auf. Besondere Bedeutung kommt hierbei der Basis e, der Eulerschen Zahl zu, da sie in fast allen natürlichen Prozessen, die mit Zerfall oder Wachstum verbunden sind, auftritt. Entsprechend wird im Folgenden unter dem Begriff einer Exponentialfunktion speziell die Funktion exp(x) = e x verstanden. Diese besondere Funktion lässt sich beispielsweise als Grenzwert einer Folge auffassen: x i e x = lim (1 + ) i→∞ i Ebenso ist auch die Interpretation dieser Funktion als Reihe möglich: ∞

ex = ∑ i=0

xi , i!

wobei das Ausrufungszeichen wieder die Fakultätsfunktion bezeichnet. Abb. 3.9 zeigt den Graphen der Exponentialfunktion sowie ihre Umkehrfunktion, den natürlichen Logarithmus. Wie sich hier schon andeutet, ist der Definitionsbereich von exp(x) ganz R, während der des Logarithmus nur R+ ist. So, wie die allgemeine Exponentialfunktion a x eine Basis a besitzt, gilt dies auch für die jeweilige Umkehrfunktion, bei der es sich stets um einen Logarithmus handelt, der ebenfalls zur Basis a betrachtet wird. Drei bestimmte Basen treten so häufig auf, dass die zugehörigen Logarithmen eigene Namen besitzen. Im bereits erwähnten Falle der Basis e spricht man vom natürlichen Logarithmus, meist ln(x) geschrieben, kurz für logarithmus naturalis. Die Basis 10 führt auf den dekadischen oder auch Brigg’schen Logarithmus, benannt nach

62 | 3 Analysis

5

y

exp(x) 0

ln(x)

−5

−5

0 x

5

Abb. 3.9: exp(x) und ln(x)

Henry Briggs, der häufig einfach als log(x) oder auch lg(x) notiert wird. In der Informatik wird häufig der Logarithmus zur Basis 2 benötigt, der als logarithmus dualis, kurz ld(x) bezeichnet wird. Im Zweifelsfall kann die Basis immer explizit bei der Logarithmusfunktion als Index angegeben werden – allgemein wird dann der Logarithmus zu einer Basis a als loga (x) notiert. Logarithmen spielen in allen Bereichen der Technik und Naturwissenschaft eine zentrale Rolle, da mit ihnen zum einen Rechnungen häufig stark vereinfacht, zum anderen auch das Hantieren mit Werten extrem unterschiedlicher Größenordnungen erleichtert wird. Angenommen, es gilt a x = y, so ist umgekehrt loga (y) = x, d. h. anschaulich liefert der Logarithmus eines Wertes y zu einer bestimmten Basis a den Wert zurück, mit dem a potenziert werden muss, um y zu erhalten. Entsprechend ist beispielsweise log10 (1000) = 3, woraus sich sofort die Größenordnung des Argumentes 1000 ergibt. Insbesondere ist natürlich aloga (b) = b und umgekehrt

loga (a b ) = b.

Unter Verwendung der Potenzgesetze und der Tatsache, dass exp(x) die Umkehrfunktion des Logarithmus ist, lassen sich aus dieser Eigenschaft leicht einige sehr nützliche Rechenregeln herleiten. Beispielsweise lässt sich die Multiplikation zweier vielleicht unhandlicher Werte auf die Addition ihrer Logarithmen mit nachfolgendem Einsetzen in die Exponentialfunktion zurückführen: x ⋅ y = aloga (x) ⋅ aloga (y) = aloga (x)+loga (b) Auf den ersten Blick sieht dies nicht nach einer Vereinfachung aus, mit Hilfe geeigneter Werkzeuge, wie beispielsweise einer sogenannten Logarithmentafel, wie sie

3.3 Funktionen |

63

Abb. 3.10: Ausschnitt aus einer Logarithmentafel von 1889 (Vega 1998:112)

bis in die 1970er Jahre hinein eingesetzt wurde, lassen sich auf dieser Basis jedoch vergleichsweise einfach Multiplikationen, Divisionen, das Berechnen von Potenzen und Wurzeln etc. durchführen. Abbildung 3.10 zeigt einen Ausschnitt aus einer solchen klassischen Logarithmentafel aus dem Jahre 1889, die Logarithmen zur Basis 10 für Werte 1 ≤ x ≤ 10 in sehr feiner Abstufung enthält. Soll nun mit ihrer Hilfe beispielsweise die Multiplikation 6305, 7 ⋅ 6310 durchgeführt werden, was per Hand ausgesprochen mühsam und fehleranfällig ist, werden zunächst die Logarithmen dieser beiden Werte aufgesucht. Hierfür müssen zunächst beide Werte in eine Form gebracht werden, wie sie heutigen normalisierten Gleitkommazahlen entspricht, die Multiplikation wird also zunächst als 6, 3057 ⋅ 103 ⋅ 6, 31 ⋅ 103 = 6, 3057 ⋅ 6, 31 ⋅ 106

(3.9)

geschrieben. Die eigentliche Aufgabe reduziert sich also auf die Multiplikation der quasi normalisierten Werte 6, 3057 und 6, 31. Im nächsten Schritt werden die Logarithmen dieser beiden Werte in der Tabelle nachgeschlagen und addiert, (log(6, 3057) ≈ 0, 7997333) + (log(6, 31) ≈ 0, 8000294) ≈ 1, 5997627, eine Operation, die wesentlich einfacher als eine Multiplikation per Hand ausgeführt werden kann. Nun muss lediglich der Wert von 101,5997627 bestimmt werden, was wieder mit einem Blick in die Logarithmentafel gelingt.⁴⁰ In diesem Fall ergibt sich hierfür 40 In Fällen wie diesem, wo der nachgeschlagene Wert just zwischen zwei Einträgen der Tabelle liegt, muss interpoliert werden, d. h. es wird auf Basis der beiden nächstgelegenen Nachbarwerte ein Näherungswert für den gesuchten Eintrag bestimmt.

64 | 3 Analysis

Abb. 3.11: Faber-Castell 2/83N Rechenschieber

der Näherungswert 39, 789, der nun noch mit dem Faktor 106 aus (3.9) multipliziert werden muss, was das gesuchte (näherungsweise) Multiplikationsergebnis 39789000 liefert. Auf dem gleichen Prinzip, d. h. der Umwandlung einer Multiplikation oder auch Division in die Addition beziehungsweise Subtraktion der zugehörigen Logarithmen mit anschließendem Bilden der Exponentialfunktion beruht auch der heute fast in Vergessenheit geratene Rechenschieber, wie ihn exemplarisch Abb. 3.11 zeigt. Ein solches Werkzeug, das ebenfalls bis etwa in die 1970er Jahre zum Standardrepertoire eines jeden Ingenieurs und Naturwissenschaftlers gehörte, besteht im Wesentlichen aus drei Bestandteilen: Einem Körper, einer gegen diesen verschiebbaren Zunge sowie einem Läufer, der als Ablese- und Einstellhilfe fungiert. Körper und Zunge tragen im einfachsten Falle logarithmisch unterteilte Skalen, so dass deren Werte durch Verschieben der Zunge gegenüber dem Läufer addiert oder subtrahiert werden können. Da die Skalen logarithmisch unterteilt sind, kann das Ergebnis einer Multiplikation oder Division direkt abgelesen werden, wobei zu beachten ist, dass der Rechenschieber, analog zu modernen Gleitkommazahlen, letztlich nur mit der Mantisse der zu verarbeitenden Zahlen rechnet. Die Bestimmung der Größenordnung des Ergebnisses muss per Hand bzw. im Kopf bei der Rechnung erfolgen.⁴¹ Die wesentlichen Logarithmusrechengesetze lauten wie folgt: loga (xy) = loga (x) + loga y x loga ( ) = loga (x) − loga (y) y loga (x y ) = y log(x) ⌋︂ 1 1 loga ( n x) = loga (x n ) = loga (x) n

41 Leistungsfähigere Rechenschieber, wozu auch das gezeigte Modell gehört, verfügen über eine Vielzahl von Skalen, von denen meist nur wenige Paare einfach logarithmisch unterteilt sind. Andere Skalen gestatten beispielsweise das Ablesen der Werte trigonometrischer Funktionen wie Sinus und Cosinus, sogenannte doppeltlogarithmische Skalen erlauben auch die einfache Berechnung beliebiger Potenzen und Wurzeln etc.

3.3 Funktionen |

65

Da der Logarithmus nur sehr langsam mit seinem Argument anwächst, bietet es sich an, bei Fragestellungen, die Werte stark unterschiedlicher Größenordnungen beinhalten, direkt mit den Logarithmen zu arbeiten. Beispielsweise verwendet man in der Nachrichtentechnik ein als Dezibel,⁴² kurz dB bezeichnetes Verhältnismaß, das beispielsweise im Zusammenhang mit der Verstärkung oder Abschwächung eines Signales, das eine Übertragungsstrecke durchläuft, zum Einsatz gelangt. Allgemein ist dieses Maß für Leistungen P wie folgt definiert: v = 10 log (

PAusgang ) (︀dB⌋︀ PEingang

(3.10)

Ein Verstärker, der beispielsweise ein Eingangssignal mit einer Leistung von 1 W in ein Ausgangssignal von 1000 W umsetzt, wird entsprechend durch die Angabe, dass seine Verstärkung 30 dB beträgt, charakterisiert. Entsprechend weist eine Übertragungsstrecke, die ein an einem Ende eingespeistes Signal von 1000 W auf 10−6 W abschwächt, was in der Nachrichtentechnik keinesfalls unüblich ist, eine Dämpfung von −90 dB auf. Da es sich hierbei um ein logarithmisches Maß handelt, kann die Gesamtstreckendämpfung einer aus mehreren verstärkenden und abschwächenden Abschnitten bestehenden Übertragungsstrecke einfach durch Addition der entsprechenden Verstärkungs- bzw. Dämpfungsfaktoren in dB bestimmt werden. Besteht eine Strecke beispielsweise aus vier dämpfenden Teilstrecken, die jeweils −40 dB Streckendämpfung aufweisen, wobei zwischen jeweils zwei solchen Abschnitten ein Verstärker, der eine Verstärkung von 30 dB aufweist, angeordnet ist, so ergibt sich die Gesamtstreckendämpfung zu −40 dB + 30 dB − 40 dB + 30 dB − 40 dB + 30 dB − 40 dB = −70 dB. Häufig ist – gerade in der Nachrichtentechnik – auch das Verhältnismaß für die Verstärkung oder Abschwächung von Spannungen anstelle von Leistungen von Interesse, was mit Hilfe der Logarithmusrechengesetze leicht aus der Definition des Dezibel hergeleitet werden kann. Allgemein gilt, wie aus der Physik (vgl. Kap. II.9) bekannt, P = U ⋅ I, wobei P die Leistung, U die Spannung und I den Strom repräsentieren. Weiterhin gilt I = UR mit einem Widerstand R, woraus sich P=

U2 R

ergibt. Aus (3.10) ergibt sich dann 2

⎛ Uaus ⎞ Uaus U2 Paus ) = 20 log ( v = 10 log ( ) = 10 log ⎜ R2 ⎟ = 10 log ( aus ) (︀dB⌋︀ . 2 Uein Pein Uein U ⎝ R ⎠ ein 42 Die zugrunde liegende Einheit ist das nach Alexander Graham Bell benannte Bel, das sich vom Dezibel nur durch den fehlenden Vorfaktor 10, der aus Gründen der Handlichkeit der resultierenden Werte eingeführt wurde, unterscheidet.

66 | 3 Analysis 104

2,000

exp(x)

exp(x)

3,000

1,000 0 −5

0 x

100

10−4

5

−5

0 x

5

Abb. 3.12: exp(x) in linearer und in logarithmischer Darstellung

Die beiden Verhältnismaße für Leistungen und Spannungen unterscheiden sich also nur im multiplikativen Vorfaktor, der bei Leistungen definitionsgemäß gleich 10 ist, woraus sich für Spannungen der Faktor 20 ergibt. Ein Spannungsverstärker mit einem Verstärkungsfaktor von 106 besitzt also eine Verstärkung von 120 dB. Mitunter wird auch zur Darstellung von Messwerten oder Funktionsgraphen eine sogenannte logarithmische Darstellung genutzt, bei der eine oder zwei Achsen eines meist kartesischen Koordinatensystems logarithmisch und nicht linear unterteilt ist, wie in Abb. 3.12 am Beispiel der Exponentialfunktion dargestellt wird. Die linke, gewöhnliche Darstellung des Funktionsgraphen ist wenig aussagekräftig, weil die yAchse mit extrem großer Schrittweite unterteilt werden muss, um den Bereich von (︀−8 ∶ 8⌋︀ auf der x-Achse abdecken zu können, da die Funktion exp(x) so stark ansteigt. Die gleiche Funktion in logarithmischer Darstellung ist rechts in Abb. 3.12 zu sehen – hier ergibt sich aufgrund der logarithmischen Unterteilung der y-Achse ein linearer Graph, der das Verhalten von exp(x) sowohl für kleine als auch für große Argumente x deutlich besser widerspiegelt. In der Informatik tritt der Logarithmus auch bei der Bestimmung des Informationsgehaltes eines Zeichens beziehungsweise einer Nachricht auf. Angenommen, ein Zeichen x tritt mit einer Wahrscheinlichkeit⁴³ von 0 ≤ p x ≤ 1 auf, wobei eine Wahrscheinlichkeit von 1 dem fortwährenden Auftreten des Zeichens entspricht, während eine solche von 0 bedeutet, dass das Zeichen niemals auftritt, so ist der auf Claude Elwood Shannon zurückgehende Informationsgehalt eines Zeichens x als I(x) = loga (

1 ) = − loga (p x ) px

definiert, wobei in der Informatik meist die Basis a = 2, d. h. der logarithmus dualis genutzt wird. Angenommen, in der Kommunikation zwischen zwei Kommunikations-

43 Siehe Kapitel 5.

3.3 Funktionen |

67

partnern A und B⁴⁴ treten lediglich zwei verschiedene Zeichen a und b auf, wobei a mit einer Wahrscheinlichkeit von pa = 0, 99, d. h. 99%, übertragen wird, während b nur in 1% der Fälle, d. h. mit pb = 0, 01 auftritt, so besitzen a und b einen Informationsgehalt von I(a) = −ld(0, 99) ≈ 0, 014499 und I(b) = −ld(0, 01) ≈ 6, 643856, was direkt als Bitanzahl interpretiert werden kann. Das extrem selten auftretende Zeichen b transportiert also wesentlich mehr Information als a (vgl. Band 1, Kap. II.4.1.2)

3.3.6 Trigonometrische Funktionen Üblicherweise werden trigonometrische Funktionen,⁴⁵ allen voran Sinus, Cosinus und Tangens, mit geometrischen Fragestellungen in Zusammenhang gebracht, wie in Abbildung 3.13 zu sehen ist. Die Funktion sin(φ) eines Winkels⁴⁶ φ ist hier definiert als der Quotient der Gegenkathete (bezogen auf den Winkel φ) und der Hypothenuse, die am hier dargestellten Einheitskreis gleich 1 ist: sin(φ) =

Gegenkathete Hypothenuse

Entsprechend ist cos(φ) der Quotient von Ankathete und Hypothenuse: cos(φ) =

Ankathete Hypothenuse

Die Tangensfunktion ist tan(φ) =

Gegenkathete sin(φ) = . Ankathete cos(φ)

Natürlicherweise tauchen diese Funktionen bei nahezu allen geometrischen Fragestellungen, so z. B. auch bei der Landvermessung etc. auf und sind seit Jahrtausenden Bestandteil der Mathematik. Heute hat sich der Anwendungsschwerpunkt hin zur Signalverarbeitung und damit der Audio-, Video- und Netzwerktechnik verschoben. 44 Diese werden meist Alice und Bob genannt. 45 Der Name rührt daher, dass diese Funktionen eng mit der Untersuchung von Dreiecken verbunden sind. 46 In der Mathematik und den meisten Naturwissenschaften werden Winkel im Bereich von 0 bis 2π angegeben, was einem vollen Umlauf um einen Kreis entspricht. Dieses Maß wird als Radiant bezeichnet, kurz rad, wobei ein Vollwinkel, d. h. eine komplette Kreisbewegung, 2π rad entspricht. Im täglichen Leben sind in 360 Schritte unterteilte Winkelgrade, auch Altgrad genannt, gebräuchlich, während im militärischen Umfeld und der Vermessungstechnik nicht selten eine Unterteilung in 400 Schritte, das sogenannte Gon, genutzt wird.

68 | 3 Analysis

1

tan(φ)

sin(φ) φ cos(φ)

Abb. 3.13: Die Definition von sin(φ), cos(φ) und tan(φ) am Einheitskreis

2 − 34 π

0 −2π

3 4π

−π

− 2π

0

π 2

π



−2 Abb. 3.14: Funktionsgraphen von sin(φ) (durchgezogen), cos(φ) (gestrichelt) und tan(φ) (gepunktet)

Betrachtet man die Graphen dieser drei grundlegenden Funktionen, wird zunächst ihre Periodizität offensichtlich, die Funktionswerte wiederholen sich alle 2π, was gerade einem Kreisumlauf entspricht. sin(φ) ist hierbei ein Beispiel für eine ungerade Funktion, da sin(−φ) = − sin(φ) gilt, während cos(φ) eine gerade Funktion ist, da cos(−φ) = cos(φ) erfüllt ist. Offensichtlich sind die Funktionsgraphen von sin(φ) und cos(φ) gegeneinander phasenverschoben mit einem Phasenwinkel von 2π , es gilt also 1 sin(φ) = cos (φ − π) . 2 Allgemein spielen solche Phasenverschiebungen beispielsweise in der Elektrotechnik eine zentrale Rolle, wenn (meist) sinusförmige Spannungen an kapazitiven oder induktiven Lasten anliegen und hier einen zwar an sich auch sinusförmigen Strom zur Folge haben, der jedoch gegenüber der betrachteten Spannung eine Phasenverschiebung aufweist. Auch in der Netzwerktechnik, in der bei hinreichend hohen Übertragungsraten und damit Frequenzen bereits kurze Leitungsabschnitte einen nicht mehr zu vernachlässigenden induktiven und kapazitiven Charakter erhalten, spielen sie eine wichtige Rolle.

3.3 Funktionen |

69

Eine harmonische, d. h. insbesondere sinus- oder cosinusförmige, Schwingung lässt sich mathematisch beispielsweise durch f (t) = sin(ωt) beschreiben, wobei die Variable t die Zeit repräsentiert, während durch ω = 2πf die sogenannte Kreisfrequenz dargestellt wird. f bezeichnet hierbei die Frequenz,⁴⁷ die in Hz⁴⁸ gemessen wird. f beschreibt, wieviele Perioden ein solches Signal pro Sekunde durchläuft, während der Faktor 2π im Ausdruck für ω der Tatsache Rechnung trägt, dass eine solche Periode einem vollen Umlauf des Argumentwinkels um einen Kreis entspricht. Der zeitabhängige, sinusförmige Verlauf der Netzspannung, die in Europa eine Frequenz von 50 Hz besitzt,⁴⁹ wird also durch f (t) = sin(2 ⋅ 50πt) beschrieben. Wie viele andere Funktionen auch, lassen sich sin(φ) und cos(φ) auch als Reihen darstellen, wovon häufig Gebrauch gemacht wird: sin(φ) = cos(φ) =

∞ φ1 φ3 φ5 φ7 φ2i+1 − + − + ⋅ ⋅ ⋅ = ∑(−1)i 1! 3! 5! 7! (2n + 1)! i=0 ∞ φ2i φ0 φ2 φ4 φ6 − + − + ⋅ ⋅ ⋅ = ∑(−1)i 0! 2! 4! 6! (2n)! i=0

(3.11) (3.12)

Von zentraler Bedeutung sind sin(φ) und cos(φ) heutzutage in der Audio-, Video- und allgemein der Nachrichtentechnik, bei der Analyse von Messwerten, der Bildbearbeitung etc., was im Wesentlichen auf Ideen zurückgeht, die im frühen 19. Jahrhundert von Jean Baptiste Joseph Fourier entwickelt wurden und heute unter dem Begriff der Fourier-Analysis zusammengefasst werden. Zwei grundlegende Operationen sind hierbei die sogenannte Fourier-Analyse und die Fourier-Synthese, die quasi als Umkehrfunktionen zueinander aufgefasst werden können.⁵⁰ Mit Hilfe der Fourier-Analyse kann ein in der Regel zeitlich variierendes, aber periodisches Signal, beispielsweise ein Ausschnitt eines Musikstückes oder auch ein Bildsignal, in sinus- bzw. cosinusförmige Komponenten zerlegt werden – eine Operation, welche die Grundlage vieler moderner Kompressionsverfahren wie beispielsweise MP3 und anderen darstellt. Ein kleines Beispiel soll die Grundidee verdeutlichen: Abbildung 3.15 zeigt zwei Perioden eines 2π-periodischen Rechtecksignales.

47 Nicht zu verwechseln mit der Kreisfrequenz! 48 Siehe Kapitel 2.3.8. 49 Konkret kann die Netzfrequenz in sehr geringem Maße hiervon abweichen, was bei einem Missverhältnis zwischen produzierter und verbrauchter Leistung eintritt. 50 Dies und die folgenden Ausführungen sind stark vereinfacht und dienen im Wesentlichen der Anschauung – eine detaillierte Darstellung findet sich beispielsweise in (Körner 1989).

70 | 3 Analysis 1

0

−1 −4

−6

0

−2

2

4

6

t Abb. 3.15: Rechtecksignal mit Periodenlänge 2π im Intervall (︀−2π, 2π⌋︀

1.5 1 0.5 0

0

1

2

3

4

5

6

7

8

9

10

11

Frequenz Abb. 3.16: Frequenzspektrum eines Rechtecksignales bis zur zehnfachen Grundfrequenz

Mit Hilfe einer Fourier-Analyse kann ein solches Signal nun in Komponenten, d. h. in ein Frequenzspektrum zerlegt werden, wie es Abb. 3.16 zeigt. Jeder Punkt auf der xAchse entspricht der Frequenz einer einfachen sinus-Komponente. Das ursprüngliche Rechtecksignal besteht zwar im Prinzip aus unendlich vielen solcher Komponenten, dargestellt sind hier jedoch nur die ersten fünf. Die erste Komponente besitzt die gleiche Frequenz bzw. Periode wie das Rechtecksignal. Die zweite Kompoenente besitzt bereits die dreifache Frequenz, hat allerdings auch nur ein Drittel der Amplitude⁵¹ der ersten Komponente usf.

51 Unter dem Begriff der Amplitude wird die maximale Auslenkung einer Funktion – in diesem Falle einer Sinusfunktion – in y-Richtung verstanden. Da sin(φ) stets im Intervall (︀−1, 1⌋︀ liegt, kann ein Sinussignal mit Amplitude A durch die Funktion A sin(φ) erzeugt werden.

3.3 Funktionen

| 71

1 0

−1 −6

−4

−2

0

2

Abb. 3.17: Die ersten fünf Grundkomponenten eines Rechtecksignales, 4 sin(10πt) usf. 5π

4 4 π

sin(2πt),

6 4 3π

sin(6πt),

Setzte man diese Reihe unendlich weit fort, wobei die allgemeine Form der n-ten Komponente k n (t), n > 0 in diesem Fall gleich k n (t) =

4 sin(2(2n − 1)πt) (2n − 1)π

ist (t repräsentiert wieder die Zeit) so ließe sich aus diesen Komponenten wieder das ursprüngliche Signal rekonstruieren. Dies ist beispielsweise bei der Kompression von Audio- und Videodaten von Interesse: Hier wird (stark vereinfacht) zunächst das von Mikrofon beziehungsweise Kamera gelieferte Signal in solche grundlegenden Sinus- und Cosinus-Komponenten zerlegt. Da hierbei ein Signal, das von der Zeit abhängt, in etwas von der Frequenz Abhängiges umgeformt wird, spricht man von einer Transformation vom Zeitbereich in den Frequenzbereich. Dann werden beispielsweise alle Komponenten entfernt, deren Frequenz so hoch oder niedrig oder deren Amplitude so gering ist, dass sie nicht mehr wahrgenommen werden können. Aus den verbleibenden gefilterten Komponenten wird dann in einem weiteren Schritt wieder ein Signal zusammengebaut, das dem ursprünglichen Signal nahe kommt, aber – je nach Kompressionsrate – deutlich weniger Speicher bzw. Übertragungsbandbreite erfordert. In dieser Richtung findet also eine (Rück)Transformation vom Frequenz- in den Zeitbereich statt. Wird die Kompressionsrate zu hoch gewählt, d. h. werden zuviele Komponenten entfernt, ergeben sich hörbar dumpfe Aufnahmen oder sichtbar verwaschene Bilder – entsprechend werden auf derartigen Mechanismen beruhende Kompressionsverfahren auch als verlustbehaftete Kompression bezeichnet (vgl. Band 1, Kap. II.4.6.1), da ein Verlust an Ton- bzw. Bildqualität in Kauf genommen wird. Die Aufgabe der Fourier-Analyse besteht nun darin, die Koeffizienten der Sinusund Cosinus-Komponenten, d. h. deren Amplitude und Frequenz auf der Grundlage eines Ursprungssignales zu bestimmen. Im vorliegenden Beispiel der Rechteckfunktion wurden nur die ersten fünf Komponenten dargestellt, es fand also bereits eine Filterung statt, indem die eigentlich erforderlichen unendlich vielen weiteren Komponen-

72 | 3 Analysis 1

0

−1 −6

−4

−2

0

2

Abb. 3.18: Approximation eines Rechtecksignals durch sin(x) +

4 1 3

sin(3x) +

1 5

6 sin(5x)

ten unterschlagen wurden. Werden nun diese fünf Komponenten aus Abbildung 3.17 einfach addiert (Fourier-Synthese) ergibt sich die in Abb. 3.18 dargestellte Signalform, die im Wesentlichen dem urspünglichen Rechtsignal entspricht, allerdings aufgrund der geringen Anzahl von Komponenten, die zu seiner Erzeugung genutzt wurden, eine deutlich geringere Flankensteilheit sowie ein deutliches Überschwingen aufweist.⁵² Auch in der Verarbeitung von Messdaten spielen derartige Operationen eine zentrale Rolle. Abb. 3.19 zeigt oben ein ungefiltertes Signal, wie es von einem Seismometer, d. h. einem Messinstrument, mit dem kleinste Bodenbewegungen registriert werden können, aufgenommen wurde. Auf den ersten Blick handelt es sich einfach um Rauschen, wie es aus verschiedenen natürlichen (Wind, Meeresbrandung etc.) und zivilisatorischen Quellen (vornehmlich Verkehr) herrührt. Wird dieses Signal nun mit Hilfe einer Fourier-Analyse in sein Frequenzspektrum zerlegt und dieses gefiltert, indem gezielt diejenigen Frequenzbereiche unterdrückt werden, in denen sich bekannte Störquellen bemerkbar machen, entsteht nach einer anschließenden Fourier-Synthese das unten in der Abbildung dargestellte Signal. Hierbei handelt es sich um ein sogenanntes teleseismisches Ereignis, d. h. ein Erdbeben, das in mehreren 1000 km Entfernung von der Messstation stattfand und fast vollständig im Rauschen untergegangen war.

3.3.7 Infinitesimalrechnung Die sogenannte Infinitesimalrechnung stellt das zentrale Gebiet innerhalb der Analysis dar. Der Begriff beschreibt, dass hierbei das Verhalten von Funktionen auf beliebig kleinen Abschnitten untersucht wird, die jedoch nicht gleich Null werden dürfen. Eine naheliegende Frage, die mit Hilfe solcher Betrachtungsweisen zugänglich ist, ist beispielsweise die nach der Steigung einer Funktion an einer bestimmten Stelle: Wie 52 Hier tritt das nach Josiah Willard Gibbs benannte Gibbs’sche Phänomen auf, nach dem in der Nähe von Sprungstellen derartige Überschwinger auftreten.

3.3 Funktionen

| 73

Abb. 3.19: Filterung seismischer Messdaten

stark steigt der Funktionswert f (x) an, wenn das Funktionsargument x einen beliebig kleinen Zuwachs erfährt? Eine hiermit erstaunlich eng verbundene Fragestellung ist die nach dem Flächeninhalt, der „unter“ einem Funktionsgraphen liegt. Die Steigung einer Funktion, die mit Hilfe der Ableitung dieser Funktion bestimmt wird, ist beispielsweise in der Regelungstechnik von zentraler Bedeutung, wie folgendes Beispiel zeigt: Angenommen, ein Heizkörper in einem Raum soll so geregelt werden, dass die Raumtemperatur möglichst wenig von einer vorgegebenen Solltemperatur abweicht, so könnte man in einem ersten Ansatz beispielsweise die Heizung anstellen, wenn die Ist- unter der Soll-Temperatur liegt und sie abschalten, wenn die Soll-Temperatur erreicht oder überschritten ist. Da allerdings der Raum in der Regel ein nicht zu vernachlässigendes Volumen besitzt, wird dies zu einem als Überschwingen bezeichneten Phänomen führen; die Raumtemperatur wird um den gewünschten Sollwert herum schwanken, da die Heizung zu spät an- und zu spät abgeschaltet wird. Wurde beispielsweise die Soll-Temperatur erreicht, so wird die Heizung abgeschaltet – da sie jedoch noch Restwärme abgibt, wird der Raum noch weiter aufgeheizt, was zur Folge hat, dass die Ist-Temperatur den Sollwert mehr oder weniger stark überschreiten wird. Ähnlich verhält es sich beim Einschalten der Heizung, wenn die Soll-Temperatur unterschritten wird – es dauert eine Weile, bis die Heizung ihre volle Heizleistung erreicht, so dass die Raumtemperatur bei Einschalten der Heizung erst einmal weiter absinkt, um dann mit einer gewissen Verzögerung wieder anzusteigen (vgl. Band 2, Kap. III.2.3). Eine solche Regelung lässt sich verbessern, wenn nicht nur der jeweils aktuelle Ist- mit dem Sollwert verglichen wird, sondern darüber hinaus auch die Rate berücksichtigt wird, mit der sich die Raumtemperatur gerade ändert. Liegen Ist- und Sollwert beispielsweise bereits recht nahe beieinander, und steigt die Raumtemperatur in diesem Moment noch, so könnte die Heizung bereits abgeschaltet werden. Durch geeignete Wahl der Parameter einer solchen Regeleinrichtung kann erreicht werden, dass die Ist-Temperatur nur sehr gering und idealerweise nicht wahrnehmbar um den Sollwert schwankt. Von zentraler Bedeutung ist hierbei allerdings das Wissen um die Geschwindigkeit, mit der sich die Raumtemperatur in jedem Moment ändert. Wird die Raumtemperatur in Abhängigkeit von der Zeit als Graph aufgezeichnet, so ergibt sich eine Kurve, deren Änderungsrate, d. h. deren Steigung an jedem Punkt bestimmt werden kann, indem beispielsweise ein Lineal derart an die Kurve angelegt wird, dass seine Längsseite tangential zur Kurve verläuft, d. h. die gerade Strecke des Lineals berührt die gebogene Temperaturkurve an genau einem Punkt und besitzt die gleiche Steigung wie diese Kurve in dem betrachteten Punkt.

74 | 3 Analysis

∆y

f (x) = ax + b

∆x Abb. 3.20: Steigung einer Geraden

Allgemein lässt sich eine Gerade (als Verallgemeinerung der endlichen Strecke, wie sie ein Lineal darstellt) durch eine Funktion der Form f (x) = ax + b beschreiben, wie Abb. 3.20 zeigt. Der Faktor a bestimmt die Steigung der Geraden, gibt also an, um wieviele Einheiten ∆y sie steigt oder – falls a < 0 ist – fällt, wenn sich x um einen Wert ∆x ändert.⁵³ b gibt an, wie stark die Gerade in y-Richtung verschoben ist, was in diesem Zusammenhang allerdings nicht von Interesse ist. Um nun die Steigung einer Funktion an einer bestimmten Stelle zu bestimmen, wird anschaulich eine Gerade gesucht, welche eine Tangente zu dieser Funktion an dieser Stelle darstellt. Der Faktor a dieser Geraden entspricht dann der Steigung der Funktion an dieser Stelle. Abbildung 3.21 zeigt die Grundidee, mit deren Hilfe die Steigung einer Funktion an einer bestimmten Stelle x0 bestimmt werden kann. Hierzu wird anstelle der gewünschten Tangente zunächst eine Sekante betrachtet. Als solche wird eine Gerade bezeichnet, die eine Kurve (begrifflich ursprünglich einen Kreis) schneidet, d. h. im Unterschied zu einer Tangente, die eine Kurve nur an einem Punkt berührt, schneidet eine Sekante eine Kurve an zwei Stellen. Hier liegen diese Schnittpunkte an den durch x0 und x1 bezeichneten Stellen mit den zugeordneten y-Werten y0 und y1 . Die Steigung der gestrichelt eingezeichneten Sekanten ergibt sich nun als Höhenänderung pro Änderung auf der x-Achse, d. h. es ist a=

y1 − y0 f (x1 ) − f (x0 ) = . x1 − x0 x1 − x0

Wird nun der Abstand zwischen x1 und x0 beliebig klein gemacht, was mit Hilfe einer Grenzwertbetrachtung möglich ist, so wandern anschaulich die beiden Punkte, an denen die Sekante die Kurve schneidet, beliebig nahe zueinander, so dass die Sekante letztlich zu einer Tangente wird.

53 Allgemein wird mit ∆ meist die (makroskopische) Änderung einer Variablen bezeichnet.

3.3 Funktionen

| 75

y1 = f (x1 )

y0 = f (x0 )

x0

x1

Abb. 3.21: Sekanten- und Tangentensteigung (gestrichelt bzw. gepunktet)

Mit ∆x = x1 − x0 lässt sich x1 als x0 + ∆x darstellen, was den folgenden Grenzwertprozess nahelegt: f (x0 + ∆x) − f (x0 ) df (x) ⋀︀ = lim (3.13) dx x=x0 ∆x→0 ∆x Dieser Ausdruck wird als Differentialquotient bezeichnet und gibt die Steigung einer Funktion an einer Stelle x0 an. Die Verwendung von „d“ anstelle von ∆ auf der linken Seite des Gleichheitszeichens deutet an, dass es sich um infinitesimale, d. h. beliebig kleine Differenzen handelt, dass also ein Grenzwertprozess auf der rechten Seite stattgefunden hat. Der senkrechte Strich mit dem rechts unten notierten x = x0 zeigt, dass die Ableitung der Funktion hierbei an dieser bestimmten Stelle betrachtet wird. Gesprochen wird dies als „erste Ableitung von f (x) nach x an der Stelle x0 “. Falls, was im Folgenden stets der Fall sein wird, die Funktion f (. . . ) nur von einer einzigen Variablen abhängt, kann auch kurz f ′ (x0 ) als Kurzform für die erste Ableitung geschrieben werden. Im Folgenden wird die erste Ableitung der Funktion f (x) = x3 durch explizites Berechnen des Differentialquotienten bestimmt: lim

∆xÐ→0

3

f (x + ∆x) − f (x) (x + ∆x) − x3 = lim ∆xÐ→0 ∆x ∆x = lim

∆xÐ→0

2

2

3x2 ∆x + 3x (∆x) + (∆x) ∆xÐ→0 ∆x

= lim

3

x3 + 3x2 ∆x + 3x (∆x) + (∆x) − x3 ∆x 3

2

= lim 3x2 + 3x∆x + (∆x) ∆xÐ→0 2

= 3x .

Die Funktion f ′ (x) = 3x2 ist also die erste Ableitung der Funktion f (x) = x3 und gibt an jeder Stelle x die Steigung dieser Funktion an. Dieses Beispiel zeigt, dass die Ableitung einer Funktion selbst wieder eine Funktion ist. Falls der Differenzialquotient (3.13) existiert, wird f (x) differenzierbar genannt. Ist darüber hinaus die erste

f (x) = ⋃︀x⋃︀

76 | 3 Analysis 1 0.8 0.6 0.4 0.2 0 −1

−0.5

0 x

0.5

1

Abb. 3.22: Betragsfunktion als Beispiel einer stetigen, aber nicht überall differenzierbaren Funktion

Ableitung f ′ (x) selbst eine stetige Funktion, so heißt f (x) stetig differenzierbar. Eine Ableitung kann unter der Voraussetzung, dass der entsprechende Differentialquotient existiert, erneut abgeleitet werden, was zu sogenannten höheren Ableitungen führt. Während also die erste Ableitung einer Funktion eine Funktion liefert, die beschreibt, wie stark die ursprüngliche Funktion an Stellen x steigt, beschreibt eine zweite Ableitung, wie stark die erste Ableitung steigt usf. Ist f (x) an der Stelle x nicht stetig, so ist sie dort auch nicht differenzierbar, was jedoch umgekehrt nicht gilt – nur, weil f (x) an einer Stelle x stetig ist, muss sie nicht notwendigerweise differenzierbar sein. Ein typisches Beispiel hierfür ist die in Abb. 3.22 dargestellte Betragsfunktion f (x) = ⋃︀x⋃︀, die offenbar an jedem Punkt x stetig ist. Ihre Steigung ist für x < 0 offensichtlich gleich −1 und für x > 0 gleich 1, allerdings kann an der Stelle x = 0 keine Tangente an ⋃︀x⋃︀ angelegt werden, da die Funktion hier einen „Knick“ besitzt – hier ist die Betragsfunktion also nicht differenzierbar. Mit Hilfe von Betrachtungen auf Basis von Differentialquotienten lassen sich einige grundlegende Rechenregeln für die Bildung von Ableitungen herleiten: ′

(c) = 0 wobei c konstant ist ′

(x) = 1 ′

(x n ) = nx n−1 mit n ∈ N ′

(x a ) = ax a−1 mit x > 0 und a ∈ R ′

(a x ) = a x ln(a) mit a > 0 ′

(e x ) = e x 1 ′ (ln(x)) = x ′

(loga (x)) = ′

1 xln(a)

(sin(x)) = cos(x) ′

(cos(x)) = − sin(x)

3.3 Funktionen

| 77

0.2 0

−0.2 0

2

4

6

8

1 3 1 2 1 x − x + x (durchgezogen) sowie ihrer ersten 100 10 5 (gestrichelt) und zweiten (gepunktet) Ableitung

Abb. 3.23: Graphen der Funktion f (x) =

Weiterhin gilt allgemein ′

(f (x) ± g(x)) = f ′ (x) ± g ′ (x), womit sich zusammen mit den obigen Ableitungsregeln beispielsweise Ableitungen von Polynomen beliebigen Grades schnell berechnen lassen, da Polynome als Summe von Termen der Form a i x i termweise abgeleitet werden können. So ist beispielsweise die erste Ableitung von 1 3 1 2 1 x − x + x f (x) = 100 10 5 gleich 1 3 2 1 x − x+ . f ′ (x) = 100 5 5 Entsprechend ist die zweite Ableitung gleich f ′′ (x) =

3 1 x− . 50 5

Das Verhalten dieser drei Funktionen ist in Abb. 3.23 dargestellt. Komplizierter wird es im Fall von Produkten zweier differenzierbarer Funktionen f (x) und g(x). Hier kann nicht einfach termweise abgeleitet werden, vielmehr ist die sogenannte Produktregel anzuwenden: ′

(f (x)g(x)) = f ′ (x)g(x) + f (x)g ′ (x)

(3.14)

Ist also beispielsweise die erste Ableitung der Funktion x cos(x) zu bilden, so wird diese zunächst als Produkt zweier zugrunde liegender Funktionen f (x) = x und g(x) = cos(x) aufgefasst. Mit Hilfe von (3.14) ergibt sich dann folgende Ableitung: ′

(x cos(x)) = cos(x) − x sin(x)

78 | 3 Analysis Ist die Ableitung des Quotienten zweier Funktionen zu bestimmen, greift die Quotientenregel⁵⁴ ′ f (x) f ′ (x)g(x) − f (x)g ′ (x) ( ) = , g(x) g 2 (x) deren Anwendung am Beispiel der Bestimmung der Ableitung von tan(x) dargestellt wird:⁵⁵ ′



(tan(x)) = ( =

sin(x) ) cos(x)

cos2 (x) + sin2 (x) cos2 (x)

=1+

sin2 (x) cos2 (x)

= 1 + tan2 (x) Nachdem mit Hilfe dieser Regeln Ableitungen von Summen, Differenzen, Produkten und Quotienten zweier Funktionen gebildet werden können, fehlt noch die sogenannte Kettenregel, mit deren Hilfe die Ableitung zweier verketteter Funktionen gebildet werden kann: ′ (f (g(x))) = g ′ (x)f ′ (g(x)) (3.15) Als Beispiel soll die Ableitung von sin(x2 ) gebildet werden. Hierfür wird diese Funktion als Verkettung zweier Funktionen f (x) = sin(x) und g(x) = x2 aufgefasst, so dass (3.15) angewandt werden kann: ′

(sin (x2 )) = 2x cos(x2 ) Mit Hilfe von Ketten- und Produktregel kann nun auch eine etwas kompliziertere Ableitung bestimmt werden: Im Zusammenhang mit schwingenden Systemen treten häufig Funktionen der Form f (t) = e−βt cos(ωt)

auf, die offensichtlich aus dem Produkt zweier Funktionen e−βt und cos(ωt) bestehen.⁵⁶ Diese beiden Funktionen sind allerdings auch jeweils Verkettungen zweier ein54 Hierbei ist g 2 (x) = g(x) ⋅ g(x). 55 An dieser Stelle lohnt es sich, darauf hinzuweisen, dass der Ausdruck 2

2

cos2 (x)+sin2 (x) cos2 (x)

auch als

1 cos2 (x)

aufgefasst werden kann, da cos (x)+sin (x) = 1 gilt. Dies wird mit einem Blick auf die Definition von Sinus und Cosinus am Einheitskreis deutlich: Diese beiden Funktionen beschreiben die Längen der Gegen- beziehungsweise Ankathete in einem rechtwinkligen Dreieck, das eine Hypothenuse der Länge 1 besitzt. Da aber nach dem Satz des Pythagoras in einem rechtwinkligen Dreieck stets a2 + b2 = c2 gilt, wobei mit c die Hypothenuse bezeichnet wird, folgt hieraus cos2 (x) + sin2 (x) = 1. Entsprechend kann auch (tan(x))′ = cos21(x) geschrieben werden. 56 Der Cosinus-Term beschreibt die eigentliche Schwingung, beispielsweise einer Schaukel oder einer federnd und gedämpft aufgehängten Masse, während der Term e−βt bschreibt, wie schnell diese Schwingung gedämpft wird (vgl. Kap. II.8).

3.3 Funktionen

| 79

facherer Funktionen. Entsprechend bietet es sich an, zunächst die Ableitungen dieser beiden grundlegenden Funktionen jeweils für sich zu betrachten: ′

(e−βt ) = −βe−βt ′

(cos(ωt)) = −ω sin(ωt)

Mit Hilfe der Produktregel kann nun auf dieser Basis die Ableitung der ursprünglichen Funktion bestimmt werden: ′

(e−βt cos(ωt)) = −βe−βt cos(ωt) − e−βt ω sin(ωt) = −e−βt (β cos(ωt) + ω sin(ωt)) Physikalisch betrachtet, liefert die erste Ableitung einer Funktion, welche die zeitlich variable Position eines Objektes, beispielsweise eines Autos oder einer schaukelnden Person beschreibt, eine Funktion, welche die Geschwindigkeit dieses Objektes darstellt. Die nächsthöhere, d. h. die zweite Ableitung, ist dann eine Funktion, welche die Beschleunigung des betrachteten Objektes beschreibt (vgl. Kap. II.3.3.3). Mit Hilfe der ersten und zweiten Ableitung einer Funktion lassen sich auch Extremwerte, d. h. Minima und Maxima bestimmen. Die Grundidee wird anhand von Abb. 3.23 deutlich: An Stellen, an welchen eine Funktion ein Minimum oder Maximum annimmt, ist die erste Ableitung gleich Null, was auch anschaulich klar ist – nähert man sich beispielsweise von links kommend einem Maximum, so ist die erste Ableitung positiv, da der Funktionsgraph offensichtlich ansteigt. Die Steigung am Punkt des Maximums selbst muss gleich Null sein, da es danach wieder hinab geht. Gleiches gilt auch für ein Maximum. Um also die Punkte zu bestimmen, an denen eine Funktion f (x) minimal oder maximal wird, sind zunächst die Nullstellen der ersten Ableitung f ′ (x) zu bestimmen. Dies ist allerdings nur eine notwendige, jedoch keine hinreichende Bedingung, da f ′ (x) = 0 nur aussagt, dass die Tangente an der Funktion an der Stelle x waagrecht liegt, was neben Minima und Maxima auch für sogenannte Sattelpunkte gilt. Diese sind Spezialfälle der allgemeineren Wendepunkte, an denen eine Funktion ihr Krümmungsverhalten ändert, d. h. beispielsweise von einer „Links-“ in eine „Rechtskurve“ übergeht. Damit ein Maximum an einer Stelle x0 vorliegt, muss f ′ (x) für ein links von x0 liegendes Argument x also positiv und für ein x rechts von x0 negativ sein. Umgekehrt gilt diese Bedingung auch für Minima, zu denen hin die Funktion zunächst fällt, um danach wieder zu steigen. Diese Bedingung kann einfach mit Hilfe der zweiten Ableitung f ′′ (x) überprüft werden: Gilt neben f ′ (x0 ) = 0 auch f ′′ (x0 ) < 0, so besitzt f (x) an der Stelle x0 ein Maximum, ist hingegen f ′′ (x0 ) > 0, weist f (x) bei x0 ein Minimum auf.

80 | 3 Analysis Um nun das Maximum und Minimum der in Abb. 3.23 verwendeten Funktion f (x) =

1 3 1 2 1 x − x + x 100 10 5

in einem geeigneten Intervall, wie z. B. (︀0 ∶ 7⌋︀ zu bestimmen, werden zunächst die Nullstellen von 3 2 1 1 f ′ (x) = x − x+ . 100 5 5 mit Hilfe der pq-Formel bestimmt, wozu dieses Polynom zweiten Grades durch Multiplikation mit 100 3 normiert werden muss. Gesucht werden also Werte x, an denen x2 − ist. Hier gilt also p = − 20 3 und q = kann: x0,1

20 3 ,

20 20 x+ =0 3 3 was direkt in die pq-Formel eingesetzt werden }︂

p =− ± 2

p 2 ( ) −q 2

Dies liefert ⌋︂ 10 + 2 10 x0 = ≈ 5, 442 und 3 ⌋︂ 10 − 2 10 x1 = ≈ 1, 225 3 für die Lage der beiden Nullstellen dieses Polynoms und damit zwei Kandidatenpositionen für Minima und Maxima von f (x). Einsetzen von x1 und x2 in die zweite Ableitung 3 1 f ′′ (x) = x− 50 5 ergibt ⌋︂ 3 10 + 2 10 1 ⋅ − > 0 und f ′′ (x0 ) = 50 3 5 ⌋︂ 3 10 − 2 1 10 f ′′ (x1 ) = ⋅ − < 0. 50 3 5 An der Stelle x0 ist die zweite Ableitung folglich negativ, d. h. f (x) besitzt hier ein Maximum, während es, da f ′′ (x1 ) > 0 ist, bei x1 ein Minimum aufweist.⁵⁷ Quasi die „Umkehrfunktion“ zur Differentiation einer Funktion stellt die Integration dar, bei der es darum geht, von Kurven begrenzte Flächen zu bestimmen. Solche Problemstellungen treten ausgesprochen häufig auf, sei es bei der Berechnung von

57 Läge an einer Nullstelle der ersten Ableitung auch eine Nullstelle der zweiten Ableitung vor, so müsste die dritte Ableitung der Funktion ausgewertet werden, um zu bestimmen, ob es sich um einen Sattelpunkt handelt. Ein solcher liegt vor, wenn unter diesen Voraussetzungen auch f ′′′ (x) = 0 gilt.

3.3 Funktionen

| 81

f (x)

b

∫ f (x) dx a

a

b

Abb. 3.24: Integral als Fläche unter einer Kurve

Grundstücksflächen, die nur selten einfach rechteckig sind, vielleicht noch von einem Bach oder Fluß durchquert werden, bei der Bestimmung der von einem Fahrzeug zurückgelegten Strecke, wenn nur die Zeit und die jeweilige Momentangeschwindigkeit bekannt sind etc. Im einfachsten Fall handelt es sich hierbei um die Fläche, die von zwei Intervallgrenzen a und b zur Linken und Rechten sowie der Funktion und der x-Achse nach oben und unten begrenzt wird, wie sie in Abb. 3.24 dargestellt ist. Das dort grau markierte Flächenstück wird mathematisch durch b

∫ f (x) dx a

beschrieben, gesprochen „das Integral von a bis b über f von x, dx“. Die Funktion f (x) wird hierbei als Integrand bezeichnet. Eine anschauliche, wenngleich nur eingeschränkt praktikable technische Methode, ein solches Integral zu bestimmen, zeigt Abbildung 3.25. Aus einem Vorratsbehälter fließt beispielsweise Wasser durch einen Hahn in ein Auffanggefäß, wobei der Öffnungsgrad des Hahnes durch die zu integrierende Funktion, hier v(t), bestimmt wird. Nach Ablauf einer bestimmten Zeit, die von 0 bis zu einem Endzeitpunkt T läuft, entspricht die Wassermenge im Auffangbehälter ganz anschaulich dem Integral T ∫0 v(t) dt.⁵⁸ Mathematisch kann die Berechnung eines Integrals recht anschaulich auf die Bildung sogenannter Ober- und Untersummen zurückgeführt werden, wie Abb. 3.26 zeigt. Hier soll die Fläche unter einer Funktion f (x) im Intervall (︀a, b⌋︀ bestimmt werden, das dazu in gleichbreite „Streifen“, d. h. Teilintervalle (︀x i , x i+1 ⌋︀ unterteilt wird. Die Höhe 58 In der Chemie, wo häufig Plots von Funktionen, deren Integral innerhalb bestimmter Grenzen bestimmt werden soll, als Ergebnis von Messungen entstehen, werden die zu bestimmenden Flächen bis heute mitunter aus dem Plot ausgeschnitten, und im Anschluss hieran wird das Gewicht dieses Papierstückes bestimmt. Ist die Masse des verwendeten Papiers pro Flächeneinheit bekannt, kann die Fläche direkt aus der Wägung bestimmt werden.

82 | 3 Analysis

v(t)

RT 0

v(t) dt

Abb. 3.25: Ein hypothetischer hydraulischer Integrierer

f (x)

a = x0

x1

x2

...

xn = b

Abb. 3.26: Ober- und Untersummen

dieser Streifen wird nun durch die jeweiligen Funktionswerte innerhalb der Teilintervalle beschränkt, wobei unterschieden werden muss, ob ein solcher Streifen die Funktion „von unten“ oder „von oben“ berührt. Die Summe der in Abbildung dunkelgrau markierten Streifen, die nach oben durch f (x) beschränkt werden, die also stets „unter“ der Funktion liegen, wird Untersumme genannt. Entsprechend werden die einzelnen Streifen in diesem Fall durch u i bezeichnet. Analog hierzu wird die Summe der hellgrauen Streifen, die durch f (x) nach unten beschränkt und durch o i bezeichnet werden, als Obersumme bezeichnet. Die Summen der jeweiligen Flächenelemente, n

U(n) = ∑ (x i − x i−1 ) u i und i=1 n

O(n) = ∑ (x i − x i−1 ) o i , i=1

3.3 Funktionen

| 83

stellen offenbar Näherungen für den gesuchten Flächeninhalt dar, wobei U(n) stets kleiner und O(n) entsprechend größer als der gesuchte Wert sein werden. Mit Hilfe eines Grenzwertprozesses kann nun die Breite der Streifen im Intervall (︀a, b⌋︀ beliebig klein und damit ihre Anzahl beliebig groß gemacht werden, so dass sich b

lim U(n) = lim O(n) ∫ f (x) dx = n→∞ n→∞ a

ergibt. Hier wird auch die Bedeutung des dx im Integralausdruck klar: f (x) beschränkt die Streifen der Ober- und Untersummenterme, während das dx die beliebig kleine Streifenbreite nach erfolgter Grenzwertbildung zum Ausdruck bringt. f (x) dx entspricht also im Wesentlichen der Fläche eines einzelnen derartigen, beliebig schmalen Streifens, während das Integralzeichen ∫ , das ein geschwungenes „S“ für „Summe“ darstellt, die Zusammenfassung der Bildung von Ober- und Untersummen mit Grenzwertprozess ist. Diese Form eines Integrals wird als nach Bernhard Riemann als Riemann-Integral bezeichnet. Etwas genauer wird eine Funktion f (x) Riemann-integrierbar über einem Intervall (︀a, b⌋︀ genannt, wenn das Intervall abgeschlossen und beschränkt ist und f (x) fast überall⁵⁹ stetig ist. Im Prinzip könnte die Idee der Bildung von Ober- und Untersummen verwendet werden, um Integrale auch numerisch zu berechnen, allerdings muss hierfür meist die Streifenbreite unpraktikabel klein gewählt werden, um keine zu großen Rechenfehler zu erzeugen. Besser, wenngleich noch bei weitem nicht wirklich gut, ist für solche Fälle die Idee, anstelle von Rechtecken, die durch die Funktion in ihrer Höhe beschränkt werden, Trapezflächen zu bestimmen und zu summieren, wie in Abb. 3.27 dargestellt. b

Integrale der Form ∫a f (x) dx werden als bestimmte Integrale bezeichnet, da vorgegeben ist, innerhalb welches Intervalls die Integration erfolgen soll. Allgemeiner ist das sogenannte unbestimmte Integral der Form ∫ f (x) dx, bei dem es nun nicht in erster Linie um die Bestimmung eines Flächeninhaltes, sondern um das Auffinden einer sogenannten Stammfunktion geht, wodurch der Charakter der Integration als „Umkehrfunktion“ zur Differentiation zum Ausdruck gebracht wird. Die in der Regel als F(x) bezeichnete Stammfunktion zu einer Funktion f (x) besitzt die wesentliche Eigenschaft, dass ihre Ableitung wieder die ursprüngliche Funktion f (x) ergibt, d. h. es ist allgemein ∫ f (x) dx = F(x) + c,

59 Durch „fast überall“ wird zum Ausdruck gebracht, dass es nur „wenige“, d. h. endlich viele Ausnahmen geben darf.

84 | 3 Analysis y

f (x)

x a = x0

...

x1

x n−1

b = xn

Abb. 3.27: Integration nach der Trapezregel

wobei c eine Konstante bezeichnet. Diese Konstante fällt bei der Ableitung von F(x) nicht nur fort, sondern spielt eine essenzielle Rolle, da mit ihrer Hilfe sozusagen Startwerte für ein Integral festgelegt werden können. Dreht man die zuvor aufgelisteten Ableitungsregeln für einfache Grundfunktionen um, so ergeben sich entsprechende Regeln für die Bildung einer Stammfunktion. So ist beispielsweise 2 3 2 ∫ 3x − 2x + 3 dx = x − x + 3x + c,

(3.16)

wovon man sich durch Ableiten der rechten Seite leicht überzeugt. Solche Stammfunktionen besitzen eine weitere interessante Eigenschaft: Mit ihrer Hilfe können auch bestimmte Integrale berechnet werden, allgemein gilt nämlich b

b

∫ f (x) dx = F(x)⋁︀ = F(b) − F(a), a

a

d. h. zur Berechnung der Fläche unter einer Funktion f (x) im Intervall (︀a, b⌋︀ muss lediglich die Stammfunktion F(x) bestimmt und an den beiden Intervallgrenzen b und a ausgewertet werden.⁶⁰ Ein einfaches Beispiel soll dies demonstrieren – gesucht ist die Fläche, die von einer halben Periode des Sinus beschränkt wird: π

π

∫ sin(x) dx = − cos(x)⋁︀ = − cos(π) − (− cos(0)) = 1 + 1 = 2 0

0

Während das Bilden von Ableitungen letztlich nach einem festen Schema erfolgt (Ableiten von Grundfunktionen und gegebenenfalls mehrfaches Anwenden von 60 Bei der Bildung der Differenz F(b) − F(a) fällt übrigens die Konstante c weg.

3.3 Funktionen

| 85

Produkt-, Quotienten- und/oder Kettenregel), ist das Bestimmen von Stammfunktionen deutlich komplizierter und auch nicht immer von Erfolg gekrönt.⁶¹ Zunächst einmal gilt für die Integration analog zur Differentiation ∫ f (x) ± g(x) dx = ∫ f (x) dx ± ∫ g(x) dx, was bereits implizit in (3.16) genutzt wurde. Ebenso können Konstanten aus dem Integranden vor das Integral gezogen werden, es gilt also ∫ af (x) dx = a ∫ f (x) dx. Weiterhin lassen sich Produkt- und Kettenregel zu Integrationsregeln umformen, was zur partiellen Integration und zur Integration durch Substitution führt. Integriert man auf beiden Seiten über die Produktregel ′

(f (x)g(x)) = f ′ (x)g(x) + f (x)g ′ (x), so ergibt sich zunächst ′

′ ′ ∫ (f (x)g(x)) dx = ∫ f (x)g(x) dx + ∫ f (x)g (x) dx.

Auf der linken Seite heben sich Integration und Ableitung auf, so dass sich nach kurzem Umstellen die sogenannte Regel der partiellen Integration ergibt: ′ ′ ∫ f (x)g(x) dx = f (x)g(x) − ∫ f (x)g (x) dx

(3.17)

Auf den ersten Blick wirkt diese Regel nicht sonderlich hilfreich, ein Eindruck, den folgendes Beispiel hoffentlich zerstreut – gesucht ist die Stammfunktion zu x2 ln(x): Diese Funktion wird im ersten Schritt als Produkt einer Ableitung f ′ (x) = x2 und einer Funktion g(x) = ln(x) aufgefasst.⁶² Mit dieser Wahl ergibt sich also f (x) =

1 3 x 3

g(x) = ln(x)

f ′ (x) = x2 und g′ (x) =

1 , x

die nun in 3.17 eingesetzt werden können: 1 31 1 3 2 ∫ x ln(x) dx = 3 x ln(x) − ∫ 3 x x dx 1 1 2 = x3 ln(x) − ∫ x dx 3 3 1 1 = x3 ln(x) − x3 . 3 9 61 Dies wird in der Redewendung „Ableiten ist Handwerk, Integrieren ist Kunst“ treffend zum Ausdruck gebracht. 62 Die „Kunst“ besteht in diesem Schritt darin, zu entscheiden, welcher Teil einer zusammengesetzten Funktion als die Ableitung f ′ (x) und welche als g(x) aufgefasst werden soll. Wählt man die Funktionen umgekehrt, bringt ein partieller Integrationsschritt häufig keinen Fortschritt mit sich. Hier ist in erster Linie Erfahrung notwendig, eine einfache Regel gibt es nicht.

86 | 3 Analysis Durch Integration über die Kettenregel (3.15) lässt sich eine weitere grundlegende Integrationstechnik, die Integration durch Substitution herleiten, deren Grundidee darin besteht, einen zusammengesetzten Integranden der Form g ′ (x)f ′ (g(x)), was letztlich der rechten Seite der bekannten Kettenregel entspricht, in einen einfacheren Integranden der Form f (ξ ) umzuformen: b

b

g(b)

a

g(a)

′ ′ ∫ f (g(x))g (x) dx = f (g(x))⋁︀ = f (x)⋁︀ a

g(b)

= ∫ f ′ (ξ ) dξ

(3.18)

g(a)

Allgemein kommt diese Regel stets dann zum Einsatz, wenn der Integrand eine Funktion ist, deren Argument selbst als Funktion aufgefasst werden muss. Als Beispiel ist die Stammfunktion von cos(3x) zu bestimmen: Hier „stört“ offensichtlich das Argument 3x des Cosinus; ginge es nur um die Bestimmung der Stammfunktion von cos(x), wäre die Aufgabe einfach. Die Idee ist nun, den Term 3x durch etwas Einfacheres, beispielsweise ein u, zu subsituieren, es wird also u ∶= 3x gesetzt, so dass anstelle von cos(3x) einfacher cos(u) geschrieben werden kann. Nun stellt sich allerdings das Problem, was mit dem dx zu tun ist, da cos(u) offenbar von u und nicht länger von x abhängt. Um dieses Problem zu lösen, wird die erste Ableitung von u nach x gebildet: du =3 dx Auflösen nach dx liefert damit dx = 13 du. Nun kann das Integral entsprechend umgeformt werden: 1 1 ∫ cos(3x) dx = ∫ cos(u) 3 du = 3 ∫ cos(u) du Das Integral ∫ cos(u) du ist ein Standardintegral, das sich unter Umkehrung der passenden Ableitungsregeln lösen lässt und die Stammfunktion sin(u) liefert. Es ist also sin(u) 1 cos(u) du = , 3∫ 3 in dem nur noch das Argument u wieder rücksubstituiert werden muss. Alles zusammengenommen, ergibt sich also 1 ∫ cos(3x) dx = 3 ∫ cos(u) du mit u ∶= 3x sin(u) = 3 sin(3x) = + c, 3 womit die Aufgabe gelöst ist.

3.3 Funktionen

| 87

..........

. ✟ ❍ ✟ Fm + Fd + Fs = 0 ❍ ..✟ ......... ✗✔

✖✕

m y¨ + d y˙ + sy = 0

Abb. 3.28: Schematische Darstellung eines einfachen Masse-Feder-Dämpfer-Systems

3.3.8 Differentialgleichungen Einen grundlegenden Schritt weiter als einfache Ableitungen gehen die sogenannten Differentialgleichungen, durch welche allgemein dynamische Prozesse, d. h. beispielsweise schwingende Systeme, Ökosysteme, Soffwechselprozesse, die Bewegung von Objekten etc. beschrieben werden können. Typisch für solche Gleichungen ist, dass in ihr nicht einfach Variablen, sondern vielmehr Funktionen und deren Ableitungen miteinander in Beziehung gesetzt werden. Im Folgenden soll dies lediglich an zwei vergleichsweise einfachen Beispielen dargestellt werden. Zunächst wird ein aus einer Masse, einer Feder und einem Dämpfer bestehendes schwingungsfähiges System, wie es in Abb. 3.28 dargestellt ist, betrachtet (vgl. Kap. II.8.1). Allgemein gilt für ein abgeschlossenes physikalisches System, dass die Summe aller Kräfte F m , F d und F s gleich 0 sein muss, hier ist also F m (t) + F d (t) + F s (t) = 0,

(3.19)

wobei F m (t), F d (t) und F s (t) die zeitabhängigen und von der Masse, dem Dämpfer beziehungsweise der Feder ausgeübten Kräfte repräsentieren. Wichtig ist hier die Zeitabhängigkeit – in der Praxis wird das Argument t meist nicht explizit notiert, da es sich aus der jeweiligen Aufgabenstellung automatisch ergibt. Die von einer Masse ausgeübte Kraft ist stets gleich dem Produkt aus der Masse sowie der Beschleunigung. In diesem System sind alle drei Komponenten direkt miteinander verbunden, ihre zeitabhängige Auslenkung kann also durch eine Funktion y(t) beschrieben werden, wobei auch hier das Argument t in der Regel nicht notiert wird. Aus dieser Auslenkung kann durch einmaliges Differenzieren die Geschwindigdy(t) ˙ bestimmt werden.⁶³ Die Beschleunigung a(t) ergibt sich nun keit v(t) = dt = y(t)

63 In den Ingenieurwissenschaften werden Ableitungen nach der Zeit, die dort ausgesprochen häufig vorkommen, meist nur durch einen Punkt über der abzuleitenden Funktion notiert. Zwei Punkte kennzeichnen entsprechend eine zweite Ableitung nach der Zeit usf.

88 | 3 Analysis durch erneutes Ableiten, es ist also a(t) = y¨ (t), d. h. (nun ohne das Argument t) F m = m y¨ . Der Dämpfer wird als einfacher geschwindigkeitsproportionaler Dämpfer, d. h. beispielsweise ein Flüssigkeitsdämpfer angenommen, so dass F d = d y˙ mit einer geeigneten Dämpferkonstanten d gilt. Die Feder selbst übt eine ihrer Auslenkung mit einer Federkonstanten s proportionale Kraft F s = sy aus. Mit (3.19) ergibt sich also folgende Differentialgleichung für das Masse-FederDämpfer-System: m y¨ + d y˙ + sy = 0 Gesucht ist nun eine Funktion y, welche diese Gleichung löst und damit das zeitabhängige Verhalten des zugrunde liegenden physikalischen Systems beschreibt.⁶⁴ Im Folgenden soll nicht auf analytische Lösungsverfahren eingegangen werden, vielmehr wird eine anschauliche, wenngleich nur eingeschränkt praxistaugliche Lösungstechnik dargestellt, die zwar keine Lösungsfunktion y liefert, dafür aber eine Simulation des Systems mit Hilfe eines speicherprogrammierten Digitalsrechners ermöglicht. Die Idee ist hierbei, die Differentialquotienten als Differenzenquotienten aufzufassen und durch zweifache Integration von der Beschleunigung der Masse zur ihrer Position zu gelangen, wobei die Integration analog zur Bildung von Ober- bzw. Untersummen bei der Riemann-Integration erfolgt.⁶⁵ Das folgende Beispielprogramm zeigt, wie eine solche Differentialgleichung (näherungsweise) numerisch gelöst werden kann. Ein typischer Lösungsplot ist in Abb. 3.29 dargestellt. Die Masse ist hier zu Beginn der Simulation in die Position 1 ausgelenkt und wird dann „losgelassen“.

64 Für die Simulation derartiger Systeme sind sogenannte Analogrechner ideal geeignet, siehe beispielsweise (Ulmann 2010) und (Ulmann 2017). 65 Dieses Verfahren ist als Euler-Verfahren bekannt und sollte nur in sehr einfachen Fällen für die numerische Behandlung von Differentialgleichungen eingesetzt werden.

3.3 Funktionen

1

| 89

"msd.dat"

0.8

0.6

0.4

0.2

0

-0.2

-0.4

-0.6

-0.8 0

100

200

300

400

500

600

700

800

900

1000

Abb. 3.29: Simulationsergebnis

Sourcecode: msd 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

#include #define #define #define #define #define

STEPS 1000 /* Integrationsschritte */ DT .1 /* Schrittweite */ D .2 /* Daempferkonstante */ S .2 /* Federkonstanate */ M 1. /* Masse */

int main() { float y = 1., dy = 0., ddy = 0.; /* Anfangsauslenkung */ int i; for (i = 0; i < STEPS; i++) { dy += ddy * DT; /* Integrationsschritt */ y += dy * DT; /* Integrationsschritt */ ddy = -(D * dy + S * y) / M; printf("%f\n", y); } return 0; }

Das zweite Beispiel beruht im Wesentlichen auf zwei gekoppelten Differentialgleichungen, d. h. Differentialgleichungen, die voneinander abhängig sind. Betrachtet wird ein abgeschlossenes „Ökosystem“ aus Menschen h und Zombies z, wobei die Frage ist,

90 | 3 Analysis

Abb. 3.30: Drei typische Simulationsergebnisse des Menschen-Zombie-Modells

wie sich die beiden Populationsgrößen in Abhängigkeit von den Parametern des Systems zeitlich betrachtet verhalten.⁶⁶ Die beiden betrachteten Differentialgleichungen haben die Form h˙ = αh − βhz z˙ = δhz − γhz − ζz mit den folgenden Parametern:

α: β: δ: γ: ζ:

Vermehrungsrate der Menschen. Einfangquerschnitt von Zombies, d. h. wie effektiv sind unsere Zombies als Jäger. Zombievermehrungsrate, basierend auf ihrem Jagderfolg. Zombiekillrate der Menschen. Normale Zombiesterberate.

Der Term αh beschreibt also die natürliche Vermehrung der Menschen im betrachteten Modell, während −βhz die Dezimierung der Menschheit durch jagende Zombies repräsentiert. Das Produkt hz beschreibt hierbei, wie häufig Menschen und Zombies aufeinander treffen. Die Zombiepopulation wiederum kann nur ansteigen, indem Menschen zu Zombies werden, δhz, während die Zombies von Menschen mit der Rate γhz gejagt und zur Strecke gebracht werden. Der Term −ζz beschreibt das Sterben der Zombies ohne äußere Einwirkungen. Naheliegenderweise vernichten allzu erfolgreiche Zombies sehr schnell die Menschheit, während erfolgreiche Jäger die Zombiepopulation vernichten können, was links beziehungsweise mittig in Abb. 3.30 dargestellt ist. Ein zyklisches System, bei dem weder die Zombies noch die Menschen langfristig die Oberhand gewinnnen, ist rechts in der Abbildung zu sehen.

66 Das vorliegende Beispiel geht auf (Smith 2014) zurück und kann selbstverständlich auch als Beispiel aus der Epidemiologie betrachtet werden.

3.3 Funktionen

| 91

3.3.9 Approximation und Interpolation In der Praxis kommt der sogenannten Approximation, d. h. der Annäherung einer Funktion durch eine meist einfachere Funktion eine große Bedeutung zu, wenn Funktionen beispielsweise zu viel Rechenaufwand zu ihrer Auswertung benötigen etc. Ein weiteres Problem stellt sich beispielsweise bei Messdaten, die mit modernen Computern zwangsläufig weder zeit- noch wertekontinuierlich erfasst werden können. Solche Messreihen liegen also als Folge von Tupeln der Form (t i , y i ) vor, wobei t i und y i den jeweiligen Messzeitpunkt bzw. -wert bezeichnen. Hier stellt sich oft die Frage, welchen Wert die gemessene Funktion beispielsweise zwischen zwei solchen realen Messzeitpunkten hatte, was auf eine sogenannte Interpolation führt. Gesucht ist hier also beispielsweise eine Funktion f (t), die für Argumente t = t i jeweils den zugehörigen realen Messwert y(t i ) liefert, während sie für Werte t i < t < t i+1 „vernünftige“ Werte liefert. Sollen nicht nur derartige Werte zwischen Messzeitpunkten, sondern außerhalb des Messintervalles mit Hilfe einer solchen Funktion bestimmt werden, spricht man von einer Extrapolation. Im einfachsten Fall kann eine solche Interpolationsfunktion eine Menge von Messwerten stückweise linear miteinander verbinden, wie Abbildung 3.31 anhand der folgenden Stützpunkte zeigt: (t0 , y0 ) = (2, −1) (t1 , y1 ) = (4, 0) (t2 , y2 ) = (5, 3) (t3 , y3 ) = (6, 3)

(3.20)

Dies ist zwar einfach, aber meist nicht allzu realistisch, da solche Funktionen stets „Knicke“ aufweisen, was bei natürlichen Prozessen in der Regel nicht auftritt. Die hier auftretenden Teilstrecken s i haben allgemein die Gestalt s i (t) = y i +

y i+1 − y i (t − t i ). x i+1 − x i

Praktisch eingesetzte Interpolationsverfahren gehen in der Regel weit über eine solche einfache, stückweise lineare Interpolation hinaus. Zu nennen sind hier beispielsweise die Lagrange-Interpolation, die Neville-Interpolation und vor allem die heute in vielen Bereichen eingesetzte Spline-Interpolation, die jedoch alle über den hier gestecken Rahmen hinaus gehen. Weiterführende Informationen zu diesen und verwandten Themen finden sich beispielsweise in (Freund et al. 2007). Ein zentrales Werkzeug für die Approximation von Funktionen ist die TaylorApproximation, die meist genutzt wird, um beispielsweise eine „komplizierte“ Funktion f (x) durch eine einfachere, d. h. in der Regel mit geringerem Rechenaufwand auswertbare Funktion bzw. ein Polynom, das dann entsprechend als Taylor-Polynom bezeichnet wird, zu ersetzen.

92 | 3 Analysis 4 s2

y height

2

s1

0 s0 −2 2

3

4

5

6

t Abb. 3.31: Lineare Interpolation zwischen den Stützpunkten (3.20)

Angenommen, es soll eine möglichst einfache Funktion entwickelt werden, die sin(x) innerhalb einer Umgebung um einen bestimmten, als Entwicklungspunkt bezeichneten Punkt x0 „gut“ approximiert, so könnte wie folgt vorgegangen werden: Zunächst einmal wird ein geeigneter Wert x0 festgelegt – in diesem Fall ist x0 = 0 eine π gute Wahl, da es dann genügt, den Sinus in einem Intervall (︀− pi 2 , 2 ⌋︀ zu approximieren, um den Sinus für jedes beliebige Argument auf Basis dieser Approximation bestimmen zu können. Liegt das Argument innerhalb dieses Intervalls, kann direkt die Approximationsfunktion genutzt werden, liegt es beispielsweise im Intervall (︀−π, −π 2 ⌋︀, kann die Eigenschaft ausgenutzt werden, dass der Sinus im Intervall (︀− 2π , 2π ⌋︀ an einer durch den Punkt 2π auf der x-Achse gedachten senkrechten Linie gespiegelt gerade den Kurvenverlauf für das Intervall (︀− 23 π, − 2π ⌋︀ ergibt usf. Angenommen, sin(x) müsste nur an der Stelle x0 und sonst nirgends approximiert werden, so könnte man als sehr triviale Approximationsfunktion f (x) = 0, also eine Gerade wählen. Dies ist natürlich nur für diesen einen Wert (und allgemein alle Werte der Form x = nπ mit n ∈ N) eine gute, sogar eine perfekte Approximation, aber dennoch nicht sinnvoll. Diese links in Abb. 3.32 dargestellte Approximation lässt sich aber verbessern, indem die waagrechte Gerade der Form f (x) = 0 so geneigt wird, dass sie am Punkt x0 tangential zu sin(x0 ) verläuft. In diesem Fall gilt offensichtlich f ′ (x0 ) = sin′ (x0 ) = 1, d. h. Funktionswert und erste Ableitung von sin(x) und f (x) = x stimmen am Punkt x0 überein. Dargestellt ist diese schon deutlich bessere Approximationsfunktion in der Mitte von Abb. 3.32. Für kleine Argumentwerte des Sinus wird in der Praxis tatsächlich häufig die Approximation f (x) = x ≈ sin(x) genutzt,⁶⁷ d. h. im Unterschied zur ersten (unbrauch-

67 Hier stellt sich natürlich die Frage, was „klein“ bedeutet. Letztlich hängt es von der jeweiligen Aufgabenstellung ab, welcher Approximationsfehler noch geduldet werden kann.

3.3 Funktionen

1

1

1

0

0

0

−1

−1

−1

0

− 2π

π 2

− 2π

0

π 2

− 2π

0

| 93

π 2

Abb. 3.32: Approximation der Sinusfunktion durch eine Konstante, eine Gerade mit Steigung 1 und ein Polynom

baren) Approximation mit f (x) = 0 kann f (x) = x schon in einem gewissen (kleinen) Intervall um x0 herum als brauchbare Näherung für sin(x) genutzt werden. Die Berücksichtigung der ersten Ableitung der zu approximierenden Funktion in der Approximationsfunktion hat deren Qualität offensichtlich stark erhöht. Diese Idee kann nun weiter verfolgt werden, indem zusätzlich höhere Ableitungen Berücksichtigung finden, wodurch die bislang nur passend geneigte Gerade zusätzlich „verbogen“ wird, wie rechts in Abb. 3.32 dargestellt ist. Dies ist die Grundidee einer Taylor-Approximation: Rund um einen vorher festgelegten Entwicklungspunkt x0 wird die zu approximierende Funktion ℱ(x) zunächst einfach durch eine Gerade der Form f (x) = a1 x+a0 angenähert, wobei a0 die vertikale Verschiebung der Geraden und a1 die Neigung der Geraden bestimmt, es ist also a0 = ℱ(x0 ) und

a1 = ℱ ′ (x0 ),

die Approximationsgerade hat also folgende Gestalt: f (x) = ℱ ′ (x0 )(x − x0 ) + ℱ(x0 ) Die nächsthöhere Ableitung der zu approximierenden Funktion kann dann als quadratischer Term in f (x) Eingang finden, das dann die allgemeine Form f (x) =

1 ′′ ℱ (x0 )(x − x0 )2 + ℱ ′ (x0 )(x − x0 ) + ℱ(x0 ) 2

erhält. Der Faktor 21 vor dem ersten Term rührt daher, dass f ′′ (x0 ) = ℱ ′′ (x0 ) gelten muss und durch die Ableitung von (x − x0 )2 ein Faktor 2 eingebracht wird, der kompensiert werden muss. In ihrer allgemeinen Form besitzt eine Taylor-Approximation die Form T n (︀ℱ⌋︀ (x) = ℱ(x0 ) + ℱ ′ (x0 )(x − x0 ) + n

=∑ i=0

1 (i) ℱ (x0 )(x − x0 )i , i!

1 ′′ 1 ℱ (x0 )(x − x0 )2 + ⋅ ⋅ ⋅ + ℱ (n) (x0 )(x − x0 )n 2 n! (3.21)

94 | 3 Analysis wobei allgemein ℱ (i) (x0 ) die i-te Ableitung der zu approximierenden Funktion ℱ an der Stelle x0 bezeichnet. Das Elegante hieran ist, dass die oft recht mühsam zu bestimmenden und auszuwertenden Ableitungen ℱ (i) (x0 ) nur ein einziges Mal und nur an einem einzigen Punkt, nämlich dem Entwicklungspunkt x0 , bestimmt werden müssen. Läuft die Summe bis ∞, wird also T∞ (︀ℱ⌋︀ (x) betrachtet, so wird sie entsprechend als Taylor-Reihe bezeichnet, anderenfalls heißt T n (︀ℱ⌋︀ (x) Taylor-Polynom vom Grad n. Durch das Abbrechen der Summation entsteht naturgemäß ein Fehler, der durch ein sogenanntes Restglied beschrieben wird, auf das im Folgenden allerdings nicht weiter eingegangen wird. Im folgenden Beispiel wird ein Taylor-Polynom sechsten Grades für die Funktion ℱ = cos2 (x) aufgestellt: Zunächst werden hierfür die ersten sechs Ableitungen dieser Funktion benötigt, was sich mit Hilfe der Produktregel vergleichsweise einfach gestaltet: ℱ (1) (x) = −2 sin(x) cos(x) ℱ (2) (x) = 2 sin2 (x) − 2 cos2 (x) ℱ (3) (x) = 8 sin(x) cos(x) ℱ (4) (x) = 8 cos2 (x) − 8 sin2 (x) ℱ (5) (x) = −32 cos(x) sin(x) ℱ (6) (x) = 32 sin2 (x) − 32 cos2 (x)

Diese Ableitungen müssen dann am Entwicklungspunkt, der hier als x0 = 0 festgelegt wird, ausgewertet werden, was ℱ (0) (x0 ) = cos2 (0) = 1 ℱ (1) (x0 ) = −2 sin(0) cos(0) = 0 ℱ (2) (x0 ) = 2 sin2 (0) − 2 cos2 (x) = −2 ℱ (3) (x0 ) = 8 sin(0) cos(0) = 0 ℱ (4) (x0 ) = 8 cos2 (x) − 8 sin2 (x) = 8 ℱ (5) (x0 ) = −32 cos(0) sin(0) = 0 ℱ (6) (x0 ) = 32 sin2 (0) − 32 cos2 (0) = −32

ergibt und direkt in (3.21) eingesetzt werden kann, woraus sich das folgende gesuchte Taylor-Polynom ergibt: T6 [︀cos2 ⌉︀ (x) = 1 − x2 +

1 4 2 6 x − x . 3 45

3.3 Funktionen

| 95

1 0.5 0

−0.5

− 2π

0 x

π 2

Abb. 3.33: f (x) = cos2 (x) (durchgezogen), Taylor-Polynom T6 f (x) sechsten Grades (gestrichelt) um den Entwicklungspunkt x0 = 0

Abb. 3.33 zeigt das Verhalten dieses Polynoms, verglichen mit der zu approximierenden Grundfunktion in einem Intervall um den Entwicklungspunkt x0 = 0 herum. Die vorangegangenen Kapitel haben einen kleinen Einblick in wesentliche Gebiete der Analysis gegeben, wobei Beweise aufgrund des begrenzten Platzes zurückstehen mussten. Deutlich ausführlichere Darstellungen zu diesen und verwandten Gebieten finden sich beispielsweise in (Deitmar 2017) oder (Forster 2016)). Die folgenden Kapitel widmen sich nun einem weiteren Themengebiet der Mathematik, der sogenannten linearen Algebra.

4 Lineare Algebra Allgemein gesprochen, befasst sich die lineare Algebra mit den Eigenschaften linearer Abbildungen auf Vektorräumen, wozu zunächst drei algebraische Strukturen eingeführt werden müssen. Die einfachste dieser Strukturen wird als Gruppe bezeichnet und besteht aus einer Grundmenge G sowie einer zweistelligen Operation, d. h. einer Operation, die – wie beispielsweise eine Addition – zwei Operanden miteinander verknüpft und meist als ○ dargestellt wird. Die Gruppe selbst wird als Tupel (G, ○) dargestellt. Mit G × G wird das kartesische Produkt von G mit sich selbst bezeichnet. Ein solches Produkt zweier Mengen erzeugt eine neue Menge aus Tupeln, die aus allen Kombinationen der Elemente der so miteinander verknüpften Mengen bestehen. Ist beispielsweise G = {a, b, c}, so ist G × G = {(a, a), (a, b), (a, c), (b, a), (b, b), (b, c), (c, a), (c, b), (c, c)} . Im Falle einer Gruppe operiert ○ also auf einem solchen kartesischen Produkt, und es gilt ○ ∶ G × G Ô⇒ G, d. h. das Ergebnis einer solchen Operation muss wieder ein Element aus der zugrunde liegenden Menge G sein. Weiterhin muss ○ assoziativ sein, es muss also a ○ (b ○ c) = (a ○ b) ○ c mit a, b, c ∈ G erfüllt sein. Darüber hinaus wird die Existenz eines sogenannten neutralen Elementes e ∈ G gefordert, das bezüglich der Anwendung von ○ keinen Effekt hat, es muss also a ○ e = e ○ a = a ∀a ∈ G gelten. Neben diesem neutralen Element, das sozusagen der Zahl 0 bezüglich der bekannten Addition oder der 1 bezüglich der Multiplikation entspricht, muss zu jedem Element a ∈ G ein sogenanntes inverses Element a−1 ∈ G existieren, für das a ○ a−1 = a−1 ○ a = e gilt. Falls die Operation ○ darüber hinaus auch kommutativ ist, falls also a ○ b = b ○ a ∀a, b ∈ G gilt, wird G Abel’sche Gruppe⁶⁸ genannt. Ein einfaches Beispiel für eine derartige Gruppe ist die Menge der ganzen Zahlen Z mit der bekannten Addition als Gruppenoperation. Das neutrale Element ist hier

68 Nach Nils Henrik Abel https://doi.org/10.1515/9783110496277-004

4.1 Vektorräume | 97

0, und für jedes a ∈ Z existiert ein inverses Element −a ∈ Z. Da weiterhin a + b = b + a ∀a, b ∈ Z gilt, ist Z zusammen mit der Addition sogar eine Abel’sche Gruppe. Eine als Tripel (K, +, ⋅) dargestellte Struktur auf Basis einer Menge K wird als Körper bezeichnet, wenn (K, +) alleine betrachtet eine Abel’sche Gruppe mit neutralem Element 0 ist. Weiterhin muss auch (K/ {0} , ⋅) eine solche Abel’sche Gruppe mit neutralem Element 1 darstellen. In beiden Fällen folgt aus der Notwendigkeit der Existenz eines neutralen Elementes das Vorhandensein einer Subtraktion beziehungsweise einer Division. Da ein Körper nun also zwei Operationen + und ⋅ besitzt, wird weiterhin gefordert, dass das Distributivgesetz erfüllt ist, konkret muss a ⋅ (b + c) = a ⋅ b + a ⋅ c ∀a, b, c ∈ K (a + b) ⋅ c = a ⋅ c + b ⋅ c ∀a, b, c ∈ K gelten, was als links- beziehungsweise rechtsdistributiv bezeichnet wird. Zwei bekannte derartige Körper sind (Q, +, ⋅) und (R, +, ⋅), wie sich leicht nachprüfen lässt. Ist bezüglich der Multiplikation die Existenz eines inversen Elementes nicht gegeben, handelt es sich um einen Ring. Beispielsweise ist (Z, +, ⋅) kein Körper, da in Z keine inversen Elemente bezüglich der Multiplikation existieren. Eine große Bedeutung, gerade in der Informatik, haben sogenannte Restklassenringe „modulo“ eines n ∈ N, die aus der Menge der ganzen Zahlen Z hervorgehen, wenn man diese bezüglich des Divisionsrestes betrachtet, der nach Division durch n bleibt. Das in Kapitel 2.3.7.1 als Beispiel bemühte Zifferblatt einer „Uhr“ mit 16 verschiedenen Werten kann als ein solcher Restklassenring „modulo 16“ aufgefasst werden. Solche Restklassenringe modulo n bestehen also aus n Elementen 0 ≤ i < n.

4.1 Vektorräume Mit Hilfe derartige Körper lassen sich nun sogenannte Vektorräume konstruieren. Die einzelnen Elemente eines Körpers werden als Skalare bezeichnet, da sie auf einer (eindimensionalen) Skala, wie beispielsweise einem Zahlenstrahl dargestellt werden können. Fasst man nun beispielsweise zwei derartige Skalare x, y ∈ K zu Tupeln der Gestalt (x, y) zusammen, können diese zwar nicht mehr als Punkt auf einem Zahlenstrahl, wohl aber als Punkte in einer Ebene identifiziert werden. Analog hierzu kann ein Tripel der Form (x, y, z) mit x, y, z ∈ K als Punkt in einem dreidimensionalen Raum aufgefasst werden usf. Derartige Tupel werden als Vektoren bezeichnet, deren Elemente Komponenten genannt werden. Ein n-elementiger Vektor ist also ein Element einer Produktmenge K n = K × ⋅ ⋅ ⋅ × K. Ein Vektor der Form (x, y) mit x, y ∈ R ist also ein Element des Produktes R × R = R2 , wobei die Potenz in diesem Zusammenhang als Dimension verstanden wird.

98 | 4 Lineare Algebra Vektoren werden meist durch einen Pfeil über dem eigentlichen Variablennamen kenntlich gemacht, z. B. also ⃗v. Unterschieden werden muss zwischen Spaltenvektoren der Form ⎛v1 ⎞ ⎜v2 ⎟ ⎟ ⃗v = ⎜ ⎜⋮⎟ ⎜ ⎟ ⎝v n ⎠ und Zeilenvektoren ⃗v = (v1 , v2 , . . . , v n ). Analog zu einem Körper kann nun ein Vektorraum, bestehend aus einer Grundmenge V zusammen mit einer Vektoraddition sowie einer Skalarmultiplikation „über einem Körper K“ definiert werden. Hierzu müssen folgende Bedingungen erfüllt sein: Es gilt das Assoziativitätsgesetz, d. h. es ist ⃗v1 + (⃗v2 + ⃗v3 ) = (⃗v1 + ⃗v2 ) + ⃗v3 für ⃗v1 , ⃗v2 , ⃗v3 ∈ V. Weiterhin muss das Kommutativgesetz ⃗v1 + ⃗v2 = ⃗v2 + ⃗v1 erfüllt sein. Auch muss ein neutrales Element, der sogenannte Nullvektor, d. h. ein Vektor, dessen Komponenten sämtlich gleich 0 sind, existieren, für den ⃗=0 ⃗ + ⃗v = ⃗v und ⃗v + 0 ⃗ ⃗v + (−⃗v) = −⃗v + ⃗v = 0 gilt. Die Vektoraddition addiert zwei Vektoren komponentenweise und wird als innere Verknüpfung bezeichnet, da sie auf Elementen aus V arbeitet und ein Ergebnis liefert, das seinerseits wieder in V liegt. Im Unterschied hierzu ist die Skalarmultiplikation eine äußere Verknüpfung, da bei ihr ein Vektor v ∈ V elementweise mit einem Skalar aus dem zugrundeliegenden Körper multipliziert wird, wobei das Ergebnis stets wieder in V liegen muss. Allgemein müssen für zwei Skalare a und b sowie zwei Vektoren ⃗v1 und ⃗v2 folgende Bedingungen erfüllt sein: a (⃗v1 + ⃗v2 ) = (a⃗v1 ) + (a⃗v2 ) (a + b) ⃗v1 = (a⃗v1 ) + (b⃗v1 ) (ab) ⃗v = a (b⃗v) = b(a⃗v) Hierbei muss das neutrale Element des Körpers K bezüglich der Multiplikation auch neutrales Element bezüglich der Skalarmultiplikation sein, es muss also 1⃗v = ⃗v1 = ⃗v

4.1 Vektorräume | 99

a⃗v1 ⃗v1 + ⃗v2 ⃗v1

⃗v1

⃗v2

Abb. 4.1: Vektoraddition ⃗ v1 + ⃗ v2 mit ⃗ v1 , ⃗ v2 ∈ V und Skalarmultiplikation a ⃗ v mit a ∈ K und ⃗ v∈V

gelten. Abb. 4.1 zeigt links anschaulich den Effekt der komponentenweisen Vektoraddition zweier Vektoren 1 4 ⃗v1 = ( ) und ⃗v2 = ( ) , 3 1 die jeweils als ein Punkt in einer Zahlenebene aufgefasst werden, wobei die erste (obere) Komponente der x- und die zweite (untere) der y-Koordinate entspricht. Auf der rechten Seite dargestellt ist die Skalarmultiplikation eines Vektors mit einem Skalar a. Diese Operation entspricht offenbar für ⋃︀a⋃︀ > 1 einer Streckung und für ⋃︀a⋃︀ < 1 einer Stauchung des jeweiligen Vektors. Mit Hilfe der Skalarmultiplikation sowie der Vektoraddition lassen sich nun Linearkombinationen aus n Skalaren a i und n Vektoren ⃗v n bilden: n

⃗v = ∑ a i ⃗v i i=1

Die einzelnen Terme einer solchen Summe sind also gestreckte oder gestauchte Vektoren. Eine nun naheliegende Frage ist, welche Punkte in einem Raum man mit Hilfe derartiger Linearkombinationen „erreichen“ kann. Mit nur einem Term der Form a1 ⃗v1 sind beispielsweise alle Punkte, die auf einer gedachten Geraden liegen, die in der gleichen Richtung liegt, in welche der Vektor ⃗v1 „zeigt“, erreichbar. Stehen jedoch beispielsweise zwei Vektoren der Form 1 0 ⃗v1 = ( ) und ⃗v2 = ( ) 0 1 zur Verfügung, die anschaulich in einem 90-Grad-Winkel zueinander stehen (der erste Vektor zeigt in Richtung der x-, der zweite in Richtung der y-Achse), so kann jeder Punkt in einer Ebene als Linearkombination der Form 1 0 a1 0 a1 a1 ⃗v1 + a2 ⃗v2 = a1 ( ) + a2 ( ) = ( ) + ( ) = ( ) 0 1 0 a2 a2

100 | 4 Lineare Algebra beschrieben werden. Hätten die beiden Vektoren jedoch beispielsweise die Gestalt 1 1 ⃗v3 = ( ) und ⃗v4 = ( ) , 0 1 so wäre dies nicht möglich. Die beiden ersten Vektoren sind also in gewisser Hinsicht „allgemeiner“ als diese beiden zweiten, da nur mit ihnen alle Punkte einer Ebene erreicht werden können. Lassen sich allgemein alle Elemente eines n-dimensionalen Vektorraumes als Linearkombination n gegebener Vektoren schreiben, so bildet die Menge dieser Vektoren eine Basis des Vektorraumes V. ⃗v1 und ⃗v2 sind also eine solche Basis für R2 , was für ⃗v3 und ⃗v4 zum Beispiel nicht gilt. Vektoren, die eine Basis bilden, heißen Basisvektoren; sie „spannen einen Vektorraum auf“. Diese Erkenntnis führt auf den wesentlichen Begriff der linearen Unabhängigkeit: Eine Menge von Vektoren ⃗v n heißt linear unabhängig, wenn die Gleichung ⃗ a1 ⃗v1 + a2 ⃗v2 + ⋅ ⋅ ⋅ + a n ⃗v n = 0 als einzige Lösung die Koeffizienten a1 = a2 = ⋅ ⋅ ⋅ = a n = 0 besitzt. Anschaulich bedeutet dies, dass keiner der Vektoren „überflüssig“ ist, indem er als Linearkombination der anderen Vektoren dargestellt werden kann. Ein Beispiel mag dies verdeutlichen: Die drei Vektoren ⎛1⎞ ⎛4⎞ ⎛7⎞ ⎟ ⎜ ⎟ ⎜ ⎟ ⃗v1 = ⎜ ⎜2⎟ , ⃗v2 = ⎜5⎟ und ⃗v3 = ⎜8⎟ ⎝3⎠ ⎝6⎠ ⎝9⎠ sind beispielsweise nicht linear unabhängig, da jeweils einer dieser Vektoren als Linearkombination der beiden anderen aufgefasst werden kann. So ist beispielsweise ⃗v1 = 2⃗v2 − ⃗v3 , d. h. eigentlich werden nur zwei Vektoren benötigt, der jeweils Dritte bringt keine weiteren Freiheitsgrade mit sich. Werden Vektoren als Punkte in einem Raum aufgefasst, stellt sich die Frage, wie „weit“ diese Punkte beispielsweise vom Nullpunkt des betrachteten Koordinatensystems entfernt sind, d. h. wie „lang“ der Vektor ist. Hierfür wird die sogenannte Norm benötigt, die einen Vektor auf einen Skalar abbildet, der die Länge des Vektors repräsentiert, wobei durchaus verschiedene Längendefinitionen sinnvoll sein können. Für eine solche Norm ∏︁⃗v∏︁ muss stets ⃗ ∏︁⃗v∏︁ = 0 Ô⇒ ⃗v = 0 gelten, d. h. ein Vektor, dessen Norm gleich Null ist, muss der Nullvektor sein. Weiterhin gilt ∏︁a⃗v∏︁ = ⋃︀a⋃︀∏︁⃗v∏︁, d. h. ein skalarer Vorfaktor kann als Betrag aus der Norm heraus gezogen werden, was anschaulich auch klar ist, da eine Skalarmultiplikation gerade einer Stauchung oder

4.1 Vektorräume |

101

Streckung eines Vektors entspricht. Zu guter Letzt erfüllt eine Norm stets die sogenannte Dreiecksungleichung ∏︁⃗v1 + ⃗v2 ∏︁ ≤ ∏︁⃗v1 ∏︁ + ∏︁⃗v2 ∏︁, d. h. die Summe zweier Vektoren kann nicht länger als die Summe der Längen der beiden Vektoren sein, was auch anhand der linken Hälfte von Abb. 4.1 deutlich wird. Eine der häufigsten Normen ist die sogenannte Euklidische Norm ⟨ ⧸︂ n 2 ⟩∑ v , ∏︁⃗v∏︁2 = ⧸︂ i=1

i

wobei die v i die Komponenten des Vektors ⃗v darstellen. Der Index 2 am Normsymbol korrespondiert mit der Quadratbildung in der Summe und gibt an, dass es sich um diese besondere Form einer Norm handelt. Anschaulich ist dies also eine n-dimensionale Variante des Satzes von Pythagoras. Angenommen, es ist v ⃗v = ( 1 ) , v2 so ist

⌉︂ ∏︁⃗v∏︁ =

v21 + v22 ,

was gerade der Hypothenuse des rechtwinkligen Dreiecks entspricht, dessen beiden Katheten gleich v1 und v2 sind. Ein Vektor ⃗v, für den ∏︁⃗v∏︁ = 1 gilt, wird Einheitsvektor genannt. Mit Hilfe der Norm lässt sich ein beliebiger Vektor normieren, d. h. durch geeignete Streckung oder Stauchung in einen Einheitsvektor ⃗v ⃗vnorm = ∏︁⃗v∏︁ verwandeln. Eine weitere essenzielle Operation ist das sogenannte Skalarprodukt, nicht zu verwechseln mit der zuvor eingeführten Skalarmultiplikation. Ein Skalarprodukt, geschrieben ∐︀⃗x , ⃗ỹ︀ bildet zwei Vektoren ⃗x und ⃗y auf einen Skalar gemäß folgender Berechnungsvorschrift ab: n

∐︀⃗x , ⃗ỹ︀ = ∑ x i y i i=1

Die beiden Vektoren werden also komponentenweise miteinander multipliziert und aus diesen Produkten wird die Summe berechnet. Hierauf lässt sich beispielsweise die Euklidische Norm zurück führen: ⌈︂ ∏︁⃗v∏︁ = ∐︀⃗v , ⃗ṽ︀

102 | 4 Lineare Algebra

4.2 Matrizen, Vektoren und Gleichungssysteme Eine Menge von Spalten- oder auch Zeilenvektoren lässt sich nun zu einer sogenannten Matrix zusammenfassen. So können n Spaltenvektoren der Form ⎛ a1,n ⎞ ⎛ a1,2 ⎞ ⎛ a1,1 ⎞ ⎜ a2,n ⎟ ⎜ a2,2 ⎟ ⎜ a2,1 ⎟ ⎟ ⎟ ⎟ ⃗2 = ⎜ ⃗m = ⎜ ⃗1 = ⎜ a ⎜ ⋮ ⎟ ⎜ ⋮ ⎟,...,a ⎜ ⋮ ⎟,a ⎟ ⎜ ⎟ ⎟ ⎜ ⎜ ⎝a m,n ⎠ ⎝a m,2 ⎠ ⎝a m,1 ⎠ zu einer rechteckigen Struktur der Form ⎛ a1,1 ⎜ a2,1 A=⎜ ⎜ ⋮ ⎜ ⎝a m,1

a1,2 a2,2 ⋮ a m,2

⋯ ⋯ ⋯ ⋯

a1,n ⎞ a2,n ⎟ ⎟ ⋮ ⎟ ⎟ a m,n ⎠

vereinigt werden. Matrizen werden in der Regel durch fettgedruckte Großbuchstaben repräsentiert, in diesem Fall also A. Hierbei handelt es sich um eine n-mal-m-Matrix oder auch n-Kreuz-m-Matrix, d. h. um eine rechteckige Struktur mit m Zeilen und n Spalten. Die einzelnen Bestandteile einer solchen Matrix werden ebenfalls als Komponenten bezeichnet und durch einen doppelten Index identifiziert, wobei zuerst der Zeilen- und dann der Spaltenindex notiert wird. In der Praxis werden die Kommata zwischen diesen beiden Indices häufig fortgelassen. Mit Hilfe des Skalarproduktes kann nun eine Matrix-Vektor-Multiplikation A⃗x definiert werden, vorausgesetzt, ⃗x besitzt soviele Komponenten, wie die Matrix A Spalten besitzt: ⎛ a1,1 ⎜ a2,1 A⃗x = ⎜ ⎜ ⋮ ⎜ ⎝a m,1

⋯ ⋯ ⋯ ⋯

a1,n ⎞ ⎛ x1 ⎞ ⎛ ∐︀(a1,1 , a1,2 , . . . , a1,n ) , ⃗x̃︀ ⎞ ⎟ ⎜ ⎟ ⎜ a2,n ⎟ ⎟ ⎜ x2 ⎟ = ⎜ ∐︀(a2,1 , a2,2 , . . . , a2,n ) , ⃗x̃︀ ⎟ . ⎟ ⎜ ⎟ ⎜ ⋮ ⋮ ⎟ ⎟ ⎟⎜ ⋮ ⎟ ⎜ a m,n ⎠ ⎝x n ⎠ ⎝∐︀(a m,1 , a m,2 , . . . , a m,n ) , ⃗x̃︀⎠

(4.1)

Anschaulich wird also der Vektor ⃗x um 90 Grad gegen den Uhrzeigersinn gedreht und „auf“ die einzelnen Zeilen der Matrix A gelegt. Aus jeder solchen Zeile und diesem Vektor wird dann das Skalarprodukt berechnet, das eine Komponente im resultierenden Vektor auf der rechten Seite dieser Gleichung ergibt. Im Falle einer 3-mal-3-Matrix ⎛a1,1 A=⎜ ⎜a2,1 ⎝a3,1

a1,2 a2,2 a3,2

und eines dreikomponentigen Vektors ⎛x1 ⎞ ⎟ ⃗x = ⎜ ⎜x2 ⎟ ⎝x3 ⎠

a1,3 ⎞ a2,3 ⎟ ⎟ a3,3 ⎠

4.2 Matrizen, Vektoren und Gleichungssysteme |

103

ist also ⎛a1,1 x1 + a1,2 x2 + a1,3 x3 ⎞ ⎟ ⃗ Ax = ⎜ ⎜a2,1 x1 + a2,2 x2 + a2,3 x3 ⎟ . ⎝a3,1 x1 + a3,2 x2 + a3,3 x3 ⎠ Mit Hilfe sogenannter Rotationsmatrizen können beispielsweise Vektoren in einem zwei- oder auch höherdimensionalen Raum rotiert werden, was beispielsweise in der Computergrafik eine bedeutende Rolle spielt.⁶⁹ Die Grundidee ist hierbei folgende: Um beispielsweise zwei Einheitsvektoren in x- und y-Richtung in einem zweidimensionalen Raum um einen gegebenen Winkel φ zu rotieren, müssen im Wesentlichen folgende Abbildungen durchgeführt werden, wie sich anhand der Definition von Sinus und Cosinus am Einheitskreis leicht zeigen lässt: 1 ( ) 0

cos(φ) ( ) sin(φ) rotiere um φ ÐÐÐÐÐÐÐ→

0 ( ) 1

− sin(φ) ( ). cos(φ)

Soll nun ein gegebener Vektor ⃗x, bestehend aus zwei Komponenten, um einen Winkel φ rotiert werden, so geschieht dies entsprechend mit Hilfe einer Matrix-VektorMultiplikation der Form cos(φ) ⃗xrotiert = ( sin(φ)

sin(φ) ) ⃗x . cos(φ)

Soll also beispielsweise eine aus einer Vielzahl von Vektoren ⃗x i bestehende Grafik rotiert werden, sind entsprechend viele Matrix-Vektor-Multiplikationen der obigen Form erforderlich. Im Zweidimensionalen ist klar, dass stets um den Nullpunkt des Koordinatensystems um einen bestimmten Winkel φ herum rotiert wird. Im dreideimensionalen Fall wird meist eine Gerade im Raum, um die herum rotiert werden soll, in Form eines Einheitsvektors ⎛x⎞ ⎟ ⃗r = ⎜ ⎜y⎟ ⎝z⎠

69 Der Vollständigkeit halber sei an dieser Stelle angemerkt, dass hierfür heutzutage auch sogenannte Quaternionen verwendet werden, die einige Vorteile gegenüber den hier beschriebenen Rotationsmatrizen aufweisen.

104 | 4 Lineare Algebra definiert. Aus den Komponenten dieses Vektors und dem Rotationswinkel φ ergibt sich dann für den dreidimensionalen Fall folgende Rotationsmatrix:⁷⁰ 2 ⎛ cos(φ) + x (1 − cos(φ)) ⎜xy(1 − cos(φ)) + z sin(φ) ⎜ ⎝xz(1 − cos(φ)) − y sin(φ)

xy(1 − cos(φ)) − z sin(φ) cos(φ) + y2 (1 − cos(φ)) yz(1 − cos(φ)) + x sin(φ)

xz(1 − cos(φ)) + y sin(φ)⎞ yz(1 − cos(φ)) − x sin(φ)⎟ ⎟ cos(φ) + z2 (1 − cos(φ)) ⎠

Eine weitere zentrale Anwendung von Matrix-Vektor-Multiplikationen ist die Darstellung sogenannter linearer Gleichungssysteme: a1,1 x1 + a1,2 x2 + ⋅ ⋅ ⋅ + a1,n x1 = b1 a2,1 x1 + a2,2 x2 + ⋅ ⋅ ⋅ + a2,n x2 = b2 ...

...

...

...

... = ...

(4.2)

a m,1 x1 + a m,2 x2 + ⋅ ⋅ ⋅ + a m,n x n = b m Solche Systeme aus Gleichungen, die alle miteinander gekoppelt sind, treten an vielen Stellen, vornehmlich im technisch/naturwissenschaftlichen Bereich auf. Bei⃗ mit spielsweise beschreibt A⃗x = b 3 A=( 5

7 ⃗ 27 x1 ) , b = ( ) und ⃗x = ( ) 4 22 x2

die beiden gekoppelten Gleichungen 3x1 + 7x2 = 27 und

(4.3)

5x1 + 4x2 = 22.

(4.4)

Gesucht sind hier also die Werte der beiden Variablen x1 und x2 , durch welche das Gleichungssystem gelöst wird. Bei so kleinen Gleichungssystemen kann man noch ohne ein besonderes Verfahren vorgehen, indem eine der Gleichungen nach einer der Variablen aufgelöst und dann in die andere Gleichung eingesetzt wird: Aus (4.3) folgt hier zunächst 27 − 7x2 x1 = , 3 was in (4.4) eingesetzt werden kann, woraus sich 5 (27 − 7x2 ) + 4x2 = 22 3 12 5 ⋅ 27 35 − x2 + x2 = 22, 3 3 3 70 Angesichts so vieler Auswertungen trigonometrischer Terme wird der Wunsch nach einer „einfachen“ Darstellung von sin(φ) und cos(φ), wie beispielsweise durch ein Taylor-Polynom, verständlich. In der Praxis kommen neben solchen Polynomen auch häufig Lookup-Tabellen oder ein als CORDIC, kurz für Coordinate Rotation Digital Computer, zum Einsatz (siehe beispielsweise (Volder 1959)).

4.2 Matrizen, Vektoren und Gleichungssysteme |

105

d. h.

5 ⋅ 27 − 22 ⋅ 3 =3 23 ergibt. Dies kann nun wieder in (4.3) eingesetzt werden und liefert x2 =

x1 =

27 − 21 = 2. 3

Im Prinzip könnte man so auch im Falle größerer Gleichungssysteme mit mehr als nur zwei Unbekannten vorgehen, allerdings ist das Verfahren nicht nur sehr mühsam, sondern auch stark fehleranfällig, wenn es mit der Hand durchgeführt wird. Deutlich praktikabler sind schematisierte Lösungsverfahren, wie die klassische Gauß-Elimination, deren Grundidee darin besteht, ein Gleichungssystem der Form (4.2) durch geeignete Umformungen in ein System der Form a′1,1 x1 + a′1,2 x2 + ⋅ ⋅ ⋅ + a′1,n x n = b1 a′2,2 x2 + ⋅ ⋅ ⋅ + a′2,n x n = b2 ...

...

... = ...

a′n,n x n

= bn

zu bringen. Dann kann, ausgehend von der letzten Zeile x n bestimmt werden. Dieser Wert wird dann in die vorletzte Zeile eingesetzt, um x n−1 zu erhalten usf. – ein Prozess, der Rücksubstitution genannt wird.⁷¹ Hierbei können einzelne Zeilen des Gleichungssystems mit beliebigen Skalaren multipliziert und voneinander abgezogen oder zueinander addiert werden, um nach mehreren solcher Schritte die gewünschte Gestalt zu erhalten, wie folgendes Beispiel verdeutlicht: 2x1 + 2x2 + 2x3 = 12 4x1 − 2x2 + 7x3 = 21 3x1 + 5x2 − 9x3 = −14

(4.5) subtrahiere 2 mal (4.5) 3 subtrahiere mal (4.5) 2

2x1 + 2x2 + 2x3 = 12 −6x2 + 3x3 = −3 2x2 − 12x3 = −32

(4.6) addiere

1 mal (4.6) 3

2x1 + 2x2 + 2x3 = 12 −6x2 + 3x3 = −3 −11x3 = −33

(4.7) (4.8)

71 Eine erweiterte Variante dieses Verfahrens ist als Gauß-Jordan-Verfahren bekannt. Es unterscheidet sich von der Gauß-Elimination dadurch, dass kein Rücksubstitutionsschritt erforderlich ist, da am Ende des Verfahrens in jeder Zeile nur noch eine Unbekannte steht, die direkt abgelesen werden kann.

106 | 4 Lineare Algebra I II

2 2 4 −2

III

3

5

I II’

2

2 −6

III’

2 7

12 21 −2I

−9 −14 − 32 I 2 3

12 −3

2 −12 −32 + 13 II’

I 2 2 2 12 II’ −6 3 −3 III” −11 −33 Abb. 4.2: Lösen eines linearen Gleichungssystems mit dem Gauß-Verfahren

Aus (4.8) folgt direkt x3 = 3, was in (4.7) eingesetzt werden kann und x2 = 2 ergibt. Diese beiden Werte können nun in (4.5) eingesetzt werden, um die fehlende Unbekannte x1 = 1 zu erhalten. In der Praxis werden die einzelnen Gleichungen nicht ausgeschrieben – vielmehr ⃗ die arbeitet man direkt mit den Koeffizienten der Matrix A sowie dem Ergebnisvektor b, in Form einer sogenannten erweiterten Koeffizientenmatrix notiert werden. In dieser Form lässt sich das obige Beispiel, wie in Abb. 4.2 dargestellt, lösen. Ganz anschaulich ist klar, dass ein solches Gleichungssystem mit n Unbekannten nicht eindeutig lösbar ist, wenn weniger Gleichungen als Unbekannte gegeben sind – in diesem Fall wird das System unterbestimmt genannt, und es gibt in der Regel nicht nur eine einzige Lösung, sondern einen ganzen Lösungsraum. Um nur eine einzige Lösung zu besitzen, erfordert ein Gleichungssystem mit n Unbekannten auch n linear unabhängige Gleichungen, was allerdings eine notwendige, jedoch nicht hinreichende Bedingung ist. Abbildung 4.3 zeigt exemplarisch drei typische Fälle, die bei solchen Gleichungssystemen auftreten können. Links sind die beiden Gleichungen des Systems x1 + x2 = 2 x1 − x2 = 0 dargestellt, das genau eine Lösung, nämlich die Koordinaten des Schnittpunktes der beiden durch die Gleichungen definierten Geraden besitzt. In der Mitte der Abbildung ist das Gleichungssystem x1 + x2 = 2 x1 + x2 = 0 dargestellt. Hier widersprechen sich die Gleichungen offensichtlich und liefern zwei parallel zueinander verlaufende Geraden, so dass keine Lösung existiert. Ganz rechts

4.3 Weitere Operationen und Matrizen |

4

4

4

2

2

2

0

0

0

−2

−2

−2

−2

0

2

0

−2

2

−2

0

107

2

Abb. 4.3: Lösbares, unlösbares und unterbestimmtes Gleichungssystem

ist das unterbestimmte Gleichungssystem x1 + x2 = 2 3x1 + 3x2 = 6 dargestellt, das unterbestimmt ist, da die beiden Gleichungen voneinander linear abhängig sind (die zweite Gleichung entspricht gerade dem Dreifachen der ersten Gleichung), so dass beide Gleichungen ein und dieselbe Gerade beschreiben. Dieses System besitzt also unendlich viele Lösungen, nämlich alle auf dieser Geraden liegenden Punkte.

4.3 Weitere Operationen und Matrizen Unter der Transposition einer Matrix versteht man eine Operation, welche die Spaltenund Zeilenindices der Komponenten der Matrix vertauscht – anschaulich wird die Matrix also an ihrer Diagonalen gespiegelt. Aus einer n-mal-m-Matrix A entsteht durch Transposition eine m-mal-n-Matrix AT . Angewandt auf einen Spaltenvektor liefert die Transposition einen Zeilenvektor und umgekehrt. Analog zur Matrix-Vektor-Multiplikation wird eine Matrix-Matrix-Multiplikation definiert, wobei die Matrix auf der rechten Seite der Multiplikation als eine Menge von Spaltenvektoren aufgefasst wird. Für jeden dieser Spaltenvektoren wird dann eine Matrix-Vektor-Multiplikation durchgeführt, die eine Spalte der Ergebnismatrix liefert. Eine solche Multiplikation ist in der Regel nicht mehr kommutativ, d. h. es gilt im Allgemeinen AB ≠ BA, wie folgendes Beispiel zeigt: Gegeben sind zwei Matrizen ⎛1 A=⎜ ⎜3 ⎝5

2⎞ 2 4⎟ ⎟ und B = (1 6⎠

0 3

1 ). 2

108 | 4 Lineare Algebra Da A soviele Spalten wie B Zeilen besitzt und umgekehrt, können sowohl AB als auch BA gebildet werden, die jedoch vollkommen unterschiedliche Gestalt haben: ⎛4 AB = ⎜ ⎜10 ⎝16

6 12 18

5⎞ 7 11⎟ ⎟ und BA = (20 17⎠

10 ) 26

Nachdem Matrizen komponentenweise addiert und, wie eben beschrieben, auch mit Hilfe einer Vielzahl von Skalarprodukten multipliziert werden können, stellt sich die Frage nach den neutralen Elementen bezüglich dieser beiden Operationen. Im Falle der Addition liegt das neutrale Element auf der Hand, es ist die Nullmatrix, d. h. eine Matrix, deren Komponenten sämtlich gleich 0 sind. Das neutrale Element bezüglich der Matrix-Matrix-Multiplikation ist die als Einheitsmatrix oder auch Identitätsmatrix bezeichnete Matrix der Form ⎛1 ⎜0 ⎜ ⎜ I = ⎜0 ⎜ ⎜⋮ ⎜ ⎝0

0 1 0 ⋮ 0

0 0 1 ⋮ 0

⋯ ⋯ ⋯ ⋱ ⋯

0⎞ 0⎟ ⎟ ⎟ , 0⎟ ⎟ ⋮⎟ ⎟ 1⎠

es gilt also A+0=0+A=A und AI = IA = A. Eine weitere wichtige Operation auf Matrizen ist die Berechnung der sogenannten Determinante, die meist kurz mit Betragsstrichen um die Matrix notiert wird, ⋃︀A⋃︀, und einer Matrix einen Skalar zuordnet, mit dessen Hilfe beispielsweise entschieden werden kann, ob ein Gleichungssystem, das auf der betreffenden Matrix beruht, überhaupt lösbar ist. Für 2-mal-2-Matrizen gilt ⋁︀

a11 a21

a12 ⋁︀ = a11 a22 − a12 a21 , a22

während die Determinante einer 3-mal-3-Matrix gleich ∫︀∫︀∫︀a ∫︀∫︀∫︀ 11 ∫︀∫︀∫︀∫︀a21 ∫︀∫︀∫︀ ∫︀∫︀a31

a12 a22 a32

a13 ∫︀∫︀∫︀∫︀ ∫︀∫︀ a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a23 ∫︀∫︀∫︀∫︀ = −a13 a22 a31 − a11 a23 a32 − a12 a21 a33 ∫︀∫︀∫︀ a33 ∫︀∫︀

(4.9)

ist. Ist ⋃︀A⋃︀ = 0, so sind die Spaltenvektoren, aus denen sich die Matrix zusammensetzt, nicht linear unabhängig. Den zugegebenermaßen etwas unhandlichen Ausdruck (4.9)

4.3 Weitere Operationen und Matrizen |

+ a11

+ a12

+ a13

a11

a12

a21

a22

a23

a21

a22

a31 −

a32 −

a33 −

a31

a32

109

Abb. 4.4: Berechnung der Determinante einer 3 × 3-Matrix nach der der Regel von Sarrus

kann man sich mit der sogenannten Regel von Sarrus⁷² herleiten. Hierzu werden die Koeffizienten der Matrix wie in Abbildung 4.4 dargestellt notiert, wobei die beiden ersten Spalten der Matrix noch einmal rechts neben die Matrix geschrieben werden. Dann werden den Diagonalen von links oben nach rechts unten folgend die Produkte der Koeffizienten gebildet und addiert, wovon die Produkte entlang der Diagonalen von rechts oben nach links unten gebildet und subtrahiert werden. Wichtig ist, dass diese Regel nur zur Bestimmung der Determinanten von 3×3-Matrizen genutzt werden kann! Matrizen größerer Dimension müssen anders behandelt werden. Gilt ⋃︀A⋃︀ ≠ 0, so kann die Matrix A invertiert werden, d. h. es kann eine zugehörige Matrix A−1 bestimmt werden, für die gilt AA−1 = A−1 A = I. Eine solche inverse Matrix lässt sich mit Hilfe eines etwas modifizierten Gauß-Jordan-Verfahrens bestimmen, indem die Elemente der Ausgangsmatrix A sowie einer Identitätsmatrix I nebeneinander in Form einer erweiterten Koeffizientenmatrix geschrieben werden A⋃︀I. Nun wird diese erweiterte Matrix so lange mit Hilfe der zuvor beschriebenen Methoden (Multiplikation von Zeilen mit geeignet gewählten Faktoren, Addition und Subtraktion von Zeilen) so lange umgeformt, bis die linke Hälfte die Gestalt einer Identitätsmatrix animmt. Die sich rechts ergebende Matrix ist dann A−1 . Abb. 4.5 zeigt, wie die inverse Matrix zu ⎛−2 0 −2⎞ ⎟ A=⎜ ⎜−3 −2 8 ⎟ ⎝1 0 2⎠ mit dieser Methode bestimmt werden kann. Es ergibt sich ⎛−1 7 A−1 = ⎜ ⎜2 ⎝ 21

0 − 12 0

−1⎞ 11 ⎟ 2 ⎟ 1⎠

Ist eine solche inverse Matrix A−1 bekannt, kann mit ihrer Hilfe auch ein lineares ⃗ gelöst werden, indem es von links mit A−1 multiGleichungssystem der Form A⃗x = b pliziert wird: ⃗ A−1 A⃗x = A−1 b, 72 Nach Pierre Frédéric Sarrus.

110 | 4 Lineare Algebra I II III I II

−2 0 −2 −3 −2 8

1 0

0 1

0 0

2

0

0

1 + 12 I

−2 0 −2 −3 −2 8

1 0

0 1

0 +2III 0

1

0

0

0

1

1 2

0

1

I’

−2

0

0

2

0

2 ÷(−2)

II

−3 −2

8

0

1

0

1

1 2

0

1

0 −1 8 0

0 1

1 2

0

III’

III’ I” II

0

0

1 0 −3 −2 0

1

−1 0 +3I

III’

0

I” II’

1 0 0 −2

0 −1 8 −3

0 1

III’

0

0

1

1 2

0

1

I”

1

0

0 −1

0

−1

II”

0 −2

0 −7

1 −11 ÷(−2)

1 −1 −3 −8III

1 2

0

1

III’

0

0

1

I”

1

0

0 −1

0

−1

− 21

11 2

0

1

II”’

0

1

0

7 2

III’

0

0

1

1 2

Abb. 4.5: Bestimmen einer inversen Matrix

d. h.

⃗ ⃗x = A−1 b.

Da der Aufwand, die inverse Matrix zu bestimmen, jedoch immens ist, bietet sich dieses Verfahren nur an, wenn eine Vielzahl von Gleichungssystemen mit gleicher Matrix ⃗ gelöst werden soll. A, aber wechselnden Vektoren b Ein letzter Matrizentyp, der in diesem Zusammenhang kurz betrachtet werden soll, ist die Permutationsmatrix, mit deren Hilfe Elemente eines Vektors durch eine Matrix-Vektor-Multiplikation vertauscht werden können. Eine solche Matrix kann aus einer Einheitsmatrix I durch Vertauschen von Zeilen erzeugt werden. Beispielsweise

4.3 Weitere Operationen und Matrizen | 111

vertauscht die Permutationsmatrix ⎛0 ⎜1 P=⎜ ⎜0 ⎜ ⎝0

1 0 0 0

0 0 1 0

0⎞ 0⎟ ⎟ 0⎟ ⎟ 1⎠

die beiden ersten Komponenten eines vierkomponentigen Vektors ⃗x, der mit ihr multipliziert wird: ⎛0 1 0 0⎞ ⎛x1 ⎞ ⎛x2 ⎞ ⎜1 0 0 0⎟ ⎜x2 ⎟ ⎜x1 ⎟ ⎜ ⎟⎜ ⎟ ⎜ ⎟ ⎜0 0 1 0⎟ ⎜x ⎟ = ⎜x ⎟ ⎜ ⎟ ⎜ 3⎟ ⎜ 3⎟ ⎝0 0 0 1⎠ ⎝x4 ⎠ ⎝x4 ⎠

5 Stochastik Ein weiteres wichtiges Gebiet der Mathematik ist die Stochastik, unter der die Wahrscheinlichkeitsrechnung, die sich mit der Untersuchung und Darstellung zufälliger Vorgänge befasst, sowie die Statistik, die auf Basis empirisch erhobener Daten Modelle und Theorien über die den Daten zugrunde liegenden Prozesse herleitet, zusammengefasst werden. Zufällige Prozesse bzw. Prozesse, bei denen kein Kausalzusammenhang zu Vorläuferereignissen herstellbar ist, treten nicht nur bei Glückspielen, sondern in nahezu allen Bereichen der Natur auf. Entsprechend große Bedeutung kommt der mathematischen Formulierung solcher Systeme zu.⁷³

5.1 Grundlagen Betrachtet man ein gegebenes System mit einer Ereignismenge Ω – diese Menge beinhaltet alle Ereignisse, die beobachtet werden können –, so wird ein Element dieser Menge durch ω bezeichnet und tritt mit einer bestimmten, für das System und die Beobachtung typischen Wahrscheinlichkeit p, ein. Wird beispielsweise ein Spielwürfel betrachtet, so ist Ω = {1, 2, 3, 4, 5, 6}, und die Wahrscheinlichkeit p, kurz für „probability“, für das Eintreten eines beliebigen Ereignisses ω ∈ Ω beträgt – im Falle eines ungezinkten Würfels – p = 61 .⁷⁴ Die Wahrscheinlichkeit für das Auftreten eines bestimmten Ereignisses wird durch P(ω) bezeichnet. Es gilt stets 0 ≤ P(ω) ≤ 1 – eine Wahrscheinlichkeit von 0 entspricht einem Ereignis, das niemals eintritt, während 1 ein Ereignis beschreibt, das in jedem Fall eintritt. Unter der Annahme, dass Ω vollständig ist, also wirklich alle möglichen Ereignisse beinhaltet, muss also ∑ P(ω) = 1 ω∈Ω

gelten. Eine Größe, die nicht offensichtlich kausal bedingt ist, also durch einen zufälligen Prozess bestimmt wird, heißt Zufallsvariable und wird durch ein Zufallsexperiment bestimmt. Solche Variablen werden in der Regel durch Großbuchstaben repräsentiert. Um beim Beispiel eines Spielwürfels zu bleiben, könnte ein Glücksspiel darin

73 Hiervon abzugrenzen sind die bereits genannten Pseudozufallszahlen, die zwar idealerweise von echten Zufallszahlen nicht zu unterscheiden sind, aber natürlich auf Basis eines Algorithmus berechnet werden und damit zumindest prinzipiell vorhersagbar sind. 74 Mit p wird im Allgemeinen die Wahrscheinlichkeit für das Eintreten eines „Erfolges“ bezeichnet. https://doi.org/10.1515/9783110496277-005

Kombinationen für „Kopf“-Anzahl

5.1 Grundlagen

20

20 15 10

0

| 113

15

6

6

1 0

1 1

2

3

4

5

6

Anzahl „Kopf“ bei je 6 Würfen Abb. 5.1: Häufigkeiten des Auftretens von 0 ≤ n ≤ 6-mal „Kopf“ bei sechsmaligem Werfen einer fairen Münze

bestehen, dass ein Gewinn ausgeschüttet wird, wenn eine gerade Augenzahl gewürfelt wird, während eine ungerade Augenzahl einem verlorenen Spiel entspricht. In diesem Fall ist X(ω) = {

0 1

falls ω ∈ {1, 3, 5}, , falls ω ∈ {2, 4, 6}.

d. h. die Zufallsvariable X bildet ein Ereignis ω ∈ Ω auf die Menge {0, 1} ab, womit Verlust und Gewinn gekennzeichnet werden. Nach der Durchführung eines Zufallsexperimentes besitzt eine solche Zufallsvariable eine sogenannte Realisierung, in diesem Fall also entweder 0 oder 1. Solche Realisierungen werden wiederum durch Kleinbuchstaben bezeichnet. Wird beispielsweise eine „faire“, d. h. nicht gezinkte Münze sechsmal hintereinander geworfen, so entsteht durch dieses Zufallsexperiment eine Folge von sechs Zufallsvariablenrealisierungen, und eine typische Frage in diesem Zusammenhang könnte die sein, wie häufig in einer solchen Folge „Kopf“ auftritt. Offensichtlich gibt es beispielsweise nur eine einzige Folge, in der kein einziges Mal Kopf auftritt, ebenso, wie es nur eine Folge gibt, in der sechsmal Kopf beobachtet wird. Wieviele solcher Folgen gibt es, in denen einmal, zweimal, dreimal, viermal und fünfmal Kopf auftritt? Abb. 5.1 zeigt die Anzahl möglicher Kombinationen für die unterschiedliche Häufigkeit des Ereignisses Kopf bei einer solchen Folge von Münzwürfen. Offensichtlich ist die Anzahl möglicher Folgen symmetrisch um den Fall, dass genau dreimal Kopf auftritt, gruppiert, wobei es 26 = 64 verschiedene Folgen von Realisierungen bei sechsfachem Münzwurf gibt. Für die Wahrscheinlichkeiten gilt in diesem Fall also

114 | 5 Stochastik

F(x) = P(X ≤ x)

1

0.5

0 0

2

4

6

x Abb. 5.2: Kumulative Verteilungsfunktion

1 , 64 6 3 P(einmal Kopf) = P(fünfmal Kopf) = = , 64 32 15 und P(zweimal Kopf) = P(viermal Kopf) = 64 5 20 = . P(dreimal Kopf) = 64 16 P(keinmal Kopf) = P(sechsmal Kopf) =

Die Summe dieser Wahrscheinlichkeiten muss selbstverständlich wieder gleich 1 sein, da eines der Ereignisse auf jeden Fall eintreten muss. Werden diese Wahrscheinlichkeiten schrittweise summiert, so ergibt sich die sogenannte (kumulative) Verteilungsfunktion F(x), die offensichtlich monoton wachsend und nach oben durch 1 beschränkt ist. Abb. 5.2 zeigt diese Verteilungsfunktion für den Fall des sechsmaligen Werfens.⁷⁵ Eine solche Funktion gibt also an, wie groß die Wahrscheinlichkeit ist, dass eine Zufallsvariable einen Wert ≤ x annimmt.

75 Falls es sich nicht, wie in diesem Fall, um eine diskrete, sondern um eine stetige Verteilung handelt, wird die Summenbildung bei der kumulativen Verteilungsfunktion durch eine Integration ersetzt.

5.2 Verteilungen | 115

5.2 Verteilungen Eine zentrale Eigenschaft eines zufälligen Prozesses ist die ihm zugrunde liegende Verteilung – im Falle eines ungezinkten Würfels, bei dem jede der sechs möglichen Realisierungen der zugeordneten Zufallsvariablen gleichermaßen wahrscheinlich ist, liegt beispielsweise eine Gleichverteilung vor. Allgemein ist in einem solchen Fall die Wahrscheinlichkeit für das Eintreten eines Ereignisses aus einer Menge X von Ereignissen gleich ⋃︀X⋃︀ P(X) = , ⋃︀Ω⋃︀ wobei durch die senkrechten Striche die Mächtigkeit der beiden Mengen X und Ω beschrieben werden. Mit Hilfe eines einzigen Wurfes könnte ein gezinkter Würfel sicherlich nicht identifiziert werden, was aber ist, wenn sehr häufig geworfen wird? In diesem Falle muss bei angenommener Gleichverteilung, d. h. einem ungezinkten Würfel, das arithmetische Mittel der Ergebnisse der einzelnen Würfe „nahe“ bei dem sogenannten Erwartungswert μ oder auch E(X) liegen. Für diesen gilt im Falle diskreter Zufallsvariablen mit einer endlichen Anzahl von n Realisierungen x i n

E(X) = ∑ x i P(x i ). i=1

Ein fairer sechsseitiger Spielwürfel hat also den Erwartungswert 6

1 1 n i = ∑ i = 3, 5. 6 i=1 i=1 6

E(X) = ∑

Weicht der gemessene Wert bei hinreichend großer Anzahl von Würfen stark hiervon ab, ist die Fairness des Würfels entsprechend in Zweifel zu ziehen. Dies wird auch als Gesetz der großen Zahlen bezeichnet: Die relative Häufigkeit eines Zufallsergebnisses, wie in diesem Falle dem Wurf eines Spielwürfels, kommt mit steigender Anzahl von Experimenten immer näher an dem theoretisch zu erwartenden Wert zu liegen, was in diesem Falle dem arithmetischen Mittel entspricht. Viele, wenn nicht die meisten natürlichen Prozesse, unterliegen jedoch keiner einfachen Gleichverteilung wie im Beispiel des Spielwürfels. Vielmehr tritt hier meist eine sogenannte Normalverteilung auf, die auch als Gauß’sche-Normalverteilung bezeichnet wird. Typische Beispiele hierfür sind beispielsweise Messwerte der Körpergröße von Personen – nur sehr wenige Personen werden sehr klein oder sehr groß sein, während die Mehrzahl der Menschen in der Nähe einer durchschnittlichen Größe liegt – oder auch IQ-Werte, wie sie in Abb. 5.4 dargestellt sind etc.

Häufigkeit

116 | 5 Stochastik

0, 1%

50

2, 1%

60

13, 6%

70

34, 1%

80

90

34, 1%

100

110

13, 6%

120

130

2, 1%

140

0, 1%

150

IQ Abb. 5.3: Wahrscheinlichkeitsdichte normalverteilter IQ-Werte

Die Messwerte bei IQ-Tests sind, wie Abb. 5.3 zeigt, symmetrisch⁷⁶ rund um den Erwartungswert von 100 IQ-Punkten verteilt, wobei sehr hohe und sehr niedrige Werte mit steigendem Abstand von diesem Wert zunehmend seltener werden. Beispielsweise besitzen jeweils etwa 13, 6 % der Bevölkerung einen IQ zwischen 70 und 85 beziehungsweise einen solchen zwischen 115 und 130, während jeweils nur 2, 1 % in den Bereichen zwischen 55 und 70 bzw. 130 bis 145 Punkten liegen. Nur noch 0, 1 % weisen einen IQ unter 55 oder einen über 145 auf. Hierbei stellt sich nun die Frage, wie weit die Werte einer Zufallsvariablen X von E(X) abweichen, d. h. wie stark sie um den Erwartungswert herum „streuen“. Dies wird durch die sogenannte Varianz σ2X oder auch Var(X) zum Ausdruck gebracht, die als Var(X) = E ((X − E(X))2 ) definiert ist, d. h. im diskreten Fall ist n

Var(X) = ∑(x i − E(X))2 P(x i ). i=1

Das Quadrat unter der Summe stellt sicher, dass sich Werte, die beispielsweise symmetrisch um einen Erwartungswert von 0 herum liegen, nicht gegenseitig aufheben und damit fälschlicherweise eine zu kleine Varianz liefern würden. Durch das Quadrieren ist sichergestellt, dass Werte, die links eines E(X) = 0 liegen, ebenso positiv in die Summe eingehen wie Werte, die rechts davon liegen. Die Auswirkungen unterschiedlicher Varianzen auf die Form einer Normalverteilung zeigt Abb. 5.4. Mit steigender Varianz verläuft die Kurve flacher und strebt damit auch langsamer gegen 0. Je geringer also die Varianz ist, desto weniger streuen

76 Es gibt auch Verteilungen, die nicht symmetrisch um einen Erwartungswert liegen, in solchen Fällen spricht man von der Schiefe einer Verteilung, die auch mathematisch erfasst und charakterisiert werden kann.

5.3 Bedingte Wahrscheinlichkeiten | 117

Var(X) =

1 2

Var(X) = 1 Var(X) = 2 Var(X) = 3

−4

−3

−2

−1

0

1

Abb. 5.4: Dichtefunktionen der Normalverteilung für Var(X) = Var(X) = 3 mit E(X) = 0

2 1 , 2

3

4

Var(X) = 1, Var(X) = 2 und

die Werte X um den Erwartungswert E(X) herum. Eine solche Normalverteilung wird durch 𝒩 (E(X), Var(X)) bezeichnet. Um zu beschreiben, wie stark X um E(X) herum streut, wird in der Regel die Standardabweichung ⌈︂ σ X = Var(X) genutzt. Für Normalverteilungen gilt die sogenannte 68-95-99, 7-Regel, die besagt, dass sich 68, 27 % der Realisierungen einer Zufallsvariablen innerhalb des Intervalls (︀E(X) − σ X , E(X) + σ X ⌋︀ befinden. Im Intervall (︀E(X) − 2σ X , E(X) + 2σ X ⌋︀ liegen bereits 95, 45 % und in (︀E(X) − 3σ X , E(X) + 3σ X ⌋︀ liegen 99, 73 % aller Realisierungen. Neben dieser Normalverteilung gibt es eine Vielzahl weiterer Verteilungen, wie beispielsweise die Binomialverteilung, die Poisson-Verteilung⁷⁷ und viele mehr, auf die im Folgenden jedoch nicht weiter eingegangen wird.

5.3 Bedingte Wahrscheinlichkeiten In den vorangegangenen Kapitel wurden stets voneinander unabhängige Ereignisse, d. h. Ereignisse, die einander nicht beeinflussen, betrachtet. Häufig liegen in der Praxis jedoch bedingte Wahrscheinlichkeiten vor, d. h. die Wahrscheinlichkeit, dass ein Ereignis A eintritt, hängt im einfachsten Fall von einem anderen Ereignis B ab. Beispielsweise könnte B beschreiben, wie wahrscheinlich es ist, dass jemand vergisst, eine Zimmerpflanze zu gießen – etwas, wovon die Wahrscheinlichkeit, mit der die even-

77 Nach Siméon Denis Poisson.

118 | 5 Stochastik tuell vernachlässigte Pflanze eingeht, offensichtlich stark abhängt. Solche bedingten Wahrscheinlichkeiten werden mit P(A⋂︀B) bezeichnet und es gilt P(A⋂︀B) =

P(A ∩ B) , P(B)

(5.1)

wobei der Zähler beschreibt, wie groß die Wahrscheinlichkeit ist, dass sowohl das Ereignis A als auch das Ereignis B eingetreten sind.⁷⁸ Mit zwei solchen abhängigen Ereignissen ergibt sich die in Abbildung 5.5 dargestellte Baumstruktur (vgl. Band 2, Kap. I.6), wobei ein Querstrich über A oder B kennzeichnet, dass das entsprechende Ereignis nicht eingetreten ist.⁷⁹ Ein Beispiel mag dies verdeutlichen: Wie groß ist die bedingte Wahrscheinlichkeit, bei zweimaligem Würfeln mit einem fairen Spielwürfel eine Augensumme von mindestens 10 zu erzielen, wenn beim ersten Wurf eine 5 kam? Die Wahrscheinlichkeit für eine 5 im ersten Wurf ist offenbar einfach P(B) = 61 . Um eine Augensumme von mindestens 10 zu erzielen, muss also im zweiten Wurf entweder erneut eine 5 oder aber eine 6 gewürfelt werden. Allgemein gibt es jedoch bei zwei Würfen 62 = 36 verschiedene Kombinationen, von denen in diesem Beispiel allerdings nur zwei zum gewünschten Ziel führen, nämlich A ∩ B = {(5, 5), (5, 6)} . Damit ist also P(A ∩ B) = anzuwenden:

2 36 ,

womit alle Voraussetzungen geschaffen wurden, (5.1)

P(A⋂︀B) =

P(A ∩ B) = P(B)

2 36 1 6

=

1 . 3

Mitunter liegt der Fall vor, dass zwar P(A⋂︀B) gesucht, aber nur P(B⋂︀A) gegeben ist, was mit Hilfe des Satzes von Bayes⁸⁰ gelöst werden kann, wenn überdies die Wahrscheinlichkeiten P(A) und P(B) bekannt sind. Nach diesem gilt P (A⋂︀B) =

P (B⋂︀A) P(A) P(B)

(5.2)

Ein berühmtes Beispiel hierfür ist das sogenannte Ziegenproblem, das auf eine Fernsehspielshow zurückgeht, bei der drei Türen aufgebaut waren, wobei sich hinter zwei der Türen jeweils eine Ziege befand, während hinter der dritten Türe ein Sportwagen stand. Ein Kandidat konnte nun eine beliebige Türe auswählen, woraufhin der Showmaster eine der verbleibenden Türen öffnete, hinter der sich stets eine Ziege befand. Nun standen die Kandidaten vor der Frage, ob sie bei der von ihnen ursprünglich ausgewählten Türe bleiben oder vielleicht besser zur zweiten verbleibenden, noch verschlossenen

78 Natürlich muss P(B) > 0 gelten. 79 Falls A und B nicht voneinander abhängig sind, gilt P(A⋂︀B) = P(A⋂︀B). 80 Nach Thomas Bayes.

5.3 Bedingte Wahrscheinlichkeiten | 119

P (A B

P



A

⋂︀B)

P (A

(B)

⋂︀B ) A

P(B

)

P (A

P (A

B

A

⋂︀B)

⋂︀B ) A

Abb. 5.5: Baumdarstellung von Ereignisabhängigkeiten

Türe wechseln sollten. Der erste Eindruck, nach dem es keinen Unterschied macht, ob der Kandidat bei seiner Wahl bleibt oder wechselt, täuscht! Die Wahrscheinlichkeit, dass sich der Sportwagen hinter der vom Kandidaten zuerst ausgewählten Türe befindet, ist P(A) = 31 . Mit P(B) wird das Ereignis bezeichnet, dass eine Türe nach dem Eingreifen des Showmasters geschlossen bleibt – da er nur eine der beiden Türen, die nicht vom Kandidaten ausgewählt wurden, öffnen kann, ist P(B) = 21 . Da er aber stets eine Türe öffnen wird, hinter der eine Ziege steht, ist die bedingte Wahrscheinlichkeit P(B⋂︀A) = 1. Die gesuchte Wahrscheinlichkeit, den Sportwagen zu gewinnen, wenn nach der ursprünglichen Wahl einer Tür zur zweiten noch verschlossenen Türe gewechselt wird, nachdem der Showmaster eine Türe geöffnet hat, hinter der sich eine Ziege verbirgt, ist also mit (5.2) gleich P(A⋂︀B) =

1⋅

P(B⋂︀A)P(A) P(B)

=

1 2

1 3

=

2 . 3

Durch den Wechsel der Türe kann der Kandidat die Wahrscheinlichkeit, den Sportwagen zu gewinnen, also von 31 auf 23 verdoppeln. Dies kann man sich auch anhand von Tabelle 5.1 klarmachen, in der alle möglichen Varianten dieses Spiels unter der Annahme, dass im ersten Schritt Tür 1 ausgewählt wurde, aufgelistet sind. Analog gilt die gleiche Überlegung für die Wahl von Tür 2 oder 3 im ersten Schritt.

120 | 5 Stochastik Tab. 5.1: Mögliche Spielverläufe des Ziegenproblems Erste Tür

Zweite Tür

Sportwagen Ziege

Dritte Tür

Aktion und Ergebnis

Ziege

Showmaster öffnet Tür 2 oder 3, man wechselt und verliert Showmaster öffnet Tür 1 oder 3, man wechselt und gewinnt Showmaster öffnet Tür 1 oder 2, man wechselt und gewinnt Showmaster öffnet Tür 2 oder 3, man wechselt nicht und gewinnt Showmaster öffnet Tür 1 oder 3, man wechselt nicht und verliert Showmaster öffnet Tür 1 oder 2, man wechselt nicht und verliert

Ziege

Sportwagen Ziege

Ziege

Ziege

Sportwagen

Sportwagen Ziege

Ziege

Ziege

Sportwagen Ziege

Ziege

Ziege

Sportwagen

5.4 Korrelationen Eine interessante Frage ist die, ob Zufallsvariablen irgendwie in einem Verhältnis zueinander stehen. Beispielsweise könnte man sich fragen, ob die Wahrscheinlichkeit, an Lungenkrebs zu sterben und Rauchen oder die gemessenen Körpergrößen erwachsener Kinder mit denen ihrer Eltern etc. miteinander in Beziehung stehen. Solche Zusammenhänge können durch eine Korrelation beschrieben werden. Werden nur zwei Zufallsvariablen betrachtet, so können drei Fälle unterschieden werden: Die Variablen können unkorreliert oder aber positiv oder negativ korreliert sein. Bei positiver Korrelation steigt der Wert einer Variable, wenn auch jener der anderen steigt, bei negativer Korrelation sinkt der eine Wert, wenn der andere steigt. Ausgesprochen wichtig ist die Feststellung, dass eine Korrelation keinesfalls auch Kausalität impliziert!⁸¹ Für die Berechnung von Korrelationen wird zunächst der Begriff der Kovarianz Cov(X, Y) zweier Zufallsvariablen X und Y benötigt. Diese ist wie folgt definiert: Cov(X, Y) = E ((X − E(X))(Y − E(Y))) Dieser Ausdruck beschreibt, wie stark Änderungen in X mit Änderungen in Y einhergehen. Entsprechend ist diese Funktion symmetrisch, es gilt also Cov(X, Y) = Cov(Y , X), d. h. insbesondere, dass diese Funktion keinerlei Aussage darüber zu81 Eine wunderbare Sammlung von Korrelationen, denen ganz offensichtlich keine Kausalität zugrunde liegt, findet sich auf http://www.tylervigen.com/spurious-correlations(StandMärz2019). Hier finden sich beispielsweise Perlen der Erkenntnis, wie die Tatsache, dass in den USA der Pro-KopfVerbrauch von Mozzarella-Käse stark mit der Anzahl von Promotionen in Ingenieurwissenschaften korreliert. Ähnliches gilt auch für die Anzahl von Personen, die in einem Schwimmbecken ertrinken, was mit der elektrischen Energie, die in amerikanisches Kernkraftwerken generiert wurde, korreliert.

5.4 Korrelationen | 121

lässt, was Ursache und was Wirkung ist! Beispielsweise kann damit zwar festgestellt werden, dass die Menge an verkauftem Speiseeis mit den Außentemperaturen in Zusammenhang steht, ob aber der Sommer den Eisverkauf ankurbelt oder der Eisverkauf erst den Sommer bringt, kann hiermit nicht entschieden werden. Ist Cov(X, Y) = 0, so sind die beiden Zufallsvariablen unkorreliert. Auf dieser Basis kann nun eines der am häufigsten genutzten Maße für die Korrelation zweier Variablen, der Pearson-Korrelationskoeffizient⁸² definiert werden, dessen Anwendung allerdings Variablen mit einer linearen Abhängigkeit voraussetzt: Corr(X, Y) =

Cov(X, Y) σX σY

Durch den Nenner wird dieser Wert normiert, so dass stets −1 ≤ Corr(X, Y) ≤ 1 gilt, wobei Werte < 0 einer negativen und solche > 0 einer positiven Korrelation zwischen X und Y entsprechen. Je näher ⋃︀Corr(X, Y)⋃︀ bei 1 liegt, desto stärker ist die Korrelation.

82 Nach Karl Pearson.

6 Ausblick und Lektüreempfehlungen Mit diesen Betrachtungen endet die vorliegende Einführung in die Grundlagen der Mathematik. Vieles musste in diesem Rahmen unerwähnt bleiben, beispielsweise wurden die Gebiete Zahlentheorie (heute vor allem im Zusammenhang mit Kryptographie von essenzieller Bedeutung), Numerik (die Lösung von Problemstellungen mit Digitalrechnern), Graphentheorie und viele andere nicht einmal gestreift. Auch mussten Beweise, die das Herz der Mathematik ausmachen, aufgrund des Platzes und der Zielsetzung der Publikation stiefmütterlich behandelt werden. Dies alles soll jedoch in erster Linie als Aufforderung verstanden werden, sich diesen und vielen anderen Gebieten der Mathematik mit Neugierde und Enthusiasmus zu widmen, wozu die folgenden Literaturempfehlungen ein wenig beitragen sollen:

Geschichte der Mathematik: Der Bereich der vorgriechischen Mathematik wird in sehr schöner Art und Weise in (Neugebauer 1969) behandelt. Die beiden Standardwerke (Wußing 2013) und (Brückler 2017) sind ebenfalls sehr zu empfehlen und decken einen deutlich breiteren Bereich ab. Zahlentheorie: Eine wunderschöne Einführung in dieses Gebiet mit algorithmischem Ansatz findet sich in (Forster 2015). Ein weiteres, fast schon klassisches, aber ebenfalls sehr empfehlenswertes Buch zu diesem Themenkomplex ist (Remmert et al. 2008). Mit der Riemann’schen ζ -Funktion und ihrer Verbindung zu Primzahlen befasst sich das populärwissenschaftliche Werk (Derbyshire 2004), das ebenfalls zu empfehlen ist und einen guten Einblick in das Wesen der Zahlentheorie gibt. Kryptographie: Eines der Standardwerke zu diesem Themengebiet ist (Bauer 2000), in welchem auch historische Aspekte der Kryptographie ausführlich dargestellt werden. Deutlich theoretischer orientiert, aber dennoch sehr empfehlenswert, ist (Koblitz 1994)), allerdings ist hier die Einstiegshürde vergleichsweise hoch. Numerik: Steht das mathematische Interesse an numerischen Verfahren im Vordergrund, ist zunächst (Freund et al. 2007) zu empfehlen, das zu den Klassikern auf diesem Gebiet zählt. Vergleichbar ist (Dahmen et al. 2008), wobei hier praktische Anwendungen etwas mehr im Fokus stehen. Uneingeschränkt empfehlenswert ist (Press et al. 2007), die „Bibel“ der numerischen Verfahren. Dieses Buch besticht nicht nur durch den schier unglaublichen Umfang, sondern auch auch durch die jeweils detailliert ausgeführten Implementationen der Verfahren sowie eine Vielzahl von Tipps und Tricks aus der numerischen Praxis. Graphentheorie: Hier sind (Diestel 2016) und (Turau et al. 2015) als einführende Werke zu nennen.

https://doi.org/10.1515/9783110496277-006

6 Ausblick und Lektüreempfehlungen | 123

Nachschlagewerke: Sozusagen das Standardnachschlagewerk der Mathematik ist seit Jahrzehnten der sogenannte „Bronstein“, der aktuell in Form von (Zeidler 2013) vorliegt. Ebenfalls empfehlenswert als Nachschlagewerk ist (Papula 2017).

Das Wichtigste ist und bleibt jedoch, dass Mathematik Freude bereiten soll – es ist keinesfalls eine dröge Wissenschaft, sondern vielmehr eine stets neue und spannende Herausforderung, sich neuen Gebieten und Aspekten in der Mathematik zu widmen und so zu neuen Einsichten zu gelangen. Wenn die vorgegangenen Kapitel ein wenig Interesse und Begeisterung für diese Wissenschaft zu wecken im Stande waren, haben sie ihren Zweck erfüllt.

Griechische Buchstaben A B Γ ∆ E Z H Θ

α β γ δ ϵ oder ε ζ η θ oder ϑ

Alpha Beta Gamma Delta Epsilon Zeta Eta Theta

I K Λ M N Ξ O Π

https://doi.org/10.1515/9783110496277-007

ι κ λ μ ν ξ o π oder ϖ

Iota Kappa Lambda My Ny Xi Omikron Pi

P Σ T Υ Φ X Ψ Ω

ρ σ τ υ ϕ oder φ χ ψ ω

Rho Sigma Tau Ypsilon Phi Chi Psi Omega

Literatur Acton, F. (2000): Real computing made real: preventing errors in scientific and engineering calculations, Dover Publications, Inc. Bauer, F. L. (2000): Entzifferte Geheimnisse – Methoden und Maximen der Kryptologie, Springer. Braverman, M. (2013): “Computing with Real Numbers, from Archimedes to Turing and Beyond”, in: Communications of the ACM, Vol. 56, No. 9 (September 2013), S. 74–83. Brückler, F. M. (2017): Geschichte der Mathematik kompakt – Das Wichtigste aus Arithmetik, Geometrie, Algebra, Zahlentheorie und Logik, Springer Spektrum. Dahmen, W. und Reusken, A. (2008): Numerik für Ingenieure und Naturwissenschaftler, 2. Aufl., Springer. C. N. Dean und M. G. Hinchey (Hgg.) (1996): ”Teaching and Learning Formal Methods“, Academic Press. Deitmar, A. (2017): Analysis, 2. Aufl., Springer Spektrum. Derbyshire, J. (2004): Prime Obsession: Bernhard Riemann and the Greatest Unsolved Problem in Mathematics, Penguin Group. Diestel, R. (2016): Graphentheorie, 5. Aufl., Springer Spektrum. Dotzler, B. (Hg.) (1996): Babbages Rechen-Automate, Wien, Springer. Forster, O. (2015): Algorithmische Zahlentheorie, Wiesbaden, Springer Fachmedien. Forster, O. (2016): Analysis 1 – Differential- und Integralrechnung einer Veränderlichen, 12. Aufl., Springer Spektrum. Freund, R. W. und Hoppe, R. H. W. (2007): Stoer/Bulirsch: Numerische Mathematik 1, 10. Aufl., Springer. Goldberg, D. (1991) “What every computer scientist should know about floatingpoint arithmetic”, in: ACM Computing Surveys, Vol. 23, Issue 1 (März 1991), S. 5–48. Hwang, K. (1979): Computer Arithmetic, John Wiley & Sons, Inc. Iverson, K. (1962): A Programming Language, John Wiley and sons, Inc. Jänich, K. (2008) Funktionentheorie: Eine Einführung, 6. Aufl., Springer. Koblitz, N (1994): A Course in Number Theory and Cryptography, Springer. Körle, H. (2012): Die phantastische Geschichte der Analysis – Ihre Probleme und Methoden seit Demokrit und Archimedes. Dazu die Grundbegriffe von heute, Oldenbourg. Körner, T. W. (1989): Fourier Analysis, Cambridge University Press. Lüneburg, H. (1993): Leonardi Pisani oder Lesevergnügen eines Mathematikers, BI Wissenschaftsverlag. Mahon, B. (2017): The Forgotten Genius of Oliver Heaviside: A Maverick of Electrical Science, Prometheus Books. Neugebauer, O. (1969): Vorlesungen über Geschichte der antiken mathematischen Wissenschaften, Band 1, Vorgriechische Mathematik, 2. Aufl., Springer-Verlag. Papula, L. (2017): Mathematische Formelsammlung für Ingenieure und Naturwissenschaftler, Springer Vieweg. Press, W. H., Teukolsky, S. A., Vetterling, W. T. und Flannery, B. P. (2007): Numerical Recipes – The Art of Scientific Computing, third edition, Cambridge University Press. Recorde, R. (1557): The whetstone of witte, whiche is the seconde parte of Arithmetike: containing the extraction of rootes; the cossike practise, with the rule of equation; and the workes of Surde Nombers. Remmert, R. und Ullrich, P. (2008): Elementare Zahlentheorie, Basel – Boston – Berlin, Birkhäuser. Remmert, R. und Schumacher, G. (2002): Funktionentheorie 1, Springer. Rojas, R. (Hg.) (1998): Die Rechenmaschinen von Konrad Zuse, Springer-Verlag. https://doi.org/10.1515/9783110496277-008

126 | 6 Literatur Smith, R. (2014): Mathematical Modelling of Zombies, University of Ottawa Press. Tignol, J.-P. (2001): Galois’ Theory Of Algebraic Equations, World Scientific Publishing Co. Pte. Ltd. Turau, V. und Weyer, C. (2015): Algorithmische Graphentheorie, Berlin — Boston, Walter de Gruyter GmbH. Ulmann, B. (2010): Analogrechner, Wunderwerke der Technik – Grundlagen, Geschichte und Anwendung, Oldenbourg Wissenschaftsverlag GmbH. Ulmann, B. (2017): Analog Computer Programming, Create Space. Vega, Georg Frh. v. (1889): Logarithmisch-Trigonometrisches Handbuch, bearbeitet von Dr. C. Bremiker, 71. Aufl., Berlin, Weidmannsche Buchhandlung. Volder, J. E. (1959): ”The CORDIC Trigonometrix Computing Technique“, in IRE Trans. Eletron. Comput., EC-8, S. 330–334. von Neumann, J. (1951): ”Various techniques used in connection with random digits“, in: Monte Carlo Method, ed. A. S. Householder, G. E. Forsythe, H. H. Germond, Nat. Bur. Standars Appl. Math. Se. 12, Washington, S. 36–38. Widmann, J. (1508): Behend und hüpsch Rechnung uff allen Kauffmanschafften, Pforzheim, Bayerische Staatsbibliothek, Res/Merc. 265, urn:nbn:de:bvb:12-bsb00003523-2, VD16 W 2478 Wußing, H. (2013): 6000 Jahre Mathematik – Eine kulturgeschichtliche Zeitreise – 1. Von den Anfängen bis Leibniz und Newton, Springer Spektrum. Zeidler, E. (Hg.) (2013): Springer-Taschenbuch der Mathematik, Springer Spektrum.

|

Teil II: Physik für Medienwissenschaftler (Martin Wendt)

1 Vorwort Die Physik ist eine Wissenschaft, die sich mit der uns umgebenden Natur und ihren Phänomenen auseinandersetzt und sie untersucht. Sie ist eine beschreibende Wissenschaft und versucht das beobachtete Verhalten auf grundlegende Gesetzmäßigkeiten von Materie und Energie zurückzuführen. Dieser experimentelle Zugang des Physikers zur seiner Umwelt macht den engen Zusammenhang von Medientechnik und Physik deutlich. Bereits Aristoteles (etwa 350 v.u.Z.) beschreibt eine Form von „Wahrnehmungsmedien“ in denen sich Erkenntnis vollzieht. Diese Medien stehen anfangs in enger Verbindung mit den stofflichen Elementen wie Wasser, Luft oder der Atem eines Menschen. Im 19. Jahrhundert entsteht ein zunehmend naturwissenschaftlich geprägter Medienbegriff welcher die Gesamtheit aller Träger physikalischer und chemischer Vorgänge als Medium bezeichnet. Das Medium als stofflicher Vermittler, der Impulse, Energie und somit auch Information übermittelt. Die Übertragung von Schall benötigt z. B. einen vermittelnden Stoff wie Luft. Vereinfacht dargestellt befasst sich die Physik mit Materie und Energie und deren Wechselwirkungen in Raum und Zeit. Das Ziel sind möglichst allgemein gültige Naturgesetze, mit deren Hilfe sich beobachtete Gegebenheiten einordnen und erklären lassen. Der Erkenntnisgewinn wird getrieben von Beobachtungen und Vergleichen. Im Idealfall wirken experimentelle Methoden und theoretische Modellbeschreibungen zusammen, um neue Gesetzmäßigkeiten zu erkennen. Der Anspruch an physikalische Theorien ist die Vorhersage über spätere Zustände basierend auf Kenntnissen des Anfangs- oder Istzustandes. Unterschiedliche Fachgebiete der Physik haben ihre Schwerpunkte jeweils entweder näher an der experimentellen Methode oder an theoretischer Modellierung. So wird häufig zwischen experimenteller und theoretischer Physik unterschieden, obwohl dies nur in den seltensten Fällen klar getrennt werden kann. Auch der Zugang des Physikers zum Objekt seiner jeweiligen Forschung unterscheidet sich deutlich von Fachgebiet zu Fachgebiet. Das klassische Experiment lebt von der wiederholten Durchführung mit jeweils kontrolliert veränderten Ausgangsbedingungen. Die Reproduzierbarkeit und somit Festlegung sämtlicher Randbedingungen ist essentiell. Es gibt aber auch Bereiche innerhalb der Physik mit gegebenen Bedingungen, deren Steuerung nicht in der Hand des Wissenschaftlers liegt. Der experimentelle oder auch beobachtende Astrophysiker beispielsweise kann zwar seine Blickrichtung wählen, bleibt aber stets ein passiver Beobachter. Bis zur ersten Detektion von Gravitationswellen im September 2015 war für den Astrophysiker beispielsweise Licht (in unterschiedlichsten Wellenlängen) neben eintreffenden Teilchen aus dem Weltall die einzige Observable (lateinisch observabilis „beobachtbar“). Erkenntnisse erhofft sich der Physiker aus Vergleichen mit vorangegangenen Beobachtungen. Die Randbedingungen der Beobachtung sind bekannt, nicht aber die physikalischen Parameter der https://doi.org/10.1515/9783110496277-009

130 | 1 Vorwort Beobachtungsobjekte. Hinzu kommt, dass viele, wenn nicht die meisten, Objekte und Phänomene am Himmel im Laufe eines Menschenalters keine messbare Änderung erfahren. Bei der Interpretation muss das Beobachtete stets auf das Bekannte zurückgeführt oder in Relation zu anderen Unbekannten gesetzt werden. Einen Schritt weiter entfernt vom klassischen Laborexperiment ist der Kosmologe. Er hat lediglich ein einzelnes Exemplar zu einem einzelnen Zeitpunkt (auf kosmologischen Skalen) für seine Studien. Verschiedene Bereiche im Universum lassen sich noch vergleichen, aber für das Universum selbst und dessen fundamentale Parameter ist lediglich ein Exemplar für sie erfassbar. Dass dennoch in allen genannten Bereichen in den letzten Jahrzehnten und Jahren bahnbrechende Entdeckungen gemacht und Erkenntnisse gewonnen werden konnten, spricht für die enorme Universalität der Physik und der wissenschaftlichen Methode. An dieser Stelle danke ich zunächst meiner Frau Claudia Wendt für den Rückenwind in den intensiveren Phasen des Schreibens. Besonderer Dank gilt auch meinem Kollegen Dr. Helge Todt für kritische Anmerkungen und den konstruktiven Austausch sowie meiner Schwester Imke Camin für die tatkräftige Hilfe beim Korrekturlesen. Meine Neugier die Dinge hintergründig zu verstehen habe ich sicher auch der weltoffenen Erziehung meiner ganzen Familie zu verdanken.

2 Einleitung Diese Einführung in die Physik richtet sich speziell an Medienwissenschaftler sowie Medienwissenschaftlerinnen und legt auch die diversen Schwerpunkte entsprechend. Im Einklang mit dieser Lehrbuchreihe verwendet der Text im Folgenden das generische Maskulinum. Nach einer Einführung in Einheiten und Messgrößen (Kapitel 3 und 4) beginnen wir mit grundlegender Mechanik in Kapitel 5. Die klassische Mechanik vermittelt bereits wichtige physikalische Prinzipien wie das Kräftegleichgewicht. Außerdem legt sie den Grundstein für das Verständnis einiger entscheidender Phänomene. Über klassische Drehbewegungen wie zum Beispiel die Rotation einer Scheibe (Kapitel 7) wird der sprichwörtliche rote Faden zu Schwingungen und Wellen (Kapitel 8) gesponnen. Über das Phänomen der Wellen wird der in der Medientechnik sehr präsenten Bereich der Akustik betrachtet. Analog zur Mechanik werden im Anschluss elektrische und magnetische Kräfte und Felder (Kapitel 9 und 10) betrachtet und die gewonnen Erkenntnisse zu einem Modell der elektromagnetischen Wellen (Kapitel 11) verknüpft. Einen großen Raum nimmt dann der Abschnitt der Optik ab Kapitel 12 ein. Dieser ist so aufgebaut, dass stets elementare Phänomene beschrieben werden und dann deren Anwendung exemplarisch erläutert wird. Kapitel 13 schließt dann den Kreis von Licht als Wellenerscheinung zu den mechanischen Wellen. Abschließend wird in Kapitel 14 kurz auf Atome und Moleküle eingegangen, um einige der vorangegangenen Beobachtungen qualitativ verständlich zu machen. Das letzte Kapitel listet auf, welche bedeutenden Bereiche der Physik im Rahmen dieses Lehrbandes nicht behandelt werden konnten, und verweist auf geeignete Lehrbücher, um diese Lücken zu schließen, sowie auf weiterführende Literatur zur Vertiefung des hier Dargestellten. Ein Hinweis zur Schreibweise: Viele physikalische Größen sind gerichtet, das heißt, sie weisen eine spezifische Richtung und insbesondere bei Kräften auch einen Angriffspunkt auf. Man spricht von vektoriellen Größen (vgl. Kap. I.4) wie beispielsweise beim Weg ⃗ s oder einer Kraft ⃗ F . Die gezielte Schreibweise mit Vektorpfeilen behalten wir uns für wenige Einzelfälle vor, in denen unmittelbar zwischen einzelnen Richtungskomponenten und dem Gesamtvektor unterschieden wird. Da es in diesem Band ⃗ primär um Abhängigkeiten und physikalische Zusammenhänge geht, schreiben wir statt ⃗ F = m⋅a vereinfacht F = m ⋅ a.

https://doi.org/10.1515/9783110496277-010

3 Methoden und Einheiten Wie im Vorwort erwähnt, lebt die Physik in der Regel von der Reproduzierbarkeit der Messungen oder Randbedingungen, und jede gefundene oder bestätigte Gesetzmäßigkeit beruht auf dem iterativen Vergleich von Beobachtung und Vorhersage eines Modells, welches versucht, die Wirklichkeit zu beschreiben. Zur Verdeutlichung sei ein Beispiel aus der Astrophysik genannt. Aus vielen Einzelbeobachtungen von unzähligen Sternen hofft man, durch geeignete Klassifikation und Analyse sowohl deren Vielfalt zu verstehen als auch den Entwicklungsprozess einzelner Sterne über Millionen und Milliarden Jahre hinweg in Abhängigkeit unterschiedlicher Startbedingungen vorhersagen zu können. Dabei stellen selbst die über hundert Jahre andauernden Beobachtungen unserer Sonne nur eine Momentaufnahme dar, in der sich unser Stern nicht merklich entwickelt hat. Als Gedankenexperiment stelle man sich eine Intelligenz außerhalb des Sonnensystems vor, welche eine einzelne Momentaufnahme der Menschheit erfassen konnte. Es liegt also nur ein Abbild vor, welches nicht alle Menschen, aber vielleicht die Bevölkerung einer Stadt darstellt wie bei einem Standbild oder Foto. Gelingt es, das Gesehene in zwei oder mehr Geschlechter einzuordnen? Stellt man heraus, dass Menschen klein geboren werden und die Größe ein Parameter ist, der sich mit dem Alter ändert, wenn auch nicht sonderlich linear? Kann man die Weltbevölkerung oder die typische Anzahl von Bewohnern eines Hauses abschätzen? Man wird sicherlich erkennen, dass die Vielfalt von Haut-, Augen- oder Haarfarben keinen relevanten Unterschied macht, aber wie steht es um unterschiedliche Kleidung? Oder Haarlängen? Dieses Gedankenexperiment soll vor Augen führen, dass nicht nur Beobachtungen und Messungen eine große Herausforderung darstellen können, sondern auch deren Interpretation. Der Mensch ist sehr limitiert, wenn er sich mit Dingen und Phänomenen befasst, auf die er keinen direkten Zugriff hat, weil sie sich nicht auf Zeitskalen abspielen, die ihm zugänglich sind, oder deren räumliche Dimensionen direkte Interaktion verbieten. Dies betrifft zum Beispiel die Teilchenphysik, Quantenmechanik oder Astronomie. Die Physik ist dabei stets beschreibend. Eine konkrete Wahrheit gibt es nicht, es bleibt stets bei einem Modell, welches auf Beobachtungen basiert und anhand von Vorhersagen mit weiteren Beobachtungen verifiziert, erweitert oder verworfen wird. Der Wissenschaftler versucht eine für einzelne Objekte seiner Forschung gefundene Aussage für alle Objekte der gleichen Art zu verallgemeinern. Diese induktive Methode ist ein wichtiger Bestandteil der Physik, um Naturgesetze und Modelle aufzustellen, aus denen sich dann mittels Deduktion, also Schließen vom Besonderen aufs Allgemeine, verifizierbare Vorhersagen und Konsequenzen herleiten lassen. Die vergleichbare Beschreibung der Natur erfordert zunächst ein konsistentes System von Koordinaten und Einheiten, in denen man Beobachtungen und Messgrößen angeben kann. Die unterschiedlichen Zweige der Physik haben sich im Laufe https://doi.org/10.1515/9783110496277-011

3.1 Koordinaten | 133

der Geschichte spezielle Maßeinheiten geschaffen, die jeweils für ihre Probleme und Messgrößen angepasst sind.

3.1 Koordinaten Am fundamentalsten sind naheliegenderweise die Größen, die das Verhalten eines einfachen Körpers im Raum beschreiben. Der Ort bezieht sich immer auf das verwendete Koordinatensystem. Am vertrautesten erscheint uns oft ein kartesisches Koordinatensystem (vgl. Kap. I.3.3) mit drei jeweils senkrecht zueinander stehenden Achsen – klassisch oft als X-, Y- und Z-Achse bezeichnet. Die Bezeichnung einer X- und einer Y-Achse ist uns geläufig aus der Arbeit mit Darstellungen im zweidimensionalem Raum, wie beispielsweise am Bildschirm oder auf kariertem Papier. Zwei weitere praktische Koordinatensysteme seien an dieser Stelle erwähnt: die Kugelkoordinaten und Zylinderkoordinaten. Abbildung 3.1 stellt alle drei Koordinatensysteme vor.

Z

φ

Y

Höhe r

X

r ϴ

φ

Abb. 3.1: Kartesische Koordinaten, Zylinderkoordinaten und Kugelkoordinaten.

134 | 3 Methoden und Einheiten Kugelkoordinaten geben jede Position als Punkt auf einer Kugelfläche an. Zwei Winkel vom Kugelmittelpunkt aus betrachtet und ein Radius bestimmen eine Position vollständig. Als Beispiel kann man an Breiten- und Längengrade auf der Erdkugel denken. Der Radius ließe sich abzüglich des Erdradius auch als Höhe über dem Meeresspiegel angeben. Auch Positionen am Himmel werden in Kugelkoordinaten angegeben. Hier bietet dieses System den sofortigen Vorteil, dass man die dritte Komponente, nämlich die Entfernung, oft gar nicht genau bestimmen, geschweige denn angeben kann. Direkt messbar sind aber die beiden Positionswinkel, beispielsweise des Polarsternes. Bei Zylinderkoordinaten wird ein Winkel in der Ebene angegeben, ebenso eine Entfernung zum Koordinatenursprung sowie eine Höhe über der Ebene. Tatsächlich entspricht diese Darstellung am ehesten der subjektiven Wahrnehmung, wenn man z.B. einen Ort als Himmelsrichtung, Entfernung und Höhe bezeichnet. Dass jedes Koordinatensystem drei Angaben benötigt, ist der Tatsache geschuldet, dass wir mit unseren Sinnen einen dreidimensionalen Raum wahrnehmen. Die üblichste Konvention für eine dritte Achse (Z) im kartesisches Koordinatensystem ist entgegen der Erwartung von Personen, die sich erstmalig damit auseinandersetzen, das sogenannte rechtshändige Koordinatensystem: Zeigt die Y-Achse nach oben und ist X nach rechts gerichtet, so deutet die Z-Achse aus der Ebene heraus auf den Betrachter zu. Es bietet sich das Bild einer Schraube an. Dreht man im Uhrzeigersinn die X-Achse auf die Y-Achse, so zeigt die Z-Achse wie bei einer Schraube von einem weg.

Zur Angabe einer Position im kartesischen Koordinatensystem benötigt man also drei Längenangaben. Bewegt sich der Körper im Raum, so ergibt sich eine neue Position nach einer bestimmten Zeit. Es ergibt sich also die Notwendigkeit der Festlegung auf ein Zeitmaß. Zu den Basisgrößen gehört neben Länge und Zeit auch die Masse eines Körpers, welche die Menge des Stoffes, die ihn ausmacht, beschreibt. Auf diesen Basisgrößen setzt das System von SI-Einheiten auf. SI kommt von „Système international d’unités“ und ist der international mit Abstand gebräuchlichste Satz von Einheiten in den Naturwissenschaften.

3.2 Längen und Winkel Der Meter ist die Basiseinheit von Längen im SI-System. Seit 1983 ist 1 Meter definiert als die Länge der Strecke, die Licht im Vakuum während einer Zeitspanne von 1/299792458 s zurücklegt. Diese Definition des Meters wurde erst durch die Entscheidung auf der Generalkonferenz für Maße und Gewichte 1973 möglich, den Wert der Lichtgeschwindigkeit zahlenmäßig auf den Wert von 299

3.2 Längen und Winkel | 135

792 458 m/s festzulegen. Seitdem kann die Lichtgeschwindigkeit faktisch nicht mehr neu gemessen werden. Auf die Einschränkung „im Vakuum“ gehen wir noch ausführlicher in Kapitel 12.4.3 ein.

Um auch sehr große oder kleine Längen mit derselben Einheit Meter ausdrücken zu können, wurden Untereinheiten geschaffen, welche sich jeweils um den Faktor 1000 (103 ) unterscheiden. Für die SI-Einheiten ergeben sich die in Tabelle 3.1 gelisteten Vorsatzzeichen. Tab. 3.1: Vorsatzzeichen für kleine und große Zahlen. Name Zeichen Faktor Atto Femto Pico Nano Mikro Milli – Kilo Mega Giga Tera Peta Exa

a f p n μ m – k M G T P E

10−18 10−15 10−12 10−9 10−6 10−3 1 103 106 109 1012 1015 1018

Das Längenmaß ist von besonderer Bedeutung in vielen Bereichen, so dass sich zahlreiche weitere Längeneinheiten in ihren jeweiligen Gebieten etabliert haben. Die gebräuchlichsten sind in Tabelle 3.2 separat aufgeführt. Tab. 3.2: Von der SI-Einheit Meter abweichende Längen- und Distanzangaben. 1 Dezimeter (dm) 1 Zentimeter (cm) 1 Zoll (inch) 1 Seemeile (sm) 1 Angstrom (Å) 1 Astronomische Einheit (AE) 1 Lichtjahr 1 Parsec (pc)

= 10−1 m = 10−2 m ≈ 2,54 cm = 1852 m = 10−10 m ≈ 1,496⋅1011 m ≈ 9, 46 ⋅ 1015 m ≈ 3, 0857 ⋅ 1016 m

Die Astronomische Einheit war ursprünglich definiert über die Länge der großen Halbachse der elliptischen Erdbahn um die Sonne. Das Lichtjahr beschreibt die Ent-

136 | 3 Methoden und Einheiten fernung, die das Licht innerhalb eines Jahres (≈ 3, 15 ⋅ 107 s ∼ π ⋅ 107 s) zurücklegt. Ein Parsec ist die Entfernung, aus der eine Astronomische Einheit unter einem Winkel von 1 Bogensekunde (1/3600 Grad) erscheint.

Abb. 3.2: Gerät zur Laserentfernungsmessung für Weiten von bis zu 20 km mit einer Präzision im Millimeterbereich.

3.2.1 Flächen und Volumen Raumeinheiten werden ebenso wie Flächenmessungen in der Regel auf Längenmessungen zurückgeführt. Die SI-Einheit für Volumen beträgt 1 Kubikmeter (m3 ), Verwendung im Alltag findet oft aber auch das Liter (l) mit 1 l = 10−3 m3 = 1 dm3 . Die menschliche Vorstellung neigt dazu, insbesondere Volumen falsch einzuschätzen. Eine typische Badewanne fasst etwa 120-200 Liter. Ein Stück Würfelzucker ist 16 mm × 16 mm × 10 mm = 2560 mm3 groß. Ein Kubikmeter enthält somit 390625 Stücke. Der Autor weiß aus eigener Erfahrung, dass es etwa 30 Schubkarren benötigt, um 2 Kubikmeter Sand von der Auffahrt zu befördern (das sind immer noch 100 kg pro Schubkarre). Die Abbildung 3.3 zeigt ein weiteres Beispiel. Die acht Planeten sind in ihrer Größe maßstabsgetreu abgebildet, entsprechend ihrer Reihenfolge von innen nach außen

3.2 Längen und Winkel | 137 1,0 0,8 0,6 0,4 0,2 Merkur

Venus

Erde

Mars

Jupiter

Saturn

Uranus

Neptun

Abb. 3.3: Maßstabsgetreue Abbildung der 8 Planeten. Zusätzlich sind deren Volumen als Balken dargestellt. Für die ersten vier Planeten wurde der Balken um Faktor 100 gestreckt!

im Sonnensystem. Die ebenfalls dargestellten Balken geben das Volumen der Planeten relativ zu Jupiter (1,0) an. Jupiter hat etwa 1,5 mal soviel Volumen wie alle übrigen Planeten des Sonnensystems zusammen, obwohl das Auge den Größenunterschied zu Saturn als nicht wesentlich interpretiert. Für die linken vier Planeten wurde der Balken zusätzlich um den Faktor 100 gestreckt, um überhaupt in der Darstellung sichtbar zu werden.

3.2.2 Winkel Winkelmessungen in der Ebene beziehen sich im Alltag meist auf den vollen Umfang eines Kreises (360 Grad). Eine feinere Unterteilung erlaubt die Einteilung in Minuten und Sekunden. Hierbei gilt 1 Winkelgrad = 60 Bogenminuten und 1 Minute = 60 Bogensekunden. Somit entspricht 1 Bogensekunde = 1/3600 Grad. Vergisst man einmal die Länge einer Seemeile, erinnert sich aber grob an den Erdumfang von 40 000 km, so kann man sich leicht im Kopf eine Seemeile abschätzen. Eine Seemeile entspricht einer Winkelminute, also 1/60 eines Winkelgrades. Zunächst bestimmen wir die Länge eines Winkelgrades am Äquator. Das ist der 360ste Teil des Erdumfangs. 40 000⇑360 lässt sich ausgesprochen gut rechnen. 40 000⇑360 ≈ 111. Ein Winkelgrad am Äquator ist also etwa 111 km lang. Eine Winkelminute dann 111/60. Für eine erste Abschätzung hätten wir 1,85 km für eine Seemeile statt der wirklichen 1,852. Bedenkt man den groben Wert für den Erdumfang, ist dies eine erstaunlich gute Abschätzung.

Die SI-Einheit für Winkel ist das außerhalb der Wissenschaft wenig gebräuchliche Bogenmaß oder auch Radiant (rad). Es bildet das Verhältnis von Bogenlänge zum Radius und ist somit im Prinzip als Verhältnis zweier Längen einheitenlos. Ein voller Kreis hat das Bogenmaß von 2π. 1 rad= 360⇑2π ≈ 57,296 Grad. Der Faktor für die Umrechnung von Radiant auf Grad ist also 180 Grad / π (vgl. Kap. I.3.3.6).

138 | 3 Methoden und Einheiten Der räumliche Winkel wird analog dazu definiert. Der Steradiant (sr) ist das Verhältnis der Fläche von der Kugelkappe, die zu einem Winkel gehört, zum Quadrat des Kugelradius. Der volle Raumwinkel ist demnach 4π. Diese etwas akademisch anmutende Definition findet vor allem dann Anwendung, wenn es darum geht, radial gerichtete Flüsse zu beschreiben, was auch bei der Lichtstärke zum Tragen kommt.

Abb. 3.4: Der astronomische Sextant von Tycho Brahe zur Bestimmung des Winkels zwischen zwei Sternen (etwa 1600).

3.3 Weitere Einheiten | 139

3.3 Weitere Einheiten 3.3.1 Lichtstärke Die Candela (lateinisch für Kerze) ist die SI-Einheit für die Lichtstärke. Eine gewöhnliche Haushaltskerze hat eine Lichtstärke von etwa 1 cd. Die Lichtstärke in einer bestimmten Richtung ist der Quotient aus dem von der Lichtquelle in diese Richtung ausgesandten Lichtstrom (Einheit Lumen, lm) und dem durchstrahlten Raumwinkel (Einheit Steradiant, sr) Eine Lichtquelle, die einen Lichtstrom von 4π lm erzeugt und dieses Licht in alle Richtungen (4π sr) mit gleichmäßiger Lichtstärke abstrahlt (aus allen Richtungen betrachtet also gleich hell erscheint), hat in alle Richtungen dieselbe Lichtstärke Iv = 4π Lumen / 4π Steradiant = 1 Lumen / Steradiant = 1 Candela. Das Lumen beschreibt dabei den gesamten Lichtstrom, der von einer Quelle ausgeht. Verteilt dieser sich nicht in den vollen Raumwinkel von 4π, so ist die Lichtstärke entsprechend größer. Versieht man eine Kerze mit einer scheinwerferartigen Fokussiereinrichtung, so dass das gesamte erzeugte Licht gleichmäßig innerhalb eines Kreiskegels mit einem Öffnungswinkel α von 5 ○ abgegeben wird, ergibt sich folgende Rechnung: Ein Öffnungswinkel von 5○ entspricht einem Raumwinkel von ≈ 0,006 sr. Dieselbe Lichtquelle wie zuvor mit 4π Lumen Lichtstrom erzeugt nun also eine Lichtstärke von 4π Lumen pro 0,006 Steradiant, also etwa 2100 Lumen pro Steradiant oder 2100 Candela innerhalb des Lichtkegels.

3.3.2 Zeit und Masse Die Zeit ist im täglichen Leben nach dem Stand der Sonne gerichtet. Als praktische Zeiteinheit wurde der Tag ursprünglich als mittlerer Abstand zwischen zwei Sonnenhöchstständen definiert. Der Tag (d) wird in 24 Stunden (h) oder 1440 Minuten (m) oder 86 400 Sekunden (s) eingeteilt. Die Sekunde ist eine SI-Basiseinheit. Sie ist seit 1967 über die 9 192 631 770-fache Periodendauer der Strahlung, die dem Übergang zwischen den beiden Hyperfeinstrukturniveaus des Grundzustandes von Atomen des Nuklids 133 Cs (Cäsium) definiert. Diese Periode ist inzwischen auf 1 zu 1015 genau vermessen. Die Masse ist das Maß für den Materieinhalt eines Körpers. Ihre Basiseinheit ist das Kilogramm (kg). Diese Einheit wird nach wie vor auf das Urkilogramm, welches in Paris sorgfältig verwahrt wird, zurückgeführt. Bei dessen Erstellung galt es, der Masse von 1000 cm3 Wasser bei 4 Grad Celsius so nah wie möglich zu kommen. Vom 20. Mai 2019 an, dem Weltmetrologietag, wird das Kilogramm neu über die Planck’sche Konstante definiert. (Man beachte den Unterschied zwischen Meteorologie und Metrologie.)

140 | 3 Methoden und Einheiten

Abb. 3.5: Ein Luxmeter zur Messung der Beleuchtungsstärke. Die Beleuchtungsstärke ist der einfallende Lichtstrom pro beleuchteter Fläche und wird in der Einheit lux angegeben.

Abb. 3.6: Die erste Atomuhr basierend auf Cäsium 133. Aufbau im UK National Physical Laboratory (1955).

3.3.3 Geschwindigkeit und Beschleunigung Im einfachsten Fall beschreibt man Geschwindigkeit als die Änderung der Position eines Körpers innerhalb einer bestimmten Zeit. Teilt man die zurückgelegte Strecke s durch die dabei verstrichene Zeit t ergibt sich die Geschwindigkeit v = s⇑t. Dabei nimmt man ganz beiläufig an, dass es sich um eine gradlinige und gleichförmige Be-

3.3 Weitere Einheiten |

141

Abb. 3.7: Eine einfache Balkenwaage zur Massenbestimmung mittels Ausgleichsgewichten. Das Messergebnis ist dann unabhängig von der genauen Erdanziehungskraft.

wegung gehandelt hat. Man beschreibt die Durchschnittsgeschwindigkeit in der entsprechenden Zeitspanne. Eine momentane Geschwindigkeit lässt sich also lediglich als Grenzfallbetrachtung bestimmen.¹ Für die Einheit ergibt sich m/s. Oft gebräuchlicher im Alltag sind km/h (nicht: Stundenkilometer, sondern Kilometer pro Stunde!). Es lohnt sich vor Augen zu führen, dass eine Umrechnung von 60 km/h in 60 000 m / 3600 s = 16.67 m/s denkbar einfach ist. Gibt man eine Geschwindigkeit analog einer vollständigen Ortsbeschreibung an, bedarf es ebenfalls dreier Komponenten, um die Richtung der Geschwindigkeit festzuhalten. Zu x, y, z gehört also ein dx/dt, dy/dt, dz/dt bzw. vx, vy, vz. Die Änderung des Ortes wird also durch eine Geschwindigkeit beschrieben. Die Beschleunigung beschreibt dann eine Änderung der Geschwindigkeit. In der Litera⃗ (von tur wird diese häufig als vektorielle (also ebenfalls mit Richtungsangabe) Größe a dv accelaratio) bezeichnet. Es gilt a = lim∆t→0 ∆v = . Diese Schreibweise mit dem Li∆t dt 1 Das bekannte Pfeil-Paradoxon beschreibt das Dilemma, wenn einem das Konzept von infinitesimal kurzen Zeiten und Strecken nicht vertraut ist: Ein fliegender Pfeil habe zu jeder Zeit seiner Flugbahn eine bestimmte, exakt umrissene Position im Raum. An einer exakten Position kann sich ein Pfeil jedoch nicht bewegen und müsste sich somit in Ruhe befinden. Daraus schlussfolgerte Zenon von Elea, dass sich der Pfeil paradoxerweise auch insgesamt nicht bewegen könne. In der klassischen Physik ergibt sich dieses Problem wie erwähnt mit Hilfe der Grenzwertbetrachtung nicht. Erst im Rahmen der Quantenmechanik zeigt sich erneut, dass man Ort und Energie bzw. Geschwindigkeit nie gleichzeitig exakt bestimmen kann.

142 | 3 Methoden und Einheiten mes (Grenzwert) sagt aus, dass man die Beschleunigung aus kleinen Änderungen der Geschwindigkeit in kurzen Zeiten ableitet. ∆t beschreibt also ein Zeitintervall über das gemittelt wird. Man lässt dieses Intervall nun jeweils immer kleiner werden bis es im Grenzwert (vgl. Kap. I.3.1.1) infinitesimal kurz wird. Diese Art der Grenzwertbetrachtung wurde erst im 19. Jahrhundert formalisiert. Eine Beschleunigung wird in der Einheit m/s2 angegeben. Quadratsekunden erscheinen einem zunächst aber wenig intuitiv. Direkt leserlich wird die Einheit, wenn man sie einmal ausformuliert zu „Meter / Sekunde pro Sekunde“, also eine Änderung der Geschwindigkeit pro Zeit. Der Betrag der Erdbeschleunigung g aufgrund der Gravitation an der Erdoberfläche lautet g = 9, 81 m/s2 . Im freien Fall würde die Geschwindigkeit also pro Sekunde um etwa 10 m/s oder 36 km/h zunehmen, wenn der Luftwiderstand nicht erheblich bremsen würde. Beschleunigung a = const.

Zeit t Geschwindigkeit v = a·t

Zeit t Stecke s = ½ a·t2

Zeit t

Abb. 3.8: Zusammenhang zwischen Strecke, Geschwindigkeit und Beschleunigung

Abbildung 3.8 demonstriert, wie sich die Beschleunigung als zeitliche Ableitung der Geschwindigkeit ergibt, ebenso wie die Geschwindigkeit der zeitlichen Ableitung des Ortes entspricht. Für die zurückgelegte Strecke bei konstanter Beschleunigung aus

3.3 Weitere Einheiten |

143

dem Stillstand ergibt sich direkt s = 1⇑2a⋅t2 . Wirft man beispielsweise einen Schlüssel nach oben, so wird er ständig mit g = 9.81 m/s2 beschleunigt. Ab dem Umkehrpunkt erfährt er also diese Beschleunigung aus der Ruhelage heraus. Man kann so die Höhe des Umkehrpunktes mit einer Stoppuhr bestimmen. Wer also mal wissen möchte, wie hoch ein Baum ist, muss für eine einfache Abschätzung lediglich so hoch werfen können.

4 Messfehler Zu jeder naturwissenschaftlichen Messung gehört die Angabe eines Messfehlers, oder genauer einer Unsicherheit bezüglich des Messwertes. Dabei gibt es zwei grundlegend verschiedene Arten von Fehlern: – statistische Fehler – systematische Fehler

4.1 Statistische Fehler Als statistische Fehler werden all jene Unsicherheiten bezeichnet, welche zufälliger also statistischer Natur sind. Die dahintersteckende Annahme ist, dass der Mittelwert der statistischen Fehler Null beträgt. Ein klassisches Beispiel ist das Festhalten einer bestimmten Zeitspanne mittels Stoppuhr. Selbst wenn man schon im Vorfeld weiß, dass man die Uhr beispielsweise nach exakt 10 Sekunden stoppen möchte, muss man davon ausgehen, die Uhr stets einige dutzend Millisekunden davor oder danach zum Halt gebracht zu haben. Zumindest wenn man genau weiß, wann zu stoppen ist, dürfte es sich um einen statistischen Fehler handeln. Wiederholt man das Experiment hinreichend oft, so erhält man viele einzelne Zeitmessungen t i , die dann im Mittel eine Zeit von ≈10 Sekunden ergeben. In der Physik wird das Symbol ≈ verwendet, wenn zwei Dinge sich in etwa gleichen oder konkret, wenn ein numerischer Wert in seiner Präzision ungefähr stimmt: 1, 234 ≈ 1, 2. Diese Schreibweise wird insbesondere dann verwendet, wenn der exakte Wert nicht von wesentlicher Bedeutung ist. Das Symbol ∼ beschreibt entweder eine Proportionalität, also a steigt mit b → a ∼ b, oder wenn etwas einer ungefähren Größenordnung entspricht. Vor allem, wenn es um große Zahlen und Abschätzungen geht. Die Milchstraße hat ∼ 250 Milliarden Sterne, tatsächlich sind es vermutlich irgendwo zwischen 100 und 400 Milliarden, aber eben nicht 5 Milliarden Sterne.

Mit zunehmender Zahl n der Versuchsdurchgänge nähert sich der Mittelwert, der hier als μ bezeichnet wird, immer weiter der 10,0 an. Der statistische Fehler σ lässt sich dann ebenfalls leicht bestimmen: ⟨ ⧸︂ 1 n ⟩ σ = ⧸︂ (4.1) ∑(μ − t i )2 . n−1 i Für korrekte Fehlerbehandlung verweisen wir auf einschlägige Literatur (z.B. „Der Umgang mit experimentellen Daten, insbesondere Fehleranalyse, im physikalischen Anfänger-Praktikum: Eine elementare Einführung“, Wolfgang Kamke, 2010), beschreiben aber obige Gleichung kurz zur allgemeinen Verständlichkeit. Jede einzelne Messung t i weicht um t i − μ vom Mittelwert μ ab. Diese Differenz kann negativ oder positiv sein. Damit sie sich nicht zu Null addiert, wird das Quadrat der Differenz sumhttps://doi.org/10.1515/9783110496277-012

4.1 Statistische Fehler | 145

miert. Im Prinzip bildet man den Mittelwert über diese quadratischen Differenzen und zieht schließlich die Wurzel daraus, um den statischen Fehler zu errechnen. Der Nenner n − 1 statt n kommt dadurch zustande, dass man den Mittelwert μ selbst ebenfalls aus diesen Daten bestimmt hat und die Streuung um den wahren Mittelwert leicht unterschätzt wird, wenn man nur durch n teilt. In der Regel gibt man bei Messungen also diesen statistischen Fehler σ an. Der Hintergrund eines solchen statistischen Fehlers ist, dass er oft das Resultat einer Reihe verketteter, rein zufälliger Prozesse ist. Er ist dann in guter Näherung „normalverteilt“, dass heißt die Verteilung der individuellen Messfehler folgt einer Gaußkurve (siehe Abbildung 4.1 und vgl. Kap. I.5.2). Der Mittelwert μ hat die höchste Wahrscheinlichkeit. Etwa 68 % oder als Faustregel grob 2/3 aller Messungen liegen im Bereich von μ ± σ. Das bedeutet aber auch im Umkehrschluss, dass jede dritte Messung außerhalb dieser Fehlerangabe liegt! Für eine wissenschaftliche Entdeckung ist eine Signifikanz von 1σ also deutlich zu gering. Oft werden daher explizit 2σ- oder 3σ-Bereiche angegeben, innerhalb derer dann 95 % beziehungsweise etwa 99 % der Messwerte liegen. Die Angabe T = 10 ± 1 bedeutet in der Physik also: – nie, dass der Wert T zwischen 9 und 11 liegt. – fast immer, dass der Wert T mit einer Wahrscheinlichkeit von 68 % zwischen 9 und 11 liegt. – in der Regel, dass die Wahrscheinlichkeitsverteilung für T einer Gaußverteilung mit einen Mittelwert von 10 und einer Breite von 1 folgt.

Abb. 4.1: Gaußverteilung mit Mittelwert μ und dem Intervall μ ± σ.

146 | 4 Messfehler

4.2 Systematische Fehler Systematische Fehler sind oftmals die problematischeren Fehlerquellen, weil man sich ihrer nicht immer bewusst ist. Systematische Fehler mitteln sich in der Regel auch bei häufiger Wiederholung des Versuchs nicht heraus. Das vorherige Beispiel der Zeitmessung von 10 Sekunden liefert nur dann eine Normalverteilung um 10 Sekunden, wenn es sich um einen rein zufälligen und symmetrischen Fehler handelt. Stoppt man die Zeit aber auf Grund eines Ereignisses oder Signals, so kommt eine gewisse Reaktionsverzögerung dazu. Diese wäre ein subtiler systematischer Fehler, der dazu führt, dass man bei wenig Wiederholungen vielleicht T = 11 ± 1 Sekunden misst. Während der statistische Fehler aber mit der Anzahl der Versuche geringer wird, bleibt dieser systematische Fehler erhalten. Nach vielen Wiederholungen ergibt sich beispielsweise ein Ergebnis von T = 11 ± 0, 1 Sekunden. Die Genauigkeit ist also nur scheinbar gestiegen. Durch Nichtbeachtung oder Nichtkenntnis des systematischen Fehlers entspricht also auch unsere Fehlerangabe nicht mehr der Konvention. Ein einfacherer, aber wichtiger systematischer Fehler ist jeweils die Ablesegenauigkeit des Messinstruments. Zeigt meine Stoppuhr nur 1/10 Sekunden an, so ist mein Fehler mindestens 1/20 Sekunde groß. Nur unter besonderen Umständen mittelt sich ein systematischer Ablesefehler heraus. Zwar liegt der Mittelwert aller Zahlen ± 1/20 bei 0, findet mein Versuch aber gerade so statt, dass ich eigentlich 10,04 Sekunden erwarte, so habe ich eine systematische Abweichung von 0,04 Sekunden, die bleibt. Bei einem Lineal kommt beispielsweise noch die grundsätzliche Genauigkeit des Messinstruments hinzu. Ist eine Zentimetermarkierung überhaupt exakt 1 cm lang? Selbst wenn ich immer gleich ablese, komme ich nicht über diese grundlegende Limitierung des Instrumentes hinweg. Es ist sofort intuitiv verständlich, dass ich die Länge eines Tisches nicht mit einem Metermaßband auf die Breite eines Atoms (∼ 1) angeben kann. Auch nicht, wenn ich viele Millionen Mal messe. Ein dritter, ebenfalls nicht ganz einfacher Fehler, liegt in der Annahme, was genau eigentlich gemessen wird, verborgen. Es gibt den bekannten Ausspruch: Frag 1000 Leute, wie lang die Nase von Kleopatra ist, und du bist der Wahrheit keinen Schritt näher gekommen. Oft ist eine Messung ungeeignet oder verbirgt durch eine weitere Abhängigkeit die eigentlichen Messunsicherheiten. Ein klassisches Thermometer misst beispielsweise nicht die Körpertemperatur eines Menschen, sondern es misst die Temperatur des Thermometers (und auch dies lediglich über Umwege und Annahmen von Materialeigenschaften).

4.3 Messergebnisse Zu den Angaben eines Messergebnisses gehören die Größe, der Zahlenwert, die Einheit und die Messunsicherheit. Der Zahlenwert soll die Genauigkeit der Messung widerspiegeln. Ein Messergebnis wird so gerundet, dass es genauso viele Nachkommas-

4.4 Beispiel |

147

tellen wie die absolute Messunsicherheit besitzt. Darüber hinaus gehende Stellen besitzen keine Signifikanz. Die letzte signifikante Stelle des Messwerts ist die erste von Null verschiedene Stelle des Fehlers. Angenommen, Sie haben eine Messreihe durchgeführt und Ihr Taschenrechner liefert Ihnen die Werte T = 43.74832799 und σ t = 0.17854275 gemessen in einer beliebigen Einheit. Die letzte signifikante Stelle ist die erste hinter dem Komma: 43.74832799 und 0.17854275, da sie die erste von Null verschiedene Stelle in der Standardabweichung ist. Der Mittelwert wird entsprechend gerundet, die anderen Stellen ohne Signifikanz werden nicht angegeben. Auch beim Fehler wird nur die letzte signifikante Stelle angegeben. Dabei ist grundsätzlich aufzurunden. Die korrekte Angabe ist also: 43.7 ± 0.2. In wissenschaftlichen Publikationen findet man teilweise auch die Angabe zweier Stellen, wenn die Fehlerbestimmung selbst eine zentrale Rolle spielt und mehr als eine Abschätzung darstellt: 43.75 ± 0.18.

4.4 Beispiel Der Autor dieses Kapitels speichert den gesamten Text in einer einzigen Datei ab. Geschrieben wurde es in LATEX ² und github³ wurde als Repository verwendet. Hier möchten wir zwei Dinge demonstrieren: zum einen Messfehler als solche, aber viel mehr noch verschiedene Herangehensweisen an Datenanalyse. In diesem Beispiel lässt sich besonders schön zwischen richtig und falsch unterscheiden, was bei realen Experimenten nicht immer so eindeutig ist. Durch die verschiedenen Zwischenstände lässt sich leicht eine Messreihe von Anzahl der Zeichen gegenüber der Anzahl der Worte ermitteln. Jedes Absichern einer Textversion erzeugt einen Eintrag der geschriebenen Zeichen und Worte. Abbildung 4.2 stellt einen kleinen Ausschnitt davon als „Messreihe“ dar. Man erkennt den stark linearen Zusammenhang. Die Steigung entspricht der Größe Zeichen pro Wort. Der (übereifrige) Physiker ermittelt eine Ausgleichsgerade mittels linearer Regression und findet: Die Zeichenzahl folgt einer Funktion Zeichen(Worte) = 7.684 ⋅ Worte + 1.04. Die Steigung 7.684 gibt die Anzahl der Zeichen pro Wort an. Der relative Fehler der Steigung der Ausgleichsgeraden liegt bei lediglich 0,13 %. Gerne gibt man den relativen Fehler an, um Fehler besser miteinander vergleichen zu können. Aber was ist mit dem Offset von 1.04? Er hat einen Fehler von 21 010 %. Was ist passiert? Bei sehr kleinen Größen im Vergleich zu den Messwerten ist der relative Fehler so leicht extrem hoch. Offensichtlich ist der Offset verträglich mit Null, das heißt von Null nicht zu unterscheiden. Die Steigung bleibt gleich, wenn man statt der linearen Regression einen reinen Proportionalitätsfaktor errechnet. Der rechnerische(!) Fehler liegt dann nur noch bei

2 https://www.latex-project.org/ 3 https://github.com/

148 | 4 Messfehler

250000

Zeichen

200000 150000 100000 50000 5000

10000

15000

20000 Worte

25000

30000

35000

Abb. 4.2: Anzahl der Zeichen und Worte beim Schreiben eines Kapitels.

0.05 %. Grundsätzlich gilt bei numerischen Modellanpassungen: Dies ist die Genauigkeit, mit der der Algorithmus sicher ist, dass dies die beste Lösung ist. Es beschreibt nicht die generelle Qualität und schon gar nicht die Sinnhaftigkeit der Lösung. Es gibt noch ein weiteres schwerwiegendes Problem bei der beschriebenen Herangehensweise. Wortzahl und Zeichenanzahl sind fortlaufende, akkumulative Größen. Eine solche „Messung“ beziehungsweise ein solches Datenpaar ist also hochgradig abhängig vom vorangegangenen Wert. Abbildung 4.2 zeigt außerdem, dass es Bereiche vieler Datenpaare und Bereiche mit weniger Datenpaaren gibt. Ein besonders häufiges Speichern des Textes hat besonders engmaschige „Messungen“ ergeben und diese haben nun bei der Bestimmung der Ausgleichsgeraden das meiste Gewicht. Das ist numerisch zwar richtig, ergibt inhaltlich aber keinen Sinn! Um es vorweg zu nehmen: Die verwendete Methode bietet sich bei der Beschaffenheit der Daten gar nicht erst an. Die mittlere Anzahl der Zeichen pro Wort eines Textes ergibt sich am Ende einfach aus der Anzahl der Worte und der Anzahl der Zeichen. In diesem Fall zu: 7,641 Zeichen pro Wort. Diese Angabe ist auch nicht fehlerbehaftet. Möchte man unbedingt eine statistische Betrachtung anstellen, so könnte man statt dessen die Anzahl der Zeichen pro Wort je Abschnitt darstellen wie in Abbildung 4.3. Es gibt drei Abschnitte mit auffallend vielen Zeichen pro Wort. Diese beeinflussen den Mittelwert spürbar. Es ergibt sich ein Mittelwert von 7,93 Zeichen pro Wort (durchgezogene Linie in Abbildung 4.3). Durch die sogenannten Ausreißer ist diese Angabe aber nicht wirklich repräsentativ für die Abschnitte. Der Median (gestrichelte Linie) gibt an, bei welchem Wert gleich viele Einträge darüber wie auch darunter liegen. Er beträgt 7,63 und ist weniger empfindlich gegenüber Ausreißern. Ohne die drei auffäl-

4.4 Beispiel |

149

Zeichen pro Wort

14 12 10 8

0

10

20 Abschnitt

30

40

Abb. 4.3: Durchschnittliche Anzahl der Zeichen pro Wort je Abschnitt.

ligen Werte ergeben sich im Mittel je Abschnitt 7, 6 ± 0, 5 Zeichen pro Wort. Ein im Übrigen typischer Wert für wissenschaftliche Texte.

5 Kräfte und Mechanik Im vorangegangenen Kapitel beschäftigten wir uns mit Geschwindigkeiten und Beschleunigungen. Im Fall-Beispiel beschleunigte die Erdanziehung unseren Schlüssel. Aber wie genau erfährt ein Körper so etwas wie Beschleunigung? Was veranlasst eine träge Masse dazu, sich aus dem Ruhezustand in eine Bewegung zu versetzen? Wir bleiben in der Physik und nicht der Psychologie bei der Beantwortung dieser Frage. Jede Änderung der Bewegung eines Körpers (auch wenn die Bewegung zuvor 0 lautete) erfordert eine ursprüngliche Kraft, die auf den Körper wirkt. Leider ist auch hier der im Alltag gebräuchliche Begriff der „Kraft“ nicht ganz deckungsgleich mit dessen Anwendung in der Physik, wie wir lernen werden.

5.1 Erdanziehungskraft Abbildung 5.1 zeigt ein einfaches Experiment, bei dem ein frei rollender Wagen gleichförmig beschleunigt wird. Eine Masse m hängt an einem Faden, der den Wagen über eine Winde verbunden zieht. Unser Bauchgefühl verrät uns, dass ein leichter Holzwagen schneller beschleunigen wird als ein schwerer Metallwagen, wenn die Masse m gleich bleibt. Beschreibt man diese Beschleunigung a als Kraft F pro Masse m: a = F⇑m, ergibt sich ebenfalls F = m ⋅ a. Die Kraft F, welche den Wagen beschleunigt, wird von der Masse m, auf die die Erdbeschleunigung wirkt, erzeugt: 2

F = m ⋅ 9, 81m⇑s

(5.1)

Diese Kraft auf m wirkt auf den Faden, welcher wiederum am Wagen zieht. Der Wagen erfährt somit eine Beschleunigung a = F⇑Wagenmasse. Ist der Wagen doppelt so schwer, wird er nur halb so stark beschleunigt, wenn die Masse m, die das Seil nach unten zieht, gleich bleibt. An diesem Beispiel sieht man schön, dass das System geschlossen ist. Die Kraft, die von der Masse m ausgeht, ist im Idealfall die einzige, die auf den Wagen wirkt. In der Realität wirken diverse weitere Kräfte auf das System. Die Rolle, das Seil und nicht zuletzt der Wagen selbst haben z.B. eine gewisse Reibung, die einer Bewegung entgegensteht. Jede Zustandsänderung bedarf einer Kraft. Bewegt sich nichts, herrscht ein Kräftegleichgewicht. Beim Armdrücken erscheint uns das logisch, aber auch ein ruhendes Glas auf dem Tisch befindet sich im Kräftegleichgewicht. Auf das Glas wirkt wie auf das Gewicht in der Abbildung eine Kraft auf Grund der Erdanziehung: F = m ⋅ 9, 81 m/s2 . Der Tisch selbst liefert allerdings eine der Erdanziehung entgegenwirkende Kraft in exakt der benötigten Größe. Dem Tisch selbst sieht man das nicht an. Der Leser möge sich aber die erforderliche Kraft, um Samstag Nacht nicht schon auf dem Weg ins Bett der Schwerkraft zu erliegen, ins Gedächtnis rufen. https://doi.org/10.1515/9783110496277-013

5.1 Erdanziehungskraft | 151

Kraft FG = m · 9,81 m/s2

Masse m

Abb. 5.1: Klassisches Experiment: die Gewichtskraft zieht über den Faden am Wagen und beschleunigt ihn gleichförmig.

Newton selbst formulierte diese Erkenntnis in seinen Axiomen, auch als die drei Newton’schen Gesetze bekannt: 1. Ein Körper verharrt im Zustand der Ruhe oder der gleichförmig geradlinigen Bewegung, sofern er nicht durch einwirkende Kräfte zur Änderung seines Zustands gezwungen wird. 2. Die Änderung der Bewegung ist der Einwirkung der bewegenden Kraft proportional und geschieht nach der Richtung derjenigen geraden Linie, nach welcher jene Kraft wirkt. 3. Kräfte treten immer paarweise auf. Übt ein Körper A auf einen anderen Körper B eine Kraft aus (actio), so wirkt eine gleich große, aber entgegen gerichtete Kraft von Körper B auf Körper A (reactio).

Gleichung 5.1 erleichtert uns auch das Verständnis der SI-Einheit für Kraft. Ein Newton entspricht 1 kg⋅m/s2 . Ein Körper mit der Masse von etwa 0,102 kg – etwa eine Tafel Schokolade – wirkt also eine Gewichtskraft von 1 N aus. Materie hat (unter anderem) zwei Grundeigenschaften: Sie ist sowohl schwer als auch träge. Es ist nicht selbstverständlich, dass beides äquivalent ist. Die Physik spricht hier tatsächlich vom Äquivalenzprinzip. Es umschreibt zwar lediglich die Beobachtungen von Galileo Galilei und Isaac Newton, dass beim freien Fall alle Körper gleich beschleunigt werden (woraus sich direkt schließen lässt, dass alle Gravitationswirkungen proportional zur Masse der beteiligten Körper sind), aber erst Albert Einstein witterte hier 1907 ein Grundprinzip einer Theorie der Gravitation, welches ihn schließlich zur Formulierung der allgemeinen Relativitätstheorie führte. Salopp formuliert: Etwas besonders Schweres lässt sich nicht so leicht in Bewegung versetzen, aber im gleichen Maße wirkt auch eine stärkere Gravitation. Die größere Trägheit der schweren Masse wird durch die stärkere Anziehungskraft kompensiert. Alle Gegenstände fallen im Vakuum ohne Luftwiderstand tatsächlich gleich schnell. Dem Leser ist vielleicht das Experiment einer gläsernen Vakuumröhre bekannt, in der eine Feder und ein Bleistück mit gleicher Geschwindigkeit fallen. Wie

152 | 5 Kräfte und Mechanik viel ein Mensch auf dem Mond wiegt, lässt sich leicht berechnen und jeder stellt sich eine Personenwaage auf dem Mond vor, die dort dann lediglich 16 des Gewichtes im Vergleich zur Erde anzeigt. Aber was machen wir mit der Frage: Wie viel wiegt der Mond? Auf wessen Waage? Eine Angabe in Kilogramm (es sind 7, 349 ⋅ 1022 kg) erscheint uns dennoch sinnvoll, auch wenn man hier automatisch nicht an Gewichtskraft denkt, sondern tatsächlich an die träge Masse. Die Erdbeschleunigung ist aber auch auf der Erdoberfläche nicht überall gleich, sondern weicht messbar von den 9,81 m/s2 ab, je nachdem ob man sich an den Polen der Erde oder am Äquator befindet. Durch die leichte Ausdehnung der Erde am Äquator auf Grund der Rotation fällt die Erdbeschleunigung dort tatsächlich etwa 0,5 % geringer aus als an den Polen. Newtons zweites Gesetz bezog sich ursprünglich nicht auf die reine Geschwindigkeit eines Körpers, sondern auf dessen Impuls p als Produkt aus Masse und Geschwindigkeit: F=

dp dt

=

d(mv) dt .

, mit p = m ⋅ v als Impuls oder auch Bewegungsgröße.

Durch Ableitung ergibt sich dann unmittelbar: F = m den Körper, so bleibt dessen Impuls erhalten.

dv dt

= m ⋅ a. Wirkt keine Kraft auf

5.2 Arbeit Der Begriff der Arbeit (oft W für work) kommt unmittelbar aus dem täglichen Leben. Wenn man etwas anhebt, setzt man Muskelkraft gegen die Schwerkraft ein und verrichtet Arbeit. Dabei ist die Arbeit umso größer, je höher man die Masse hebt oder je schwerer sie ist. Arbeit wird definiert als das Produkt von Kraft F und Weg s: W = F ⋅ s. ⃗ also auch der Dabei ist gegebenenfalls zu berücksichtigen, dass sowohl die Kraft F Weg ⃗s eigentlich vektorielle, also gerichtete Größen sind. Zur geleisteten Arbeit trägt also nur die jeweils entlang der Strecke gerichtete Kraft bei. In Hinblick auf das Beispiel mit dem Wagen, welcher über eine Tischplatte gezogen wird, verrichtet die Masse, welche am Faden zieht, Arbeit, nicht aber der Tisch, der der Gewichtskraft des Wagens selbst entgegenwirkt. Diese Kraft, die den Wagen führt, wirkt senkrecht zur Zugrichtung und somit zur zurückgelegten Strecke. Bisher wirkte die Kraft stets entlang der Fahrtrichtung, wie verhält sich die geleistete Arbeit allerdings, wenn beispielsweise ein Kind einen Spielzeugwagen an einem schräg nach oben gerichteten Faden hinter sich herzieht? Abbildung 5.2 verdeutlicht, dass die Kraft auf den Wagen entlang des Seils wirkt und somit nicht vollständig in Richtung der Bewegung des Fahrzeugs. Wie bei allen vektoriellen Größen kann hier der Anteil der Kraft bestimmt werden, welcher in Bewegungsrichtung wirkt. Es gilt:

5.3 Leistung

| 153

W = F ⋅ s ⋅ cos α. Ändert sich die Kraft auf dem Weg, so werden jeweils Teilstücke konstanter Kraft aufaddiert. Die Grenzwertbetrachtung führt zu: W = ∫ F ⋅ ds. Die SI-Einheit für Arbeit leitet sich direkt von den SI-Einheiten für Kraft und Strecke ab zu Newtonmeter = 1 Nm. Etwas gebräuchlicher sind Joule (J) oder Wattsekunde⁴ (Ws). Es gilt: 1 Nm = 1 J = 1 Ws mit den Einheiten kg m2 s−2 .

F

α F · cos α

Abb. 5.2: Kräfte bei einem schräg gezogenen Wagen.

5.3 Leistung Bei jeder Arbeit, die verrichtet wird, spielt es eine Rolle, innerhalb welcher Zeitspanne man diese geleistet hat. Schon in dieser Formulierung steckt der Begriff der Leistung, welcher beschreibt, wie viel Arbeit W pro Zeit t geleistet wurde: Leistung P = Wt . Die Einheit der Leistung lautet Watt⁵ (W). Es gilt: 1 W = 1 J/s. Bei elektrischen Geräten bestimmt die Wattzahl lediglich, wie viel Strom pro Sekunde verbraucht wird. Die Angabe von Watt als Helligkeit von Glühlampen war also nie besonders sinnvoll und überhaupt nur anwendbar, als alle Lampen eine vergleichbare (In)Effizienz bei der Lichterzeugung aus Strom hatten. Auch bei Staubsaugern geht der Verbraucher gern davon aus, dass sich die Angabe von Watt auf die Saugleistung bezieht, tatsächlich geht es hier aber lediglich um den Verbrauch. Die Leistung eines Sportlers bei den Olympischen Spielen wird ebenfalls nicht daran gemessen, wie viel derjenige verspeist.

4 Um 1 Liter Wasser von Zimmertemperatur (20 ○ C) auf 100 ○ C zu erhitzen, benötigt man etwa 335 kJ oder 335 kWs. Bei einem Wasserkocher mit 2000W „Leistung“ dauert das etwa 170 Sekunden. Das Erhitzen von Flüssigkeiten braucht viel Energie. Mit 335 kJ könnte man auch ein 2 Tonnen schweres Auto 17m hoch heben (mgh = 2000kg ⋅9, 81 m/s2 ⋅ 17m = 333 kJ (Vergleiche Kapitel 5.4). 5 Veraltet, aber immer noch anzutreffen ist auch die Pferdestärke (PS). 1 PS entspricht 735,5 W.

154 | 5 Kräfte und Mechanik

5.4 Mechanische Energie Von der Definition der Arbeit und der Leistung kommen wir auf den Begriff der Energie. Energie beschreibt dabei die Fähigkeit, Arbeit zu verrichten (auf die Höhe der Leistung hat Energie nur indirekt Einfluss!). Das klassische Beispiel ist erneut das Heben eines schweren Gegenstandes. Wird ein Körper der Masse m um die Höhe h angehoben, so wird gegen die Schwerkraft m ⋅ g gearbeitet. Die Hubarbeit beträgt also W = m ⋅ g ⋅ h. An der Formel erkennt man bereits, dass ausschließlich die veränderte Endlage die insgesamt geleistete Arbeit beschreibt. Umwege oder das reine Halten eines Körpers gilt nicht als Arbeit im physikalischen Sinne. Das lässt sich gut an der Kraftzerlegung auf der schiefen Ebene erläutern. Abbildung 5.3 verdeutlicht die Arbeit, um die dargestellte Kugel um die Höhe h anzuheben. Bewegt man die Kugel entlang der schiefen Ebene (unter Vernachlässigung von Rei⃗ in zwei Komponenbung und Trägheit der Kugel), so lässt sich dessen Schwerkraft F ten zerlegen: in die senkrecht auf sie wirkende Kraft F⊥ = mg cos α und die parallele Kraftkomponente F∥ = mg sin α, die Hangabtriebskraft. Lediglich F∥ wirkt entlang der Wegstrecke s. Die aufzuwendende Muskelkraft reduziert sich also ebenfalls auf FMuskel = −F∥ . Am Ende wird aber dieselbe Arbeit geleistet, da der zurückzulegende ⃗ ⃗s = m⋅g⋅sin α⋅ h = mgh. Weg nun länger ist: s = sinh α . Es ergibt sich ebenfalls: W = F⋅ sin α Ein um die Höhe h angehobener Körper ist nun seinerseits in der Lage, Arbeit zu leis-

F α s

α

F

h

m·g

Abb. 5.3: Kräfte und Arbeit bei einer Kugel an der schiefen Ebene.

ten, indem er beispielsweise einfach nur zurückfällt. Es steckt so etwas wie ein Arbeitsvermögen in ihm durch das vorangegangene Anheben. Dieser in den Körper gesteckte Arbeitsvorrat wird auch als mechanische Energie bezeichnet. Bei einem Ar-

5.4 Mechanische Energie | 155

beitsvorrat, der durch vorangegangene Arbeit gegen die Schwerkraft entstanden ist, spricht man von potentieller Energie: Epot = mgh. Analog dazu trägt ein Körper, der durch eine Beschleunigung in Bewegung gebracht wurde eine kinetische Energie: Ekin = 12 mv2 . Die kinetische Energie lässt sich einfach aus der Arbeit W = F ⋅ s mit F = m ⋅ a bestimmen. Die Beschleunigung hängt v2 mit der Strecke über s = 21 a ⋅ t2 = 2a zusammen, da v = a ⋅ t. 2

v Es ergibt sich: W = m ⋅ a ⋅ 2a = 12 mv2 . Die Energie, die in einem bewegten Körper steckt, wächst also quadratisch mit der Geschwindigkeit, relevant unter anderem für Autofahrer und Boxer. Ein besonders schönes Beispiel ergibt sich bei einem Fadenpendel (siehe Abbildung 5.4). Eine Kugel pendelt an einem Faden hin und her. Im Ruhezustand besitzt die Kugel weder kinetische noch potentielle Energie. Lenkt man das Pendel aber aus, führt man dem System potentielle Energie zu. Beim Pendeln wird diese potentielle Energie in kinetische Energie umgewandelt. Am tiefsten Punkt der Pendelbewegung wurde die gesamte potentielle Energie der Kugel (in Bezug auf das Pendelsystem) in kinetische Energie umgewandelt. Diese kinetische Energie wird nun hingegen wieder vollständig aufgebracht, um die vorherige potentielle Energie zu erreichen. Gäbe es keine Reibung an der Aufhängung und keinen Luftwiderstand, ginge das Wechselspiel ewig so weiter.

Epot=max Ekin=0

h

Epot=0 Ekin=max

Abb. 5.4: Potentielle und kinetische Energie bei einem Fadenpendel.

Die Gesamtenergie des Systems Egesamt = Epotentiell + Ekinetisch = const bleibt erhalten, wenn keine Energie von außen zugeführt oder nach außen abgeführt wird. Diese Erkenntnis ist von fundamentaler Bedeutung. Energie geht nie „verloren“, sie wird lediglich umgewandelt. Ein Glas, welches vom Tisch fällt, wandelt zunächst seine potentielle Energie in kinetische Energie um. Beim Aufprall geht diese Energie nicht verloren, sondern wird verwendet, um das Material zu zerbrechen, Splitter zu beschleunigen

156 | 5 Kräfte und Mechanik und gegebenenfalls den Boden zu verformen. Joggen im weichen Sand wird deshalb als anstrengender wahrgenommen, weil man viel Energie in die Verformung des Sandes inklusive Reibung und Wärmeerzeugung steckt (siehe Kapitel 6).

5.5 Der Wurf Der Wurf ist stets ein beliebtes Beispiel in der Physik und in Computerspielen. Wir betrachten hier eine Wurfbahn und wie sie zu Stande kommt, wenn lediglich die Schwerkraft auf den fliegenden Körper wirkt. Die Bestimmung einer Flugbahn unter Einbezug von Luftwiderstand und zusätzlich auftretenden Kräften wird oft als Ballistik bezeichnet und hat auch historisch gesehen den Beigeschmack militärischer Anwendungen bei der Betrachtung von verschossenen Projektilen. In der Raumfahrt hingegen bezeichnet man als „ballistischen Flug“ eben jenen, der allein von der Gravitation bestimmt wird ohne das Einwirken weiterer Kräfte.

v y y

α

x Wurfweite l

Abb. 5.5: Der schräge Wurf.

Vereinfacht gehen wir davon aus, dass der Wurf am Erdboden beginnt und ein Ball unter einem Winkel α schräg aufwärts geworfen wird. Der Akt des Werfens gibt dem Ball also lediglich eine gerichtete Anfangsgeschwindigkeit v0 mit. Entsprechend der Trägheit und der Newton’schen Gesetze bliebe diese also erhalten. Nun wirkt aber die Erdanziehungskraft als Folge der Erdbeschleunigung auf den Ball. Wir haben bereits in Abschnitt 5.1 gelernt, dass die Masse des Balls hier keine Rolle spielt. Abbildung 5.5 illustriert den Bahnverlauf und einige geometrische Punkte. Die Erdanziehungskraft betrifft lediglich die vertikale Komponente der Bewegung des Balls. Die insgesamt zurückgelegte Strecke s innerhalb der Zeit t lässt sich einfach zerlegen in den ungestörten Teil sFlug = v0 ⋅ t und die Strecke die ein ruhender Ball auf Grund der Gra-

5.6 Die Kreisbahn | 157

vitation zurücklegen würde: sGravitation = 21 ⋅ g ⋅ t2 . Der gesamte Weg ergibt sich also zu: s = v0 ⋅ t + 12 ⋅ g ⋅ t2 . Dieser Weg lässt sich in Komponenten zerlegen. In x-Richtung gilt v0 anteilig und sGravitation spielt keine Rolle: x = v0 ⋅ t ⋅ cos α. (5.2) Für die y-Richtung folgt:

1 ⋅ g ⋅ t2 . (5.3) 2 Löst man Gleichung 5.2 nach t auf und setzt dann in Gleichung 5.3 ein, erhält man die Gleichung der Bahnkurve: y = v0 ⋅ t ⋅ sin α −

y = x ⋅ tan α − (

2⋅

v20

g ) ⋅ x2 . ⋅ cos2 α

(5.4)

Es handelt sich also um eine Parabel. Deren Nullstellen ergeben den Abwurf- und Aufprallpunkt. Daraus ergibt sich unmittelbar die Wurfweite: l = (v20 ⇑g) ⋅ sin 2α. Das Maximum der Wurfweite ergibt sich offenbar wegen der Sinus-Funktion für α = 45○ . Die Sinus-Funktion ist allerdings um das Maximum symmetrisch, so dass ein beispielsweise um 5○ steilerer oder flacherer Wurf um die gleiche Länge weniger weit reichen würde (bei Vernachlässigung des Luftwiderstandes).

5.6 Die Kreisbahn Die Bewegung auf einer Kreisbahn ist ein Spezialfall der Bewegung, an der sich diverse Konzepte erläutern lassen. Als Beispiel kann man sich wie beim Fadenpendel eine Kugel an einem Faden vorstellen. Sie bewegt sich an diesem Faden der Länge r auf einer Kreisbahn um einen Mittelpunkt M, an dem das andere Ende des Fadens befestigt ist. Es lässt sich die Winkelgeschwindigkeit ω definieren, also das Verhältnis der Geschwindigkeit v der Kugel auf dieser Kreisbahn zum Radius r des Kreises: ω = v⇑r. Diese Bewegung ist offenbar nicht gradlinig, sondern es liegt entsprechend des Newton’schen Gesetzes eine (permanente) Beschleunigung vor, welche die Abweichung von einer geraden Bahn hervorruft. Es handelt sich um eine radiale Beschleunigung entlang des Fadens auf den Kreismittelpunkt zu. Dies ist die Zentripetalbeschleuni2 gung a Z = vr = ω2 ⋅ r. Diese Beschleunigung wird von der Zentripetalkraft F Z verursacht. Die Zentripetalkraft ist eine ständig wirkende Kraft, die zum Mittelpunkt der Kreisbewegung gerichtet ist: FZ = m ⋅ aZ = m ⋅

v2 = m ⋅ ω2 ⋅ r. r

(5.5)

Der Körper würde ohne diese Kraft einfach in die Richtung der momentanen Geschwindigkeit weiterfliegen. Die Zentripetalkraft zwingt ihn dazu, in der Kreisbahn zu bleiben. Der Faden liefert diese Kraft. Dieses Bild ergibt sich dem außenstehenden

158 | 5 Kräfte und Mechanik

FZ M

r

v

Abb. 5.6: Kräfte und Bewegungsrichtung bei einer Kreisbahn.

Beobachter (Abbildung 5.6). Aus Perspektive des sich mitdrehenden Beobachters auf der Kugel ergibt sich eine andere Betrachtungsweise. Aus seiner Sicht ruht die Kugel und wird folglich auch nicht beschleunigt. Statt einer Kraft zum Kreismittelpunkt spürt er eine Kraft nach außen. Diese nach außen gerichtete Kraft nennt sich Zentrifugalkraft. Diese ist ebenfalls abhängig von m ⋅ ω2 ⋅ r. Tatsächlich ist sie immer der Zentripetalkraft entgegen gerichtet und gleich groß. Sie tritt ausschließlich im beschleunigten System auf. Im ruhenden Inertialsystem gibt es sie nicht. Daher gehört die Zentrifugalkraft zu den Scheinkräften. In einer scharfen Kurve im Auto wird einem diese Zentrifugalkraft nicht als „Scheinkraft“, sondern äußerst real vorkommen. Ein Hinweis auf die Besonderheit dieser Kraft liefert der Umstand, dass man gefühlt nach außen gedrückt wird. Würde man aber die außenstehende Fahrzeugseite schlagartig entfernen, flöge man nicht radial nach außen, sondern aus Sicht des Fahrzeuges geradlinig nach vorne. Die Trägheit des Körpers sorgt für eine Beibehaltung des Bewegungszustandes ohne einwirkende Kräfte. Ebenso gilt für Busreisende, dass der Körper sich beim Bremsen des Busses lieber gleichförmig mit alter Geschwindigkeit weiterbewegen würde. Die Reibung zwischen Schuhsohlen und Bus überträgt diese Bremsbeschleunigung des Busses schließlich auf den Reisenden, so dass dieser zum Halt kommt. In dieser Ruhe würde er auch gerne verbleiben, wenn der Bus erneut anfährt und beschleunigt. Aus diesem Grund fliegen Gasballons in einem Bus beim Bremsen auch nach hinten. Die Luft ist schwerer als der Ballon und somit auch träger und verdrängt den leichteren Ballon im vorderen Teil.

6 Wärme 6.1 Temperatur Wir haben in den vorangegangen Kapiteln teilweise davon gesprochen, dass Energie nur scheinbar verloren geht. Beispielsweise durch Reibung. Nachdem wir jeweils darauf hingewiesen haben, dass diese Energie dann lediglich in Wärme umgewandelt wird, wollen wir nun ein wenig auf den Begriff der Wärme eingehen. Bevor wir von Wärme sprechen, lernen wir zunächst die SI-Einheit der Temperatur kennen: das Kelvin. 1 Kelvin ist definiert als der 273,16te Teil der thermodynamischen Temperatur des Tripelpunktes von Wasser, bei dem dessen feste, flüssige und gasförmige Phase koexistieren. Wir beschränken uns hier aber darauf, dass der absolute Nullpunkt und somit die niedrigste theoretisch erreichbare Temperatur bei -273,15 ○ C liegt. Diese Temperatur ist der Nullpunkt der Kelvinskala. 273,15K entsprechen also 0 ○ C. Die Beobachtung, dass bei gleicher Energiezuführung das Erhitzen der doppelten Menge Wasser auf eine bestimmte Temperatur auch die doppelte Zeit benötigt, legt nahe, dass es so etwas wie eine Wärmemenge gibt. Wärme ist also kein Zustand in den gewechselt wird, sondern eine physikalische Größe.

6.2 Wärmemenge Wärme und Arbeit sind energetisch äquivalent und bleiben in ihrer Summe erhalten. Daraus lässt sich ein Erhaltungssatz formulieren, der als erster Hauptsatz der Wärmelehre bekannt ist: Die einem Körper zugeführte Wärmemenge Q muss sich in der Zunahme seiner inneren Energie ∆U und in der von ihm nach außen geleisteten Arbeit W wiederfinden. Als Energiegleichung formuliert ergibt sich: Q = ∆U + W .

(6.1)

Das Vermögen eines Körpers, eine gewisse Wärmemenge Q aufzunehmen, bezeichnet man als Wärmekapazität C. Man definiert die Wärmekapazität darüber, wie viel Wärme Q aufgenommen werden muss, um einen Temperaturanstieg von ∆T zu erreichen. Es ergibt sich schließlich für die Wärmekapazität eines Körpers: C = Q⇑∆T. Umgekehrt gibt ein Körper also auch diese Wärmemenge ab, wenn er um die Temperatur ∆T abkühlt. Es ist intuitiv verständlich, dass diese Wärmemenge je kg für verschiedene Materialien wie beispielsweise Styropor und Wasser unterschiedlich hoch ist. Normiert man die Wärmekapazität C mit der Masse m des Körpers, so ergibt sich die spezifische Wärmekapazität c = C⇑m. Die spezifische Wärmekapazität trägt die Einheit J⋅kg−1 ⋅K−1 (Joule pro Kilogramm und Kelvin). Um eine Masse m um ∆T zu erwärmen, benötigt man also die Wärmemenge: Q = c ⋅ m ⋅ ∆T. https://doi.org/10.1515/9783110496277-014

(6.2)

160 | 6 Wärme Die spezifische Wärmekapazität für Wasser im Bereich um 15 ○ C beträgt c w = 4, 1868 J/gK oder auch 1 Kalorie pro Gramm und Kelvin. Die inzwischen zumindest für die Physik veraltete Einheit Kalorie (cal) definierte sich ursprünglich über die Wärmemenge, die erforderlich ist, um 1g Wasser von 14,5 ○ C auf 15,5 ○ C zu erwärmen. Es gilt 1 cal = 4,1868 J. Die Angabe von „Kalorien“ bei Lebensmittel erfolgt aber fast immer als kcal, also Kilokalorien.

Der zweite Hauptsatz der Wärmelehre erscheint trivial, hat aber weitreichende Konsequenzen. In seiner ursprünglichen Form wurde er unter anderem wie folgt formuliert: Es ist unmöglich, eine periodisch funktionierende Maschine zu konstruieren, die weiter nichts bewirkt als Hebung einer Last und Abkühlen eines Wärmereservoirs (Max Planck, 1897).

Auffallend ist die Formulierung „periodisch“. Es ist also denkbar, dass ein einmaliger Vorgang sehr wohl die gesamte aufgenommene Wärmemenge in mechanische Arbeit umwandeln könnte. Dies gilt beispielsweise für ein Gas, welches bei gleichbleibender Temperatur expandiert und somit Arbeit leistet und die dafür erforderliche Energie vollständig einer möglichen Quelle als Wärme entzieht.

6.3 Entropie Der zweite Hauptsatz lässt sich auch so formulieren, dass Wärme nie von selbst, das heißt ohne Arbeit von außen, vom kälteren zum heißeren Körper übergeht. Dies erscheint bereits als recht fundamentale Tatsache. In der Natur versuchen sich Temperatur-, Druck- und Konzentrationsunterschiede stets auszugleichen. Mit dem zweiten Hauptsatz wird auch eine neue Zustandsgröße eingeführt, die wir als Entropie S bezeichnen. Sie ist uns bereits in Band 1 begegnet. Bei Wärmeaufnahme der Wärmemenge Q unter der Temperatur T steigt die Entropie: ∆S =

Q . T

(6.3)

Mit Hilfe der Entropie S kann der Hauptsatz viel direkter ausgedrückt werden: Die Entropie kann in einem geschlossenen System nie abnehmen. Gelegentlich wird die Entropie auch als Maß der „Unordnung“ verstanden. Dies ist etwas zu sehr vereinfacht. Sucht man einen einfachen Begriff, bietet sich eher „maximale Verteilung“ oder sogar konkret der Begriff „Informationsverlust“ an. Im Zusammenhang mit dem Informationsinhalt wurden verschiedene Entropiebegriffe und Definitionen auch in Band 1 (vgl. dort Kap. I.4.1.2) behandelt. Dieses Gesetz der Entropie gibt auch eine favorisierte Zeitrichtung an. Die Tendenz der Natur, die Entropie wachsen zu lassen und die Energie zu minimieren, wirkt sich auf die Ablaufrichtung von Prozessen aus. Die Blätter eines Baumes fallen zu Bo-

6.4 Wärme als Teilchenbewegung |

161

den. Dieser Prozess ist irreversibel. Irreversible Prozesse sind Prozesse, bei denen ein System nicht ohne Energieeinsatz in seinen Ursprungszustand zurückkehren kann. Reversible Prozesse sind Prozesse, die von alleine in ihren Ursprungszustand zurückkehren können. Deshalb gibt der zweite Hauptsatz über die Entropie eine festgelegte Zeitrichtung vor.

6.4 Wärme als Teilchenbewegung Reibung erzeugt bekanntermaßen Wärme. Ein praktisches Alltagsbeispiel für Wärme durch Teilchenbewegung findet sich in Kapitel 14.1, wo wir auf die Funktionsweise eines Mikrowellenherds eingehen werden. In einem Gas bewegen sich Moleküle frei und geradlinig, bis sie mit anderen Molekülen zusammenstoßen und entsprechend voneinander abprallen, einem Billardspiel nicht ganz unähnlich in dieser Vorstellung. Allerdings ein dreidimensionales Billard mit etwa 3 ⋅ 1019 Bällen pro cm3 . Durch das entsprechend chaotische Verhalten ergibt sich keine Vorzugsrichtung, lediglich eine spezifische Verteilung der durchschnittlichen Wegstrecken eines Teilchens, bevor es erneut kollidiert. Im Mittel beträgt diese Wegstrecke in Luft und bei normalen Druck- und Temperaturbedingungen etwa 10−7 m. Die kinetische Energie eines Teilchens der Masse m beträgt bei der Geschwindigkeit v wie wir in Kapitel 5.4 gelernt haben: Ekin = 12 mv2 . Die thermische Energie eines Gases hängt von der Teilchenzahl N ab. Mit der Boltzmann-Konstanten k B ergibt sich folgender Zusammenhang mit der Temperatur T: 1 N ⋅ k b ⋅ T. (6.4) 2 Der Faktor 3 ergibt sich konkret aus den drei Freiheitsgraden, die ein einzelnes Teilchen im Raum besitzt. Für ein hantelartiges Molekül ergeben sich zwei mögliche Rotationsachsen und somit zwei weitere Freiheitsgrade. Die Boltzmann-Konstante wurde von Max Planck eingeführt und nach dem Physiker Ludwig Boltzmann benannt, um dessen Leistungen auf dem Gebiet zu würdigen. Seit Mai 2019 ist für diese Naturkonstante der feste Wert von k B = 1, 380649 ⋅ 10−23 J/K gültig. Man gelangt so zu einer einfachen Definition der Temperatur eines idealen Gases: Etherm = 3 ⋅

Ekin = Etherm 1 3 N mv2 = Nk b T 2 2 mv2 ⇒T= 3k b

(6.5) (6.6) (6.7)

Dabei ist m die Masse und v2 die mittlere quadratische Geschwindigkeit der Anzahl N Teilchen. Die Temperatur ist damit ein Maß für den durchschnittlichen ungerichteten, also zufälligen Bewegungsenergieanteil (kinetische Energie) einer Ansammlung

162 | 6 Wärme von Teilchen. Die Teilchen sind hierbei die Moleküle oder Atome eines Gases, einer Flüssigkeit oder eines Festkörpers. Beim Modell des sogenannten idealen Gases der klassischen Physik werden alle Gasteilchen als ausdehnungslose Massepunkte angenommen, welche sich frei durch das ihnen zur Verfügung stehende Volumen bewegen können. Stöße zwischen Teilchen eines idealen Gases sind dabei stets voll elastisch, dass heißt die gesamte Energie bleibt als Bewegungsenergie vorhanden.

7 Drehbewegungen Drehbewegungen im Allgemeinen sind elementarer Bestandteil vieler periodischer Vorgänge in der Physik und ihre enge Verwandtschaft mit Schwingungen und Wellen trägt dazu bei, dass sie separat in diesem Kapitel eingeführt werden. Dabei werden wichtige Definitionen zu Beginn erläutert und schließlich Ursachen wie Gravitation und Rotation behandelt.

7.1 Beschleunigung und Trägheit Analog zur gleichförmigen und gerichteten Beschleunigung in Kapitel 5.1 lässt sich die Winkelbeschleunigung einer sich drehenden Scheibe definieren. Abbildung 7.1 zeigt ein Gewicht der Masse m (hier ein Eimer), der mit der Gewichtskraft F = g ⋅ m am Seil zieht. Das Seil ist um eine Scheibe gewickelt, welche sich zu drehen beginnt, während sich das Seil abwickelt. Die Scheibe erfährt eine Winkelbeschleunigung. Beginnt

FG

Masse m

Abb. 7.1: Winkelbeschleunigung durch Seil auf einer Scheibe.

sie sich zu drehen, so haben alle Punkte auf ihr dieselbe Winkelgeschwindigkeit ω, aber abhängig von der Entfernung r zur Drehachse unterschiedliche Bahngeschwindigkeiten v = ω ⋅ r. Dabei ist die Winkelgeschwindigkeit eine gerichtete Größe, also ein Vektor. Er steht hier senkrecht zur Scheibe und definiert mit seiner Lage die Rotatihttps://doi.org/10.1515/9783110496277-015

164 | 7 Drehbewegungen onsebene und durch seine Länge die Drehgeschwindigkeit. Der Drehsinn selbst ist wie eine Rechtsschraube definiert. Alternativ kann man auch die rechte Hand als Gedächtnisstütze einsetzen. Krümmt man die Finger in Drehrichtung, so zeigt der Daumen in Richtung des Vektors (siehe Abbildung 7.2).

ω

v

⃗ und Rechte-Daumen-Regel. Abb. 7.2: Winkelgeschwindigkeit ω

Die Änderung der Winkelgeschwindigkeit pro Zeit ergibt die Winkelbeschleunigung β. Wie bei der geradlinigen Beschleunigung β ergibt sich folgende Darstellungsweise: ∆ω dω d2 ϕ = = , (7.1) β = lim ∆t→0 ∆t dt dt2 mit ϕ als dem in der Zeitspanne t überstrichenen Winkel. Um ein Objekt in Rotation zu versetzen, bedarf es einer Kraft. Im Beispiel mit dem Eimer war es die Gewichtskraft über das Seil. Entscheidend für den Kraftübertrag auf die Scheibe ist der Abstand zur Drehachse und damit der Hebel, an dem die Kraft wirkt. Diese Kraft wird als das Drehmoment M definiert: M = F⊥ ⋅ r. F⊥ ist die Kraftkomponente, die senkrecht zu r und in Drehrichtung wirkt. Die Trägheit gegenüber der Bewegungsveränderung eines Körpers wird durch dessen Masse bestimmt (vergleiche Kapitel 5.1). Bei der Trägheit bezüglich einer Drehung spielt außerdem die Verteilung dieser Masse innerhalb des Körpers relativ zur Drehachse eine Rolle. Je weiter eine Masse von der Drehachse entfernt ist, desto größer ist auch dessen Bahngeschwindigkeit (bei gleicher Winkelgeschwindigkeit) und somit dessen kinetische Energie (Vergleiche Kapitel 5.4). Betrachten wir diese kinetische Energie 21 mv2 = 21 mω2 r2 , so stel-

7.2 Grundgesetz der Drehbewegung |

165

len wir fest, dass die Beschleunigungsarbeit, um eine bestimmte Winkelgeschwindigkeit zu erreichen, nicht allein mit der Masse m ansteigt, sondern um mr2 . Dieser Faktor mr2 , also das Produkt aus der Masse und dem Quadrat des Abstandes zur Drehachse einer Masse m wird Trägheitsmoment I genannt. Einen beliebigen Körper kann man sich als eine Ansammlung vieler kleiner Massenelemente vorstellen, deren jeweiliges Trägheitsmoment zu einem Gesamtträgheitsmoment des Körpers addieren: I = m1 r21 + m2 r22 + ⋅ ⋅ ⋅ = ∑ m i r2i .

(7.2)

Statt mühsam die Trägheitsmomente diverser Formen und Volumen auszurechnen, wollen wir sie hier einfach für einige der häufigsten Formen in Tabelle 7.1 auflisten. Tab. 7.1: Trägheitsmomente diverser Körper. Beschreibung

Trägheitsmoment I

Eine Punktmasse im Abstand r um eine Drehachse Ein Vollzylinder, der um seine Symmetrieachse rotiert Eine massive Kugel, die um den Mittelpunkt rotiert Eine Kugelschale, die um den Mittelpunkt rotiert

I = m r2 I = 1⇑2m r 2 I = 2⇑5m r 2 I ≈ 2⇑3m r 2

7.2 Grundgesetz der Drehbewegung Aus dem Gesetz F = m ⋅ a lässt sich auch ein entsprechendes Gesetz für die Drehbewegung ableiten: M = I ⋅ β, mit dem Drehmoment M, dem Trägheitsmoment I und der Winkelbeschleunigung β. Es bietet sich an, die entscheidenden Größen der geradlinigen Bewegung und der Drehbewegung gegenüberzustellen. Tabelle 7.2 listet die entsprechenden Begriffe und Formeln auf. So wie der Impuls einer Bewegung ohne eingreifende Kräfte erhalten bleibt, ist auch der Drehimpuls eine Erhaltungsgröße. Der Drehimpuls setzt sich aus dem Produkt von Trägheitsmoment und WinkelgeschwinTab. 7.2: Vergleich entscheidender Größen für Translation und Rotation. geradlinige Bewegung

Drehbewegung

Weg s Geschwindigkeit v Beschleunigung a Masse m Kraft F = ma Kinetische Energie Ekin = 21 mv 2 Impuls p = mv

Winkel ϕ Winkelgeschwindigkeit ω Winkelbeschleunigung β Trägheitsmoment I Drehmoment M = Iβ Rotationsenergie Erot = 21 mω2 r 2 Drehimpuls L = Iω

166 | 7 Drehbewegungen digkeit zusammen. Wenn der Impuls p = mv konstant bleibt, bedeutet dies unweigerlich, dass die Geschwindigkeit konstant bleibt, da es einem Körper schwerfällt, seine Masse m zu ändern. Anders sieht es hingegen beim Drehimpuls aus. L = Iω bleibt konstant, aber die Massenverteilung kann sich durchaus ändern, ohne dass sie der Drehimpuls ändert. Statt dessen passt sich dann die Winkelgeschwindigkeit ω an. Wie mächtig die Drehimpulserhaltung ist, zeigt sich bei dem beliebten Beispiel der Eiskunstläuferin, die bei einer Pirouette ihre Massenverteilung bezüglich ihrer Drehachse ändert (kurz: ihre Arme anlegt), um eine höhere Drehgeschwindigkeit zu erreichen, da ihr Drehimpuls erhalten bleibt. Der Drehimpuls ist ebenso wie die Winkelgeschwindigkeit eine gerichtete Größe. Es bleibt also nicht nur das Produkt aus Trägheitsmoment und Winkelgeschwindigkeit erhalten, sondern ebenfalls dessen Ausrichtung. Dieser Umstand stabilisiert zum Beispiel die sich drehende Diskusscheibe, ein rollendes Fahrrad und sorgt auch für die Stabilität eines Kreisels. (Vgl. Band 2, Kap. III.4.3f.)

7.3 Gravitation In Kapitel 5.1 wurde herausgearbeitet, dass alle Körper ungeachtet ihrer Masse gleich schnell fallen. Daraus schließen wir eine zum Erdmittelpunkt gerichtete Radialkraft, die proportional zur Masse der Körper sein muss, um deren Trägheit zu kompensieren. Isaac Newton erkannte, dass nicht nur die Erde Dinge anzieht, sondern dass dies auch für sämtliche Massen, die sich im Weltall befinden, gelten müsse. Die Erdanziehungskraft wird zum lokalen Spezialfall einer viel fundamentaleren Gesetzmäßigkeit. Das von ihm aufgestellte Gravitationsgesetz lautet: F=G

m1 m2 . r2

(7.3)

Die Anziehungskraft F die zwischen zwei Körpern mit den Massen m1 und m2 herrscht, ist proportional zum Produkt ihrer Massen und umgekehrt proportional zum Quadrat ihrer Entfernung r zueinander. G = 6, 672 ⋅ 10−11 Nm2 kg−2 ist hierbei die sogenannte Gravitationskonstante, eine fundamentale Naturkonstante, die unabhängig von der Beschaffenheit der Körper ist und für alle Massen gilt. Der Wert der Gravitationskonstante macht deutlich, dass lediglich große Massen zu einer messbaren Anziehung führen. Für zwei Massen mit jeweils 1 kg in einem Abstand von 1 m beträgt die Anziehungskraft lediglich ∼ 7⋅10−11 N. Die Anziehungskraft der Erde auf diese Massen ist also etwa 1011 oder 1 000 000 000 000 mal stärker. Bereits mit dem Wissen aus den vorangegangenen Kapiteln können wir Newtons Gedankengang, der später zu seinem Gravitationsgesetz führte, nachvollziehen. Wir nehmen allerdings als gegeben an, dass der Mond die Erde in einem Abstand von etwa 60 Erdradien umkreist (im Mittel etwa 384 400 km).

7.3 Gravitation |

167

Die Entfernung des Mondes schwankt in etwa zwischen 407 000 und 356 000 Kilometern. Insbesondere in den Medien liest man häufig vom sogenannten Supermond bei größter Annäherung. Der scheinbare Größenunterschied zum Tag oder Woche davor ist nicht wahrnehmbar. Der Unterschied in der scheinbaren Größe zwischen den beiden Extremwerten entspricht etwa dem einer 1-Euro-Münze im Vergleich mit einer 2-Euro-Münze.

Newton nahm weiterhin eine Kreisbahn an und schlussfolgerte, dass für eine solche Kreisbahn eine Radialbeschleunigung von β = rω2 nötig sei. Mit einer Periode T = 2π⇑ω von 1 Monat berechnete er die Radialbeschleunigung zu β = 0, 0027 m/s2 . Welche Kraft konnte diese Beschleunigung hervorrufen? Das auf der Erdoberfläche gemessene Gewicht kam nicht in Frage, denn dann würde die Beschleunigung ja 9,81 m/s2 betragen. Newton bemerkte allerdings sofort, dass das Verhältnis beider Beschleunigungen g⇑β = 9, 81⇑0, 0027 ≈ 3630 betrug und somit dem Quadrat des Abstandes 602 = 3600 vom Erdmittelpunkt aus gemessen glich. Das war ein Grundstein auf dem Weg zu der Theorie, dass sich die Anziehungskraft umgekehrt proportional zum Quadrat des Abstandes verhält.

Abb. 7.3: Isaac Newton, Gemälde von Godfrey Kneller (1689).

Isaac Newton lebte von 1642 bis 1727 und bescherte der Menschheit gleich mehrere wegweisende Erkenntnisse und Entdeckungen auf diversen Gebieten. Allen voran die Mathematik und Physik. Newton

168 | 7 Drehbewegungen gilt als einer der bedeutendsten Wissenschaftler aller Zeiten. Zu seinen herausragendsten Leistungen gehört unter anderem die Erkenntnis, dass die Himmelskörper denselben Gesetzen der Mechanik und insbesondere der Gravitation unterliegen, wie sie auf der Erde gelten. Sein berühmtestes Werk „Philosophiae Naturalis Principia Mathematica“ (Die mathematischen Grundlagen der Naturphilosophie) prägte das naturwissenschaftliche Weltbild bis zum Zeitalter der Quantentheorie und Einsteins Relativitätstheorie.

Obgleich die Erde selbst mit ihrer Bahn um die Sonne oder allein die Tatsache, dass wir auf der Erde stehen können, die Gravitation eindrucksvoll belegt, fällt es leichter, sich verändernde Kräfte oder Zustände wahrzunehmen (der Mensch hat auch keinen Sinn für Geschwindigkeit, lediglich Beschleunigung nehmen wir wahr). Ein alltägliches Beispiel der Gravitation liefern die Gezeiten, wie wir sie z.B. an der Nordsee wahrnehmen können. Ebbe und Flut entstehen allerdings nicht allein dadurch, dass der Mond Anziehungskraft auf das Wasser ausübt, denn dann gäbe es Ebbe und Flut im 12-StundenWechsel. Küstenmenschen wissen aber, dass dieser Wechsel etwa alle 6 Stunden eintritt. Es gibt also zweimal Flut und zweimal Ebbe am Tag. Dieser zweite Effekt kommt dadurch zustande, dass der Mond nicht einfach um die Erde kreist, sondern beide Massen sich um ihren gemeinsamen Schwerpunkt drehen. Dieser liegt noch innerhalb der Erde und ist in Abbildung 7.4 eingezeichnet. Diese gemeinsame Rotation um den Schwerpunkt des Systems Erde-Mond mit einer Periode von ca. 27,3 Tagen erzeugt auf der Erde eine Zentrifugalkraft, die das Wasser der Meere nach außen drückt. Es entstehen somit zwei Flutberge auf der Erdkugel. Einer auf der dem Mond zugewandten Seite und einer auf der von ihm abgewandten Seite. Die Erde dreht sich selbst mit einer Periode von etwa 23 Stunden und 56 Minuten, so dass innerhalb eines Tages zwei Flutberge und zwei Ebben an einer Küste erlebt werden. Bei Neumond oder Vollmond verstärkt außerdem die Sonne diesen Effekt und man spricht von einer Springflut. Auf uns Menschen ist die Anziehungskraft des Mondes vernachlässigbar. Sie entspricht in etwa der Anziehung, die ein Einfamilienhaus in 10 m Entfernung auf uns ausübt. Das ist heutzutage messbar, aber nicht spürbar.

Erde

Mond

Maßstabsgerechter mittlerer Abstand zwischen Erde und Mond Gemeinsamer Schwerpunkt des Systems Erde-Mond

Abb. 7.4: Erde und Mond im maßstabsgerechten Abstand mit ihrem gemeinsamen Schwerpunkt.

7.4 Planetenbewegung |

169

7.4 Planetenbewegung Für Johannes Kepler gab es die Gravitationsgesetze noch nicht. Er beschäftige sich einen Großteil seines Lebens mit der Beobachtung und Darstellung der Planetenbewegungen und etablierte neben dem heliozentrischen Weltbild, welches zuvor schon Nikolaus Kopernikus postuliert wurde, auch die Gesetze der Planetenbewegungen. Kepler veröffentlichte seine Erkenntnisse im 1609 erschienenen Werk Astronomia Nova (Neue Astronomie). Die Gesetze der Planetenbewegungen stellte Kepler basierend auf Beobachtungen von Tycho Brahe auf. Brahe war ein ungemein aktiver Beobachter. Seine Bestimmungen erlangten noch vor der Erfindung des Teleskops eine Präzision, wie sie kaum vorstellbar ist. Durch Beobachtung der Sonne und einfache Peilung nach dem Visierprinzip über Kimme und Korn gelang ihm die Bestimmung der exakten Länge eines Jahres auf 365 Tage, 5 Stunden, 48 Minuten und 45 Sekunden, die von unserem heutigen Wert um weniger als eine Sekunde abweicht. Er gilt wie Kepler als einer der bedeutendsten Astronomen. Brahes Beobachtungen und Keplers Vertrauen in dessen Genauigkeit veranlassten Kepler dazu, von der Annahme der Kreisbahnen bei Planeten abzuweichen und mathematisch ungleich komplexere Ellipsenbahnen anzunehmen. Nur solche waren mit den Beobachtungen Brahes in Einklang zu bringen und führten zu den drei Kepler’schen Gesetzen: 1. Die Planeten bewegen sich auf Ellipsen, in deren einem Brennpunkt die Sonne steht. 2. Der von der Sonne zu einem Planeten zeigende Fahrstrahl überstreicht in gleichen Zeiten gleiche Flächen. 3. Die Quadrate der Umlaufzeiten zweier Planeten verhalten sich wie die Kuben der großen Achsen ihrer Bahnellipsen. Das zweite Kepler’sche Gesetz beschreibt de facto die geltende Drehimpulserhaltung. Wenn die Trägheit abnimmt (der Planet kommt der Sonne näher), steigt die Winkelgeschwindigkeit (Bahngeschwindigkeit), weil der Drehimpuls L = Iω erhalten bleibt (siehe Kapitel 7.2). Auch das dritte Kepler’sche Gesetz können wir auf das bisher Gelernte zurückführen. Das Gesetz basiert auf der Gleichheit von Gravitationskraft (siehe Formel 7.3) und Zentripetalkraft (siehe Formel 5.5), die auf einen Planeten wirken. Andernfalls wäre eine Planetenbahn nicht stabil. Setzt man also beide Kräfte gleich, ergibt sich durch Umformung die entsprechende Proportionalität. Für eine der beiden Massen wird hier die Sonnenmasse M⊙ angenommen, sie fällt aber weg, sobald man lediglich die Verhältnisse betrachtet:

170 | 7 Drehbewegungen

G

mM⊙ r2 1 r2 1 r3 1 r3 ⇒ r3

= mω2 r ∼ ω2 r ∼ ω2 , mit ω =

2π T

1 , mit T = Periode oder Umlaufzeit T2 ∼ T2 ∼

(7.4)

Die Entfernungen zur dritten Potenz verhalten sich also wie die Quadrate der Umlaufzeiten (Keplers 3. Gesetz).

8 Mechanische Schwingungen In Kapitel 7 haben wir die Rotation als eine Möglichkeit für einen periodischen Vorgang kennengelernt. In diesem Kapitel befassen wir uns mit mechanischen Schwingungen, die ebenfalls periodisch sind. Den einfachsten Fall einer Sinus-Schwingung können wir direkt an die Kreisbewegung anlehnen. Abbildung 8.1 zeigt den Zusammenhang zwischen Kreisbewegung und Sinusschwingung. Man kann sich eine Schei-

Auslenkung P Winkel Φ

Φ

Abb. 8.1: Zusammenhang zwischen Kreisbewegung und Sinusschwingung.

be vorstellen, an deren Rand z.B. ein Kurbelgriff befestigt ist (in der Abbildung Punkt P). Im Startzustand befindet sich der Griff ganz rechts. Die fortschreitende Drehung der Scheibe wird als ein Winkel ϕ zwischen Scheibenmitte und Kurbel in Relation zur Ausgangslage beschrieben. Die Höhe x der Kurbel relativ zum Startpunkt ergibt sich aus dem Sinus des Winkels ϕ mal dem Radius r der Scheibe: x = r ⋅ sin ϕ.

(8.1)

Bei gleichförmiger Drehgeschwindigkeit kann der aktuelle Winkel auch als Produkt aus Winkelgeschwindigkeit ω und Zeit t angegeben werden: ϕ = ω ⋅ t. Nach einer halben Drehung sinkt der Griff unter die Startposition und negative Werte der relativen Höhe ergeben sich. Eine gleichmäßige Kreisbewegung erzeugt in einer Dimension (zum Beispiel auch als Projektion) eine reine sinusförmige Schwingung. Die im Beispiel als Höhe über den Ursprung definierte Auslenkung nennen wir auch Elongation. Die maximal erreichbare Höhe, welche hier dem Radius der Kreisbewegung entspricht, bezeichnen wir als Amplitude. Üblicherweise gibt man die Dauer einer einzelnen Schwingung also Schwingungsperiode T = 2π⇑ω an. Der momentane Winkel wird dann als Phase ϕ bezeichnet. Die Phase beschreibt bei einer Schwingung also die aktuelle Lage eines schwingenden Körpers. Eine sinusartige Schwingung ohne Dämpfung ist eine harmonische Schwingung. Als einfaches Beispiel für eine direkte Auf- und Abbewegung dient uns ein Federpendel: Ein Massestück der Masse m hängt an einer Feder. Die Gewichtskraft der https://doi.org/10.1515/9783110496277-016

172 | 8 Mechanische Schwingungen Masse lenkt die Feder bereits ein wenig in der Ruhelage aus. Die Spannkraft der Feder kompensiert also die Gewichtskraft im Gleichgewicht. Dehnen wir die Feder um eine Länge x weiter aus, so erzeugt die Feder eine entgegengesetzte Kraft, die für hinreichend kleine Auslenkungen proportional zur Auslenkung selbst ist. Die Härte der Feder, also wie viel Kraft zur Ausdehnung aufgebracht werden muss, bezeichnen wir als die Federkonstante D. Für die Federkraft gilt: F = −D ⋅ x.

(8.2)

Das negative Vorzeichen gibt die Tatsache wieder, dass die erzeugte Federkraft der auslenkenden Kraft entgegen gerichtet ist. Wie beim Fadenpendel in Kapitel 5.4 speisen wir mit der Auslenkung potentielle Energie in das System. Lassen wir die gedehnte Feder los, wird diese potentielle Energie in kinetische umgewandelt und das Massestück schwingt zurück nach oben. Auf Grund der Trägheit der Masse m bewegt sie sich über die Gleichgewichtslage hinaus weiter nach oben und beginnt die Feder zusammenzudrücken. Dies geschieht solange, bis die zur Verfügung stehende kinetische Energie vollkommen für die Stauchung der Feder mit der entsprechenden Federkraft aufgebracht wurde. Die kinetische Energie wurde erneut in potentielle Energie umgewandelt. Unter Vernachlässigung von Reibung und Luftwiderstand fährt dieser Prozess ewig fort. Das Massestück schwingt harmonisch. Das in Gleichung 8.2 beschriebene Gesetz mit einer linearen Rückstellkraft führt zu harmonischen Schwingungen. Für die Auslenkung zum Zeitpunkt t gilt (siehe auch Gleichung 8.1): x = x0 ⋅ sin(ω ⋅ t).

(8.3)

x0 beschreibt die Auslenkung in Ruhelage. Bei einer harmonischen Schwingung lässt sich die Auslenkung über Gleichung 8.3 für alle Zeiten t bestimmen, da die SinusFunktion selbst periodisch ist. Es lässt sich sogar die genaue Dauer einer Schwingung ausrechnen. Die Periode einer Schwingung wird durch die Federkonstante D und die ⌈︂ Masse m des Schwingenden Körpers bestimmt: T = 2π ⋅ m D . Die Periode ist also unabhängig von der maximalen Elongation oder Amplitude einer Schwingung. Eine Sinusschwingung kann auch direkt aus der Kraftgleichung 8.2 abgeleitet werden. Für die Kraft F schreibt man m ⋅ a. Die Beschleunigung a entspricht der zweifa2 chen zeitlichen Ableitung des Ortes: F = m ⋅ a = ddt2x . Wir erhalten: m⋅

d2 x = −D ⋅ x. dt2

(8.4)

Zweifache Zeitintegration und Einsetzen führt zur Lösung x(t) = x0 sin(ωt+ϕ). Rückblickend erkennt man sofort: Leitet man die Sinusfunktion zweimal ab, ergibt sich ihr Negatives: sin′ = cos und cos′ = − sin (vgl. Kap. I.3.3.7), also genau die Eigenschaft, die Gleichung 8.4 fordert.

8.1 Wellen

| 173

8.1 Wellen In diesem Kapitel leiten wir das Verhalten und zentrale Eigenschaften von mechanischen Wellen aus einem System gekoppelter Federpendeln her. Zunächst betrachten wir zwei identische senkrechte Federschwinger, welche nebeneinander hängen. An beiden hängt eine Kugel der Masse m und beide Kugeln sind miteinander ebenfalls durch eine Feder verbunden. Die Kugeln befinden sich zunächst in Ruhe, also im Kräftegleichgewicht. Lenken wir eine davon nach unten aus, wird sie beginnen zu schwingen. Schon bei der ersten Auslenkung wird sie aber auch an der Nachbarkugel ziehen. Sie überträgt über die verbindende Feder einen Teil ihrer Energie an die Nachbarkugel, auf welche nun eine Kraft nach unten wirkt, so dass sie auf Grund ihrer Trägheit ein wenig später als die erste Kugel ebenfalls nach unten ausgelenkt wird. Verbinden wir weitere Kugeln auf diese Art und Weise, so wird unsere erzwungene Auslenkung nach und nach von einer Kugel auf die nächste übertragen. Dabei geben die schwingenden Kugeln einen Teil ihrer Energie an die Nachbarkugeln ab. Durch die Trägheit der Kugeln passiert das nicht instantan, sondern entsprechend der Masse der Kugeln und der Härte der Federn (Federkonstante). Lenken wir die erste Kugel einmalig aus, so wird sie rasch ihre Energie weitergegeben haben und in den Ruhezustand zurückkehren. Nur wenn wir die erste Kugel periodisch mit von außen angreifender Kraft auslenken bzw. zum Schwingen anregen, um Verluste zu kompensieren, wird diese Schwingung auch fortlaufend weitergegeben und das ganze System von Federpendeln schwingt periodisch. Jede Kugel schwingt für sich harmonisch und mit leichter zeitlicher Verzögerung zur vorangegangenen Kugel. Abbildung 8.2 zeigt Momentaufnahmen der ersten vollständigen Schwingung. Beginnen wir am linken Ende der Kette, so breitet sich eine Welle mit Wellenbergen und Wellentälern nach rechts aus. Alle Kugeln schwingen harmonisch, aber zeitlich ein wenig versetzt, sie haben unterschiedliche Phasen (vergleiche Kapitel 8). Mit unserem etwas akademisch anmutenden Beispiel vieler verketteter Kugeln beschreiben wir letzten Endes die Schwingungseigenschaften eines Seils, das wir mit Auf- und Abbewegungen an einem Ende Wellen schlagen lassen, welche sich entlang des Seiles ausbreiten. Das Seil bzw. die zuvor als Kugeln gedachten Seilstücke schwingen dabei alle senkrecht zur Ausbreitungsrichtung der Welle selbst. Diese Art der Welle heißt Transversalwelle. Entlang der Welle findet ein Energieaustausch, aber kein Transport von Materie statt. Wir bleiben beim Bild einer kontinuierlichen Welle und verlassen die Vorstellung separater Massenstücke. Den Abstand zwischen je zwei Wellenbergen bezeichnet man als Wellenlänge λ (Lambda). Zwei Punkte einer Welle mit diesem Abstand haben die gleiche Phase ϕ. Das heißt zu allen Zeiten haben sie die gleiche Auslenkung. Innerhalb dieses Abstandes λ wurde also exakt eine ganze Schwingung ausgeführt. Die zeitliche Dauer einer Schwingung entspricht ihrer Periode T. Damit definiert sich auch die

Schwingungsrichtung

174 | 8 Mechanische Schwingungen

Ausbreitungsrichtung der Welle

Abb. 8.2: Entstehung einer Transversalwelle.

Ausbreitungsgeschwindigkeit c einer transversalen Welle: c=

λ . T

(8.5)

Gleichung 8.5 gilt ganz generell für jede Form von Welle. Man spricht auch von der Phasengeschwindigkeit, da sich der Zustand einer Schwingung, der durch die Phase beschrieben wird, mit dieser Geschwindigkeit ausbreitet. Generell gibt es bei Transversalwellen eine Schwingungsebene senkrecht zur Ausbreitungsgeschwindigkeit, in der die Welle schwingt. Diese wird auch als Polarisationsebene bezeichnet. Die Polarisation einer Welle ist eine spannende Eigenschaft, auf die wir in Kapitel 12.4.4 noch einmal eingehen werden. Aber bereits am Beispiel des schwingenden Seils kann man sich einige der Konsequenzen von Polarisation veranschaulichen. Führt man ein Seil beispielsweise durch ein Gitterost, welches aus eng stehenden senkrechten Gitterstäben besteht, so kann man sich leicht vorstellen, dass das auf eine ebenfalls senkrecht schwingende Welle im Seil keinen Einfluss hat. Versucht man jedoch das Seil quer zu den Gitterstäben schwingen zu lassen, so wird die Welle das Gitter nicht passieren können, und das Seil dahinter bleibt in Ruhe. Schwingt man das Seil aber zum Beispiel in einem 45○ Winkel zu den Gitterstäben, so kann ein Teil der Welle mit geringerer Amplitude passieren. Das Gitter ist für die Komponente, die parallel zur Gitterstruktur steht, durchlässig.

Neben Transversalwellen gibt es auch Longitudinalwellen. Diese schwingen in Ausbreitungsrichtung. Eine solche Welle kann sich im Prinzip auch in einem Seil ausbilden, aber hier ist es zweckmäßig, sich wieder an unsere Kette aus an Federn hän-

8.2 Interferenz | 175

genden Kugeln zu erinnern. Alle Kugeln waren zudem über Federn seitlich miteinander verbunden. Stößt man nun eine Kugel seitlich an, so gibt sie diesen Impuls an ihre Nachbarkugel weiter, welche etwas verzögert nun ihrerseits die nächste Kugel anstößt. Mit direktem Kontakt der Kugeln statt des Umweges über Federn passiert dies beim Newtonpendel oder auch Kugelstoßpendel, welches man als Dekoration auf dem ein oder anderen Schreibtisch findet. Der anfangs eingebrachte Impuls bleibt erhalten und wird sehr effektiv vollständig an die jeweils nächste Kugel weitergegeben, bis es keinen nächsten Nachbarn mehr gibt. Die letzte Kugel bleibt also sprichwörtlich auf ihrem Impuls sitzen und lenkt mit dieser Energie das Pendel aus, d.h. sie wandelt die Energie in potentielle Energie um, bis sie schließlich zurück schwingt und das Spiel von vorne beginnt. Möglichst massive Kugeln und feine Fäden sorgen dafür, dass das Verhältnis von Impuls zu Reibungsverlusten möglichst groß ist, so dass man das Schauspiel eine kleine Weile lang verfolgen kann, bevor die Energie größtenteils in Wärme und Luftbewegung umgewandelt ist. Im genannten Beispiel sind es Kugeln die aneinanderstoßen, generell sind es Atome und Moleküle, die eine Longitudinalwelle weiterreichen. Eine Polarisationsebene gibt es hier nicht. Ein weiteres klassisches Beispiel für Longitudinalwellen sind Flüssigkeiten in einem Rohr. Das Rohr selbst begrenzt die Möglichkeit der transversalen Ausbreitung. Lediglich entlang der Röhre selbst kann sich eine Longitudinalwelle ausbreiten. Dichte und Druck beschreiben hier die Welle statt der Auslenkung bei den Transversalwellen. Statt von Wellenberg und Wellental sprechen wir von Druckmaximum und Druckminimum. Wir können uns eine solche Longitudinalwelle auch in einer mit Luft gefüllten Röhre vorstellen. Erzeugen wir an einem Ende einen Überdruck, so pflanzt sich dieser als Druckwelle entlang der Röhre fort. Auch wenn wir periodisch einen Unterund Überdruck weitergeben, wandern diese als Longitudinalwelle entlang der Röhre. Eine geeignete Apparatur zur Erzeugung von zeitlich variablem Druck in Luft ist eine Membran, welche Luft entweder in eine Richtung zusammenstaucht oder ihr mehr Raum gibt und somit den Druck erniedrigt (Luft kann nicht mechanisch gezogen werden). Dem Leser dürfte aufgefallen sein, dass dies die exakte Funktionsweise von Lautsprechern ist. Und tatsächlich ist Schall eine Longitudinalwelle in der Luft. Wir gehen auf Schallwellen und Akustik noch genauer in Kapitel 8.3 ein.

8.2 Interferenz Wellen können sich auch überlagern. Dies wird besonders deutlich am Beispiel der longitudinalen Schallwellen. Schwingt die Membran eines Lautsprechers beispielsweise mit einer Frequenz von 440 Schwingungen pro Sekunde oder auch 440 Hertz (Hz), ergibt sich ein reiner Sinuston (in diesem Fall der Standardkammerton a′ ). Wird die Membran aber zusätzlich mit einer oder mehreren anderen Frequenzen angeregt, so addieren sich diese Schwingungen mit ihrer jeweiligen Amplitude auf. Wie

176 | 8 Mechanische Schwingungen wir im Kapitel 8.3 sehen werden, erzeugt gerade diese Überlagerung verschiedenster Frequenzen als Modulation der Hauptschwingung den charakteristischen Klang beispielsweise einer Geige. In Abbildung 8.3 wurde das Wellenbild einer Geige (in Abbildung ganz unten) per Fourieranalyse (vgl. Kap. I.3.3.6) in 20 Einzelschwingungen, die Summe dieser 20 Komponenten und die Summe von 150 Komponenten (von oben nach unten) dargestellt.

Zerlegung in 20 Einzelschwingungen

Summe aus 20 Einzelschwingungen Summe aus 150 Einzelschwingungen originale Wellenform

Abb. 8.3: Sich überlagernde Frequenzen in der Wellenform einer Geige. Oben sind 20 einzelne Sinusschwingungen dargestellt. Zusammenaddiert ergibt sich das erste der drei unteren Wellenbilder. Das mittlere Wellenbild wurde aus 150 Einzelschwingungen addiert. Unten schließlich die vollständige aufgenommene Wellenform einer Geige.

Aber auch die Transversalwellen auf einer Wasseroberfläche überlagern sich. Treffen zwei Wellenberge aufeinander, so addieren sie sich auf, ebenso wie sich Wellenberg und Wellental kurzzeitig gegenseitig kompensieren, wenn sie bei gleicher Amplitude auf einander treffen. Bei Flüssigkeiten oder Gasen treten Transversalwellen lediglich an der Oberfläche auf. Die notwendige Rückstellkraft liefert hier die Erdanziehung oder, vor allem auf kleinen Skalen, die Oberflächenspannung.

Ein besonderes Phänomen tritt auf, wenn sich zwei Wellen gleicher Frequenz überlagern. Bei gleicher Phase erhöht sich lediglich die resultierende Gesamtamplitude. Dies gilt für Transversalwellen ebenso wie für Longitudinalwellen. Besteht zwischen den sich überlagernden Wellen gleicher Frequenz allerdings eine Phasendifferenz, so tritt Interferenz auf. Oft wird diese Phasendifferenz auch als Gangunterschied bezeich-

8.2 Interferenz | 177

net. Man stelle sich zum Beispiel zwei Lautsprecher in einem Abstand ∆s voneinander vor. Beide regen die Luft mit der gleichen Frequenz an. Ein Beobachter bzw. nun ein Hörer, der sich auf einer Linie mit den beiden Lautsprechern befindet, empfängt den Ton des hinteren Lautsprechers mit einem Gangunterschied von ∆s. Die beiden Wellen interferieren. Beträgt der Gangunterschied gerade ein ganzes Vielfaches n einer halben Welle 2λ , also ∆s = n ⋅ 2λ so treffen Welle und Tal bzw. Tal und Welle aufeinander. Man spricht von destruktiver Interferenz oder auch Interferenzauslöschung. Bei gleicher Amplitude und einem solchen Gangunterschied gleichen sich die Luftdrücke aus. Der Beobachter hört dann gar keinen Ton. Das Prinzip der Interferenzauslöschung findet explizite Anwendung bei den sogenannten „noise cancelling“-Kopfhörern. Diese Kopfhörer nehmen Umgebungsgeräusche von außen auf und streben die Erzeugung eines Signals an, das dem des störenden Schalls mit entgegengesetzter Polarität exakt entspricht. Man spricht auch von Anti-Schall oder aktiver Lärmkompensation (Englisch: ANC, für „Active Noise Cancellation“). Der Ton von außen interferiert mit dem vom Kopfhörer zusätzlich erzeugtem Gegensignal und wird so im Idealfall vollkommen kompensiert. Naturgemäß funktioniert dies bei tiefen Tönen mit größerer Wellenlänge einfacher und damit besser.

8.2.1 Stehende Wellen Eine Welle wird als stehende Welle bezeichnet, wenn sich die Lage der sogenannten Knotenpunkte zwischen Welle und Tal nicht bewegt, sondern fest im Raum steht. Wellenberg und Wellental wechseln sich ab. Ein einfaches Beispiel einer stehenden Welle ist ein an beiden Enden eingespanntes Seil oder eine Gitarrensaite. Generell ergeben sich stehende Wellen, wenn sich Wellen gleicher Amplitude und Frequenz entgegenlaufend überlagern. Auf einer an beiden Seiten eingespannten Saite können sich stehende Wellen nur in bestimmten Frequenzen ausbilden. Man kann sich vor Augen führen, dass eine Welle mehrfach auf der Saite hin- und herläuft. Die Welle wird an den Enden jeweils reflektiert. Dabei überlagert sie sich permanent selbst. Nur wenn alle Wellen dabei in gleicher Phase sind, löschen sie sich nicht über kurz oder lang aus, sondern addieren sich auf und bleiben stabil. Man spricht von konstruktiver Interferenz. Folglich müssen an beiden Enden Wellenknoten liegen, zwischen denen ein ganzes Vielfaches der halben Wellenlänge passt. Dieses Phänomen gilt sowohl für Transversalwellen als auch für Longitudinalwellen. Eine Gitarrenseite besitzt eine Grundschwingung, wenn man sie anregt. Sie ist die Schwingung mit der niedrigsten Frequenz. Bei der Grundschwingung ist die Länge der Saite gleich die halbe Wellenlänge. Bildlich schwingt also ein „Wellenbauch“ auf der gesamten Saite. Deren Frequenz ergibt sich zu: f=

c c = , λ 2⋅l

(8.6)

178 | 8 Mechanische Schwingungen wobei f die Frequenz in Hz ist, und c der Ausbreitungsgeschwindigkeit der Welle auf der Seite mit der Länge l entspricht. Die sogenannten Oberschwingungen sind dann jeweils ein ganzes Vielfaches dieser Frequenz f aus Gleichung 8.6. Bei der Gitarre erzeugt man auf einer Saite unterschiedliche Töne, indem man deren Länge durch Fingergriffe verkürzt. Die unterschiedlichen Saiten selbst haben eine unterschiedliche Zugspannung und teilweise auch unterschiedliche Materialstärken, so dass sich dadurch die Ausbreitungsgeschwindigkeit c, mit der sich die Welle fortpflanzt, und somit auch die Frequenz bei gleicher Wellenlänge ändert.

8.3 Akustik In der Akustik spielen Schallwellen eine zentrale Rolle. Zunächst werden einige Begriffe eingeführt, die spezifisch für Schallwellen sind, bevor wir uns dann einigen Beispielen widmen. Wir hatten Schallwellen bereits in Kapitel 8.1 als Longitudinalwellen kennengelernt, sie sich in Ausbreitungsrichtung über den Druck fortpflanzen. Wie bei jeder Wellenform erfolgt ein Energietransport und keine Materietransport. Der Energietransport erfolgt in Ausbreitungsrichtung innerhalb einer bestimmten Zeit durch eine bestimmte Fläche. Energie pro Zeit entspricht einer Leistung P (vergleiche Kapitel 5.3). Diese Leistung wird pro Fläche A erbracht und es ergibt sich für die Schallstärke E in den Einheiten Watt pro Quadratmeter (W/m2 ): E=

P . A

(8.7)

Breitet sich eine Welle in alle Richtungen im Raum aus, spricht man auch von einer Kugelwelle, die mit dem Radius r die Fläche A = 4πr2 besitzt. Die Schallstärke nimmt dann mit dem Quadrat des Abstandes zur Quelle der Leistung ab. Analog zum Fadenpendel kann man auch die Schwingung der Luft beschreiben. Die sich periodisch ändernde Größe ist der Druck relativ zum momentanen Wert des Luftdrucks. Diese Differenz wird in der Regel als ∆p bezeichnet. Die Gleichung 8.3 lautet für eine Schallwelle: ∆p = ∆p0 ⋅ sin 2(π ⋅ f ⋅ t). (8.8) f ist die Frequenz der Schwingung und ∆p0 die maximale Druckamplitude. Sie trägt die SI-Einheit N/m2 (Kraft pro Fläche), besser bekannt als mbar (millibar). Vergleich man zwei Schallstärken miteinander, gibt man deren Verhältnis im Zehner-logarithmischen Maßstab an. Dies entspricht dem menschlichem Hörempfinden. Die entsprechende Einheit lautet Dezibel und wird als dB abgekürzt. 1 dB ist keine „Lautstärkenangabe“, sondern beschreibt lediglich das Verhältnis zweier Schallstärken.

8.3 Akustik

| 179

Tab. 8.1: Einige Geräuschquellen und deren dB Werte. dB Wert Beschreibung 0 10 20 25 35 40 45 50 60 65 70 85 90 100 110 120 130 140 170 190

Hörschwelle Blätterrauschen, ruhiges Atmen leises Flüstern Grenzwert für gewerblichen Lärm in der Nacht Obergrenze für Nachtgeräusche in Wohngebieten leise Unterhaltung Obergrenze für Taggeräusche in Wohngebieten normale Unterhaltung, Zimmerlautstärke laute Unterhaltung, Stressgrenze erhöhtes Risiko für Herz-Kreislauf-Erkrankungen Haushalts- und Bürolärm Gehörschutz im Gewerbe vorgeschrieben, jahrelang ausgesetzt treten Hörschäden auf Autohupen, LKW-Fahrgeräusche, Schnarchen Motorrad, Kreissäge, Discomusik Rockkonzert Flugzeug in geringer Entfernung, Hörschäden schon nach kurzer Einwirkung möglich Schmerzschwelle, Düsenflugzeug in geringer Entfernung Gewehrschuss, Raketenstart, EU-Grenzwert zum Schutz vor Hörschäden Ohrfeige direkt aufs Ohr innere Verletzungen, Hautverbrennungen, tödlich

Die eigentliche Einheit lautet Bel, benannte nach Alexander Graham Bell. Das Dezibel (dB) ist der zehnte Teil eines Bel (B). Genauso, wie ein Dezimeter der zehnte Teil eines Meters ist. Da 1 Bel bereits ein Schallstärkenverhältnis von 10 impliziert, wird fast ausschließlich das Dezibel verwendet.

Die Angabe 3 dB bedeutet also, dass das Verhältnis von einer Schallstärke E1 zu einer weiteren Schallstärke E2 etwa 2 beträgt. Das ergibt sich daraus, dass der Logarithmus von 2 etwa 13 lautet: log10 (2) = 0, 301. Der Nullpunkt der Dezibel-Skala, also 0 dB, ist über die Hörschwelle definiert. Ein Geräusch der Lautstärke 0 dB kann gerade noch wahrgenommen werden. Die logarithmische Skala lehnt sich an unser Hörempfinden an. Unterschiede bei leisen Geräuschen können ungleich besser wahrgenommen werden als bei bereits sehr hohen Lautstärken. Das subjektive Empfinden von lauter oder leiser ist hingegen nicht logarithmisch. 100 dB werden nicht als doppelt so laut empfunden wie 50 dB. Grundsätzlich sagt man, dass eine Zunahme von 10 dB etwa einer gefühlten Verdopplung der empfundenen Lautstärke entspricht. Dementsprechend wären bereits 60 dB gefühlt doppelt so laut wie 50 dB. Tabelle 8.1 listet einige Geräuschquellen, deren typische dB-Werte und außerdem einige Werte zur Wirkung dieser Lautstärken auf den Menschen sowie einige festgelegte Grenzwerte auf.

180 | 8 Mechanische Schwingungen 8.3.1 Hören Der Bereich der vom Gehör wahrnehmbaren Frequenzen liegt etwa zwischen 15 Hz und 20 kHz. Das entspricht etwa 10 Oktaven. Bei höheren Frequenzen jenseits einiger 10 kHz sprechen wir von Ultraschall, den beispielsweise Hunde (bis etwa 50 kHz) oder Fledermäuse (bis etwa 200 kHz) noch wahrnehmen können. Rekordhalter ist nach aktuellem Wissensstand die Wachsmotte, die auch Töne einer Frequenz von 300 kHz noch wahrnimmt und somit den Fressfeind Fledermaus im wahrsten Sinne kommen hört. Die Angabe von 20 kHz beim Menschen ist bereits optimistisch. Sie sinkt deutlich mit zunehmenden Alter auf Höchstwerte zwischen 5 und 13 kHz. Ultraschall findet zudem in der Medizin Anwendung. Er ermöglicht es, gefahrlos Untersuchungen des Inneren des menschlichen Körpers durchzuführen. Ultraschallimpulse werden an verschiedenen Gewebeschichten (Knochen, Muskeln, Organe) unterschiedlich reflektiert. Der Ultraschallsender wird zum Beispiel auf den Bauch einer schwangeren Frau gehalten und dient zeitgleich als Empfänger der reflektierten Schallwellen. Ein Computer errechnet dann aus den unterschiedlichen Laufzeiten der reflektierten Impulse ein Bild vom Inneren des Körpers. Mit einer solchen Ultraschalldiagnose kann z. B. ein Embryo im Mutterleib sichtbar gemacht werden. Bei diesen niedrigen Schallstärken treten keine Schäden auf. Bei der Ultraschalltherapie hingegen wird Schall verwendet, um Nierensteine zu zerstören oder Knochen zu schweißen.

Frequenzen unterhalb der menschlichen Wahrnehmung bezeichnen wir als Infraschall. Bei entsprechender Schallstärke nehmen wir diese Frequenzen durchaus noch wahr, aber dann eher in der Magengegend und weniger mit dem Gehör. Elefanten sind zum Beispiel in der Lage, Töne unterhalb der menschlichen Wahrnehmungsgrenze zu erzeugen. Berühmt für tiefe Töne sind auch die Wale. Dabei sind Wallaute sehr laut. Die gewaltige Stimme eines Blauwals besitzt eine Schallenergie, die der eines startenden Space-Shuttles nahekommt. Die Frequenzen von Erdbebenwellen liegen im Bereich zwischen 0,1 Hz und 30 Hz und sind somit teilweise als tiefes Brummen auch akkustisch wahrnehmbar. Die menschliche Hörempfindlichkeit hängt deutlich von der jeweiligen Frequenz ab. Bei etwa 2 kHz hat der Mensch das empfindlichste Hören und es reicht bereits ein Millionstel der Schallstärke aus, die wir bei 50 Hz benötigen, um noch etwas zu hören.

8.3.2 Klänge Für die Medientechnik relevant ist die Differenzierung verschiedener Klänge. Als Klang werden die Eigenschaften eines Tones, die über die Frequenz und Amplitude hinausgehen, bezeichnet. Gebräuchlich ist auch der Ausdruck des Klangbildes oder der Klangfarbe, um auf das breite Spektrum der Töne hinzuweisen. Einen reinen Sinuston empfinden wir als künstlich, da er so in der Natur praktisch nicht vorkommt. Die

8.3 Akustik

| 181

Beimischung diverser Oberschwingungen beeinflusst die Klangfarbe. Setzt sich ein Schall aus mehreren Tönen zusammen, spricht man auch von einem Akkord. Dieser erscheint uns wohlklingend, wenn die Grundfrequenzen sich wie kleine ganze Zahlen verhalten. Beispielsweise 3 zu 2 für eine Quinte oder 5 zu 4 für die Terz. Überlagern sich viele Frequenzen ohne scheinbaren Zusammenhang, empfinden wir das in der Regel als Rauschen. Viele frühe Heimcomputer oder Spielekonsolen versuchen, das Spektrum an Klangfarben durch möglichst wenige und einfache Wellenformen abzubilden. Ein Rauschgenerator ist fast immer vorhanden. Er erzeugt pseudozufällige Amplituden, die je nach Frequenz einen Motor, Schuss oder Zischen imitieren sollen. Oft beschränkte man sich im Übrigen auf einen Sinustongenerator, eine Dreiecksform oder Rechteckwellenform. Findigen Musikern und Programmierern gelang es im Laufe der Jahre mit diesen Grundwellenformen durch rasche Wechsel oder raffinierte Kombinationen erstaunlich komplexe und teilweise realitätsnahe Klänge zu entwickeln.

8.3.3 Wellenausbreitung Bei Schall handelt es sich mechanische Wellen, d.h. die Ausbreitung findet in einem Medium statt. Schall breitet sich in Gasen, Flüssigkeiten, aber auch Festkörpern aus. Klopft man an eine Tür, so versetzt man zunächst die Tür selbst in Schwingungen, welche dann die Luft entsprechend anregt. Der Klang des Klopfens wird daher maßgeblich durch die Schwingeigenschaften der Tür beeinflusst. Die Ausbreitungsgeschwindigkeit von Wellen wird durch das schwingende Medium bestimmt. Sie hängt von der Dichte ρ und der Kompressibilität K, also wie sehr ⌉︂ sich der Stoff zusammendrücken lässt ab. Für die Schallgeschwindigkeit c gilt: c = Kρ . Bei normaler Raumtemperatur gilt für die Schallgeschwindigkeit in Luft c ≈ 340 m/s. Tabelle 8.2 gibt die Schallgeschwindigkeiten in verschiedenen Medien an. Tabelle 8.2 kann man auch entnehmen, wieso das berüchtigte kurzweilige Einatmen von Helium zur einer deutlich erhöhten Tab. 8.2: Schallgeschwindigkeiten in verschiedenen Medien Medium Kohlendioxid Luft Helium Wasser Eis Kupfer Aluminium Diamant

Schallgeschwindigkeit bei 20 ○ C in m/s 270 340 980 1 480 3 200 3 900 6 000 18 000

182 | 8 Mechanische Schwingungen Stimme führt: Die Frequenz einer Schwingung mit bestimmter Wellenlänge hängt direkt von der Schallgeschwindigkeit im Medium ab (siehe Gleichung 8.6).

8.3.4 Doppler-Effekt Bewegen sich Schallquelle und Empfänger relativ zueinander, so tritt der DopplerEffekt auf. Ruht der Empfänger und lediglich die Schallquelle bewegt sich auf den Empfänger zu oder von ihm weg, so gilt für die empfangene Frequenz f ′ in Abhängigkeit der ausgesandten Frequenz f und der Geschwindigkeit der Quelle v relativ zur Schallgeschwindigkeit c: f f′ = (8.9) 1 ± vc Das Minuszeichen gilt bei Annäherung, das Pluszeichen wenn sich die Schallquelle entfernt. Dieser Effekt ist beispielsweise bei einem vorbeifahrenden Martinshorn deutlich auszumachen. Bewegt sich die Quelle auf uns zu und erzeugt Dichtewellen in der Luft, so bewegt sich die Quelle einem Dichtemaximum der Welle – einem Wellenberg – hinterher, so dass das zweite Dichtemaximum näher am vorausgegangenen Maximum erzeugt wird. Bei gleichbleibender Geschwindigkeit setzt sich dies so fort. Effektiv verringert sich der Abstand von Maximum zur Maximum und somit die Wellenlänge. Die empfangene Frequenz des Schalls erhöht sich. Im umgekehrten Fall, wenn sich die Quelle von uns entfernt, streckt sich die Welle aus, der Schall erreicht uns mit einer niedrigeren Frequenz und erscheint tiefer. Bewegt sich die Quelle hingegen mit der Schallgeschwindigkeit selbst, so treffen folgende Maxima aufeinander und verstärken sich zunehmend bis hin zur sprichwörtlichen Schallmauer. Wenn ein beschleunigendes sehr schnelles Flugzeug kurzzeitig diese Schallgeschwindigkeit von etwa 1200 km/s erreicht, überlagern sich die Schallwellen vom Flugzeugtriebwerk gerade so, dass jeder neue Wellenberg auf den vorherigen fällt und es kommt zu dem bekannten Knall. Der Doppler-Effekt ist auch beobachtbar, wenn die Quelle ruht und sich stattdessen der Empfänger bewegt. Da Schallwellen aber in einem Medium schwingen, ist der Effekt zwischen diesen beiden Bewegungen nicht ganz identisch. Allgemein lässt sich der Frequenzunterschied bei den Geschwindigkeiten vEmpfaenger und vSender wie folgt beschreiben: f′ = f ⋅ (

c ± vEmpfaenger ). c ± vSender

(8.10)

Bewegen sich Empfänger und Sender gleich, tritt der Effekt nicht auf, auch dann nicht, wenn sich das Medium selbst bewegt wie beispielsweise bei Wind.

8.3 Akustik

| 183

8.3.5 Reflexion und Brechung Treffen Schallwellen auf eine Wand, so werden sie zum Teil von ihr absorbiert, während ein Großteil der Welle von der Wand reflektiert wird. Holz reflektiert typischerweise etwa 90 % der auftreffenden Leistung, bei einer glatten Betonwand sind es sogar bis zu 95 %. In einem geschlossenen Raum erreicht also nicht nur die direkte Welle von der Quelle unser Ohr, sondern auch die Reflexionen der umgebenden Wände. Je nach Raumgröße kann dies als sehr störend empfunden werden. Moderne Telefone versuchen, dieses Echo zu detektieren und herauszufiltern. Ein handelsübliches Telefon weiß daher auch, in welchen Abständen wie viele Wände um den Telefonierenden herumstehen. Weniger technisch geht es beispielsweise in großen Kirchensälen zu: Der oder die Pastorin bemüht sich, harte Laute, deren Echo stören würde, zu vermeiden. Dabei entsteht die bekannte halb gesprochene, halb gesungene Sprache. Berühmt ist der Nachhall natürlich in einer Berglandschaft. Dort ist der Nachhall als Echo teilweise noch nach Sekunden zu hören. Je nach Weglänge ist dieser Nachhall entsprechend schwächer, wenn er uns erreicht. Zum einen breitet sich Schall kugelförmig aus und die Leistung nimmt daher quadratisch mit der Entfernung ab (vergleiche Kapitel 8.3), zum anderen entzieht auch die Reibung der bewegten Luftteilchen der Welle ihre Energie. Dieser Effekt ist besonders groß an porösen oder stark verklüfteten Oberflächen. Die Energie der Luftteilchen in den Zwischenräumen an dieser Oberfläche wird durch Reibung besonders schnell aufgebraucht bzw. umgewandelt. Filz- oder schwammartige Strukturen „schlucken“ den Hall also entsprechend. Man kennt dies von den Schallräumen in Tonstudios, deren Wände mit vielen Kegeln aus Schaumstoff ausgekleidet sind. Sie sollen den Schall absorbieren und seitlich in weitere Kegel reflektieren, bis der Schall sich schließlich gänzlich abschwächt und möglichst nur die Stimme des Sängers auf direktem Wege zum Mikrofon gelangt. Der Verlust der Schallleistung nimmt auch durch die sogenannte Absorption ab. Bei Schallwellen ergibt sich diese aus der Reibung einzelner Luftteilchen. Diese Absorption ist proportional zu e(−α⋅Abstand ). α ist der Absorptionskoeffizient, in den die Frequenz f quadratisch eingeht. Das bedeutet, dass hohe Frequenzen sehr viel stärker gedämpft werden als niedrige, und erklärt, dass sich das Donnergrollen aus großer Entfernung sehr viel tiefer anhört als das Krachen bei einem nahem Einschlag. Ebenso dringt vor allem der Bass lauter Musik über größere Distanzen zu uns.

8.3.6 Beugung Beugung ist ein bedeutendes Phänomen, welches uns auch bei Lichtwellen erneut begegnen wird. Ein bekanntes Experiment dazu ist das Spaltexperiment, das auch mit Wellen einer Wasseroberfläche durchgeführt werden kann.

184 | 8 Mechanische Schwingungen Trifft eine parallele Wellenfront auf eine große Lücke in einer Blockade, so wird ein Teil der Welle an der Blockade reflektiert, während sich der Teil, der auf die Lücke trifft, ungestört fortbewegt. Die Richtung der Welle bleibt auch hinter der Lücke noch die selbe der ursprünglichen Wellenfront. Verengt man nun diese Lücke mehr und mehr zu einem schmalen Spalt, so beginnt sich die Welle hinter dem Spalt auch seitlich auszubreiten. Die Welle „beugt“ sich an der Spaltkante und man spricht tatsächlich von dem Phänomen der Beugung. Ist der Spalt klein im Vergleich zur Wellenlänge, entsteht im Spalt praktisch eine neue Kreiswelle und der gesamte Bereich hinter dem Spalt wird von der neuen Welle erreicht. Abbildung 8.4 stellt alle drei Fälle dar. Diese Beobachtung lässt sich zum Huygens’schen Prinzip (nach Christiaan Huygens) verallgemeinern: Jeder von einer Welle erregte Punkt wird selbst zum Ausgangspunkt einer neuen Kreis- oder Elementarwelle. Das ergibt sich bereits aus der Überlegung, dass jedes an der Ausgangswelle beteiligte Teilchen selbst schwingt und somit sämtliche Nachbarteilchen wie in unserem Beispiel mit den verketteten Federpendeln zum Schwingen anregt. Diese Betrachtungsweise erklärt sofort das Verhalten einer Welle

Ausbreitungsrichtung der Wellen

Abb. 8.4: Beugung von Wasserwellen an einem Spalt (nach https://phet.colorado.edu/de/simulation/wave-interference).

an einem schmalen Spalt, aber wie kommt es zu der stattdessen gradlinigen Weiterbewegung der Wellenfront an einem hinreichend großen Spalt? Es hilft, sich einen Punkt P hinter der Blockade anzusehen, der bei einem großen Spalt nicht von der durchkommenden Welle getroffen wird, wohl aber bei einem Spalt, der sehr schmal ist. Was unterscheidet diese beiden Konfigurationen für diesen Punkt? Die zuvor besprochene Interferenz von Wellen gleicher Wellenlänge, aber unterschiedlicher Phase ist der Schlüsselbegriff hier. Jede Stelle entlang des breiten Spalts erzeugt nach dem Huygens’schen Prinzip eine neue Elementarwelle, welche sich radial ausbreitet. Dabei hat jede Stelle entlang des breiten Spalts eine unterschiedliche Entfernung zu unserem gedachten Punkt P. Daher besitzt auch jede ein-

8.3 Akustik

| 185

treffende Welle einen anderen Gangunterschied. Von 0 bis 2π ist alles dabei, so dass sich all diese Wellen im Mittel auslöschen. Welle und Tal überlagern sich destruktiv, wenn man beliebige Phasenunterschiede aufaddiert. Je schmaler der Spalt wird, desto geringer fällt der maximale Gangunterschied zwischen beiden Spaltenden aus. Bei einem Spalt, der schmaler ist als die Wellenlänge, gibt es keinen Punkt mehr, von dem aus die Elementarwellen einen solchen Gangunterschied besitzen, dass sie sich gegenseitig auslöschen. Das Phänomen der Beugung tritt an Spalten, aber auch bei Hindernissen auf. Die Beugung wird merklich, sowie die Hindernisse so klein sind, dass ihre Abmessungen von der Größenordnung der Wellenlänge werden. Bei typischen Schallwellenlängen im Dezimeter-Bereich wird Schall also um Ecken und Säulen im Raum herum gebeugt. Gegenstände, die kleiner sind als mehrere Zentimeter, erzeugen gar keinen „Schallschatten“, um sie beugt sich der Schall vollständig. Ein weiterer Grund, weshalb die Fledermaus von so hohen Frequenzen Gebrauch macht. Tiefe Töne würden von einem dünnen Zaun oder einem Insekt gar nicht effektiv reflektiert werden.

9 Elektrizität Das Verständnis elektrischer Erscheinungen wuchs historisch zögerlich und über diverse einzelne Entdeckungen, die nur allmählich miteinander in Zusammenhang gebracht wurden. Auch ist die Elektrizität ein Bereich, in dem das Experiment dem Modell und der Theorie lange Zeit vorauseilte. In diesem Kapitel folgen wir nicht der chronologischen Entdeckungshistorie, sondern versuchen stattdessen ein konsistentes Gesamtmodell zu beschreiben, welches wir gegebenenfalls um Details verfeinern. Das Kapitel „Elektronik“ in Band 4 der Reihe „Medientechnisches Wissen“ wird einige Eigenschaften und Phänomene eingehender beschreiben. Hier gehen wir lediglich auf die wesentlichen Bestandteile ein, um schließlich die Brücke zu den elektromagnetischen Wellen zu schlagen. Eine gelungene Analogie⁶ für ein erstes Verständnis zum Wirken und Verhalten von elektrischer Spannung und Strom ist der Wasserkreislauf. Um zu verstehen, was sich hinter den Begriffen Spannung, Stromstärke und Leistung verbirgt, stellen wir uns den Stromkreis im Wassermodell vor. Statt eines Stromkreises nehmen wir also einen Wasserstromkreis. Zwei Wasserbehälter ersetzen unsere Batterie. Einer ist randvoll gefüllt, der andere enthält nur sehr wenig Wasser. Der gefüllte Wasserbehälter entspricht dem Minuspol der Batterie, der andere entspricht dem Pluspol. Statt eines Stromkabels verbindet ein Schlauch in unserem Wassermodell die beiden Pole. Ein einfaches Sperrventil entspricht dem Schalter im Stromkreis. Ein elektrischer Verbraucher, wie etwa eine Glühlampe, wird im Wassermodell durch ein Wasserrad dargestellt. Tabelle 9.1 listet einige Kenngrößen in der Elektrizität und im Wassermodell auf. Tab. 9.1: Begriffe im Stromkreis und der Wasseranalogie. Stromkreis

Wasserstromkreis

Leiter Batterie Spannung Stromstärke Schalter Glühlampe

Wasserleitung Wasserbehälter Wasserdruck Wasserstromstärke Sperrventil Wasserrad

6 Bei jeder Analogie gilt zu beachten, dass sie herbeigezogen wird, um wenige oder gar nur einen einzelnen Sachverhalt zu erläutern. Aus einer Analogiebetrachtung lassen sich in der Regel keine weiteren Eigenschaften ableiten oder gar extrapolieren. Da dies immer wieder zu Fehlannahmen führt, weist der Autor an dieser Stelle vehement auf die Grenzen einer solchen Betrachtung hin. https://doi.org/10.1515/9783110496277-017

9 Elektrizität

| 187

Betrachtet man zunächst nur den Wasserkreislauf ohne das Wasserrad, so repräsentieren die unterschiedlichen Füllstände der beiden Wasserbehälter den Minusund Pluspol der Batterie, welche wir mit einem Schlauch verbinden. Das Wasser läuft vom vollen in den leeren Behälter. Anfangs recht zügig, gegen Ende fließt es dann deutlich langsamer. Das Verhalten einer Batterie ist ganz ähnlich. Durch die hohe Spannung bei voller Batterie erfahren die Ladungsträger (Elektronen) einen starken Antrieb. Die Elektronen, welche vom Minuspol zum Pluspol fließen⁷, haben richtig Schwung. Ist die Batterie fast entladen, haben die Elektronen einen deutlich geringeren Antrieb. Wir ergänzen nun das Wasserrad in unseren Wasserkreis. Es verhält sich wie erwartet. Zunächst dreht es sich schnell, da der Wasserdruck noch recht groß ist. Haben sich die Füllstände der beiden Behälter fast angeglichen, dreht es sich nur noch langsam. Der Wasserdruck hat deutlich nachgelassen. Bei gleichem Füllstand fließt gar kein Wasser mehr und das Wasserrad bleibt stehen. Möchte man, dass sich das Wasserrad insgesamt schneller dreht, so muss man den Wasserdruck erhöhen. Analog glüht eine klassische Glühlampe heller bei höherer Spannung, weil nur dann auch mehr Strom pro Zeit fließen kann. Die elektrische Stromstärke entspricht der Wasserstromstärke. Sie gibt also an, wie viele Wasserteilchen in einer bestimmten Zeit durch das Wasserrad fließen. In einem elektrischen Stromkreis mit einer Batterie und einer Glühlampe läuft es ganz ähnlich ab. Je mehr Ladungsträger pro Zeitabschnitt durch die Glühwendel der Glühlampe wandern, desto höher ist die Stromstärke. Je höher die Stromstärke ist, desto heller leuchtet die Glühlampe. Die Leistung der Glühlampe ist also umso höher, je höher die Stromstärke ist. Wir stellen uns dabei vor, dass dabei eine Elektrizitätsmenge, wir sprechen von elektrischer Ladung Q, während der Zeitspanne t durch einen Leiterquerschnitt transportiert wird. Für die elektrische Stromstärke I gilt: Q . (9.1) t Während sich die Ladung Q nicht unmittelbar bestimmen lässt, kann die Stromstärke direkt mittels eines Amperemeters gemessen werden. Stromstärke wird in der SIEinheit Ampere (A) gemessen. Fließt ein Strom I, transportiert er also die Ladung Q. Entsprechend Gleichung 9.1 gilt: Q = I ⋅ t. Die Einheit für Ladung ist Ampere mal Sekunden (As), oder auch Coulomb (C). Da sowohl Spannung als auch Stromstärke nicht unmittelbar durch unsere Sinne wahrnehmbar sind, listet Tabelle 9.2 einige typische Werte aus unserer Umwelt auf. Die elektrische Spannung U definiert sich über einen elektrischen Widerstand R und die bekannte Stromstärke I als Ohm’sches Gesetz (nach Georg Simon Ohm): I=

U = R ⋅ I. 7 Die technische Stromflussrichtung ist umgekehrt (vgl. Kapitel 9.3.2).

(9.2)

188 | 9 Elektrizität Tab. 9.2: Typische Werte für Spannungen und Stromstärken im Alltag. Spannungen EKG-Messungen normale Alkalibatterie Autobatterie Stromnetz Steckdose Überlandleitung Blitz zwischen Erde und Wolken

Stromstärken 0,6 mV 1,5 V 12 V 230 V 15–380 kV 10 MV

1 Elektron pro Sekunde Kopfhörer Leuchtdiode alte Glühlampe Haushaltsgeräte Zitteraal Straßenbahn Blitz

1,6 ⋅10−19 A 1 mA 20 mA 500 mA 0,1–10 A 1A 100 A 10–100 kA

Der elektrische Widerstand R bezeichnet den für einen Leiter charakteristischen Quoden Enden eines Leiters . R wird auch als Ohm’scher Widerstand betienten Spannung zwischen Strom im Leiter zeichnet. Je größer dieser Widerstand R ist, desto größer muss die angelegte Spannung U sein, wenn man die gleiche Stromstärke I erreichen möchte. Die Einheit des Widerstandes ergibt sich aus Gleichung 9.2 zu Volt pro Ampere ( VA ), welche auch Ohm (Ω) genannt wird. Bei gleichem Material (ρ) bestimmen Querschnitt A und Länge l eines Leiters dessen Widerstand: ρ⋅l . (9.3) R= A ρ ist eine Materialkonstante, die in Ohm mal Meter (Ω⋅m) angegeben wird. Kupfer (vgl. Kap. III.4.5.1) ist ein hervorragender Leiter mit ρ = 0, 018 ⋅ 10−6 Ωm und wird unter anderem deswegen häufig für Stromkabel verwendet.

9.1 Das elektrische Feld Legt man eine Spannung an zwei parallele Metallplatten an, so entsteht auf einer der Platten eine positive Ladung +Q und auf der anderen Platte eine negative Ladung −Q. Ein einfacher Versuch bestätigt diese Annahme zweier unterschiedlicher Ladungen: Hält man eine Metallkugel an einem isolierten Glasstab zwischen die geladenen Platten und berührt damit zunächst die eine und dann die andere Seite, so nehmen Ladung und Spannung zwischen den Platten ab. Es wurden also negative Ladungen auf die eine und positive Ladungen auf die andere Seite befördert. Dadurch wurde die Ladung auf den Platten jeweils kompensiert. Zwei wie im gedachten Versuchsaufbau angeordnete, voneinander isolierte Platten nennt man Kondensator. Ein Kondensator ist in der Lage, elektrische Ladungen zu speichern. Bei der im Experiment durchgeführten Entladung der Platten mittels Ladungstransport über die Metallkugel vereinigen sich die zuvor in den Platten getrennt vorhandenen Ladungen wieder. An den Metallplatten selbst ist kein Unterschied zwischen geladenem oder ungeladenem Zustand

9.1 Das elektrische Feld | 189

sichtbar. Bereits diese einfache Beobachtung legt nahe, dass Materie aus elektrisch geladenen Teilchen mit Ladungen unterschiedlicher Vorzeichen besteht. Insgesamt sind diese Teilchen oder Atome elektrisch neutral und enthalten gleichviel positive wie negative Ladungen. Zwischen den geladenen Kondensatorplatten entsteht ein elektrisches Feld. Der Begriff des Feldes ist für uns neu. Die bereits eingeführte Gravitation kann ebenfalls als ein Feld verstanden werden, aber es gibt kein konkretes mechanisches Gegenstück. Das elektrische Feld braucht kein Medium und existiert auch im Vakuum. Das Feld ist aber sehr wohl an seinen Eigenschaften messbar. Stellen wir uns einen geladenen Kondensator vor. Außerdem laden wir eine kleine Kugel mit positiver Ladung auf und hängen sie an einem nicht leitenden Faden zwischen die Kondensatorplatten. Abbildung 9.1 stellt den Versuchsaufbau dar. Wir stellen fest, dass das positiv gelade-

Φ

F +QK

E

Abb. 9.1: Messung der Feldstärke zwischen zwei Kondensatorplatten.

ne Kügelchen in eine Richtung ausgelenkt wird. Die Auslenkung um den Winkel ϕ wird von einer Kraft F verursacht. Die Richtung der Kraft hängt von der Ladung (positiv, negativ) des Kondensators ab und ist außerdem proportional zur Ladung Q K der Kugel. Es ergibt sich als Formel für die elektrische Feldstärke E: E=

F . QK

(9.4)

Ein Feld und dessen Feldstärke E stellt man häufig über sogenannte Feldlinien dar. Deren Dichte steigt bei steigender Feldstärke. Zwischen den Kondensatorplatten verlaufen die Feldlinien parallel und äquidistant zueinander, das elektrische Feld ist weitestgehend homogen. Die Dichte der elektrischen Feldlinien in Bezug auf eine Fläche wird als elektrische Flussdichte D bezeichnet. Ihre Einheit lautet Coulomb pro Quadrat-

190 | 9 Elektrizität meter (C/m2 ). Die Begriffe dielektrische Verschiebung, Verschiebungsdichte oder Verschiebungsflussdichte meinen alle die elektrische Flussdichte D. Entsprechend der Definition der elektrischen Feldstärke in Gleichung 9.4 sind positive Ladungen die Quelle des elektrischen Flusses, negative Ladungen die Senke. Der elektrische Fluss Ψ, der durch eine beliebige Fläche A hindurchtritt, ist gleich dem Flächenintegral der elektrischen Flussdichte D. Was bedeutet das? Man stelle sich eine Ladung Q vor. Um die Ladung herum bastelt man eine geschlossene Kugelschale. Die Ladung Q erzeugt ein elektrisches Feld. Die Feldlinien führen durch die Kugeloberfläche. Der elektrische Fluss durchdringt bildlich die Kugeloberfläche. Summiert man die gesamte elektrische Flussdichte D über diese Fläche A, so erhält man die von dieser Fläche eingeschlossene elektrische Ladung Q. Mathematisch ist das eine wunderbare Anwendung eines Oberflächenintegrals: ⃗ ⋅ dA ⃗ = Q. ∮ D

(9.5)

A

Die elektrische Flussdichte D = ϵ0 ⋅E hat im Vakuum stets die Richtung der elektrischen Feldstärke E. Die elektrische Feldkonstante ϵ0 (auch Dielektrizitätskonstante) gibt also das Verhältnis der elektrischen Flussdichte zur elektrischen Feldstärke im Vakuum an. Der Plattenkondensator ist ein besonders einfaches Beispiel: Für den Plattenkondensator gilt D = Q⇑A. Das heißt, die gesamte Ladung Q auf der gesamten Fläche A der Kondensatorplatte ergibt die Flussdichte D. Experimentell lässt sich zeigen, dass für einen Kondensator Ladung Q und Spannung U stets proportional sind. Es gilt also: Q = C ⋅ U.

(9.6)

C wird als Kapazität des Kondensators bezeichnet und gibt das Verhältnis von Ladung Q zu Spannung U an. Die Einheit beträgt folglich As/V. Die SI-Einheit dafür lautet Farad (F). 1 Farad stellt allerdings schon eine außergewöhnlich hohe Kapazität dar. In der Praxis werden daher Mikro-Farad (1 μF = 10−6 F) oder gar Pico-Farad (1 pF = 10−12 F) verwendet.

9.2 Ladungen An dieser Stelle setzen wir uns mit der Natur der Ladungsträger auseinander und beginnen bei unserer Betrachtung mit dem Atom. Jedes Atom besitzt einen Atomkern. Der Atomkern enthält fast die gesamte Masse des Atoms und ist positiv geladen. Dieser Kern ist von einer Hülle von Elektronen umgeben (der Begriff „Hülle“ gilt hier bereits 1 der ab einem Elektron). Die Masse eines Elektrons ist sehr gering und beträgt nur 1836

9.3 Elektronenleitung | 191

Masse des Kerns eines Wasserstoffatoms. Ein Elektron trägt stets eine negative Elementarladung. Eine Elementarladung beträgt: e = 1, 6022 ⋅ 10−16 C (Coulomb).

(9.7)

Bei einem von außen neutralen Atom ist der Betrag der positiven Kernladung gleich der Ladung aller äußeren Elektronen. Verliert ein Atom oder Molekül ein Elektron, so ist es einfach positiv geladen. Trägt es ein zusätzliches Elektron, so ist es negativ geladen. Ein geladenes Atome wird auch als Ion bezeichnet. Das Wasserstoffatom H besteht lediglich aus einem Proton und einem Elektron. Das Wasserstoff-Ion H+ ist das kleinste Ion und besteht lediglich aus einem Proton. Es trägt eine positive Elementarladung. Auf das Atommodell gehen wir in Kapitel 14 ein wenig ausführlicher ein.

9.3 Elektronenleitung Wenn für t Sekunden ein gleichbleibender Strom der Stärke I fließt, so ist die Elektrizitätsmenge Q = I ⋅ t übergegangen. Diese Elektrizitätsmenge oder auch Ladung Q wurde also auf Grund der herrschenden Spannung U übertragen. Die an der Ladung Q geleistete Arbeit W beträgt somit: W = Q ⋅ U = U ⋅ I ⋅ t.

(9.8)

Für die Stromleistung P, also die Stromarbeit pro Sekunde, gilt dann: P = U ⋅ I.

(9.9)

Die Stromarbeit U ⋅ I ⋅ t kann in verschiedenste Energieformen umgewandelt werden, wie beispielsweise zum Antrieb eines Motors (mechanische Energie), dem Laden einer Batterie (chemische Energie) oder in kinetische Energie der Ladungsträger (Kathodenstrahl). Elektrische und mechanische Arbeit (vergleiche Kapitel 5.2) werden in derselben Einheit gemessen. Die Einheiten für Stromstärke Ampere (A) und Spannung Volt (V) sind so gewählt, das gilt: VAs = Ws = J = Nm. (9.10) Statt Wattsekunde (Ws) wird auch häufig die größere Einheit Kilowattstunde (kWh) verwendet: 1 kWh = 1000⋅60⋅60 Ws = 3, 6⋅106 Ws. Kilowattstunde ist auch die Einheit, die auf der Stromrechnung auftaucht, wenn beziffert wird, wie viel Strom „verbraucht“ wurde. Mit 1 kWh kann man in etwa:

9.3.1 Ladungstransport in Flüssigkeiten Elektrizitätsleistung beruht stets auf der Wanderung von Ladungsträgern im elektrischen Feld. Elektrische Leiter enthalten frei bewegliche Ladungen, können insgesamt

192 | 9 Elektrizität

1 15 17 4 10 10 1 70 7

Maschinenladung Wäsche waschen Hemden bügeln Stunden Licht einer Glühlampe (60 Watt) erzeugen Tage Licht mit einer gleich hellen Energiesparlampe erzeugen Stunden TV schauen (LED, 107 cm) Stunden einen Desktop-PC benutzen Mittagessen für vier Personen auf dem Elektroherd kochen Tassen Kaffee kochen Stunden lang ein durchschnittliches Notebook betreiben

Abb. 9.2: Historisches Volt- und Amperemeter zur Messung von Spannung und Stromstärke.

aber elektrisch neutral sein. In nichtmetallischen, leitenden Flüssigkeiten sind Ionen, also geladene Atome und Moleküle⁸, die Ladungsträger. Wir betrachten nun eine Röhre der Länge l, welche mit einem Elektrolyt gefüllt ist. Als Elektrolyt bezeichnet man eine Substanz, die durch entgegengesetzt geladene, bewegliche Ionen elektrisch leitfähig ist. Zum Beispiel eine wässrige Kochsalzlösung. In unserer Röhre seien nun also N positive und N negative Ionen der Ladung e. Der Querschnitt der Röhre sei A. Legen wir nun mit der Spannung U ein elektrisches Feld E = U⇑l an die Röhre an, so wandern zwei Kolonnen von Ionen gegeneinander langsam auf die beiden Enden der Röhre, an der die Spannung anliegt, zu. Dies geschieht mit einer bestimmten Geschwindigkeit, die wir v+ nennen wollen für die positiven Ionen und entsprechend v− für die negativ geladenen Ionen.

8 Fließt ein elektrischer Strom durch unseren Körper, so werden ebenfalls Ionen bewegt. Dadurch werden Nerven gereizt und können schließlich auch dauerhaft beschädigt werden. Die Empfindlichkeit des Körpers auf Strom hängt nicht allein von der Stromstärke ab, sondern auch erheblich davon, wie rasch dieser Strom ansteigt und wie lange er anhält. Generell hängt der Einfluss von Strom auf den menschlichen Körper nicht von der Spannung, sondern von der Stromstärke ab, welche wiederum vom Widerstand bestimmt wird. Bereits 100 V können Schäden hervorrufen, wenn der Hautwiderstand an der Kontaktstelle durch Feuchtigkeit oder Schweiß entsprechend gering ist.

9.3 Elektronenleitung | 193

Innerhalb von einer Sekunde wandern nun durch den Querschnitt A die positiven Ionen, welche sich zu Beginn der Sekunde innerhalb des Bereichs v+ ⋅1 s vor dem gedachten Querschnitt befunden haben. Sie leisten einen Beitrag zur Gesamtstromstärke. Der Strom der positiven Ionen innerhalb einer Sekunde beträgt: I+ = N ⋅ e ⋅ A ⋅ v+ .

(9.11)

Da sowohl positive als auch negative Ionen Ladung transportieren, ergibt sich für den Gesamtstrom: I = I+ ∗ I− = N ⋅ e ⋅ A ⋅ v+ + N ⋅ e ⋅ A ⋅ v− . I = N ⋅ e ⋅ A ⋅ (v+ + v− )

(9.12) (9.13)

Gleichung 9.13 gilt ganz allgemein für jeden elektrischen Strom. Die Wandergeschwindigkeit der Ionen ist ebenso wie die der Elektronen in einem Metall überraschend klein. Sie ist von Ion zu Ion verschieden, beträgt aber für ein H+ -Ion in Wasser und bei Zimmertemperatur mit einer Feldstärke von 1 kV/m nur etwa 0,3 mm/s. Erhöht man die Temperatur des Elektrolyts, so nimmt in der Regel die Reibung der Ionen in der „zähen“ Flüssigkeit ab, so dass dessen Leitfähigkeit steigt.

9.3.2 Ladungstransport in Metallen Im Gegensatz zum Ladungstransport in einer Flüssigkeit, in der irgendwann alle Ionen physikalisch getrennt sind, kann ein elektrischer Strom beliebig lange durch einen Metalldraht fließen. Offenbar ist der Ladungstransport also nicht unmittelbar mit einem großen Materietransport verbunden. Es sind also nicht Atome, die sich durch die Leiterbahnen bewegen, sondern Elektronen. Ein leitendes Metall kann man sich als ein regelmäßiges Gitterkonstrukt aus positiven Ionen vorstellen, in dem sich ein Teil der Elektronen völlig frei beweglich aufhält. Man spricht dann auch von einem Elektronengas. Liegt ein elektrisches Feld an, so erhalten diese freien Elektronen eine zusätzliche Geschwindigkeit in Richtung des Pluspols. Die physikalische Geschwindigkeit der Elektronen ist ebenfalls sehr gering und liegt bei etwa 0,5 mm/s. Dass die klassische Glühlampe quasi gleichzeitig mit dem Umlegen des Schalters beginnt zu leuchten, liegt daran, dass der Stromfluss an allen Stellen sofort einsetzt. Das elektrische Feld entsteht mit nahezu Lichtgeschwindigkeit und die Elektronen werden praktisch gleichzeitig in (die langsame) Bewegung versetzt. In metallischen Leitern bewegt sich also lediglich die negative Ladung vom negativen zum positiven Pol der Spannung⁹. Die Stromrichtung wird dennoch üblicherweise so angegeben, dass man die Richtung vom positiven zum negativen Pol meint. 9 Eine typische Geschwindigkeit eines Elektrons durch einen Kupferleiter liegt bei etwa 1/2 mm pro Sekunde.

194 | 9 Elektrizität Oft wird dies durch den Begriff „technische Stromrichtung“ gesondert herausgestellt (vergleiche Kapitel 10.1). Die „Rechte-Hand-Regel“ für die Lorentz-Kraft wird zur Regel für die linke Hand, wenn der Daumen in die Richtung negativer Ladungsträger, also Elektronen, zeigt. Erhöht man die Temperatur eines metallischen Leiters, so steigt dessen Ohm’scher Widerstand und die Leitfähigkeit nimmt ab. Senkt man hingegen die Temperatur, wird der Widerstand der Metalle immer geringer. Bei einigen Stoffen verschwindet der Widerstand unter einer charakteristischen Grenztemperatur gänzlich. Diese Erscheinung nennt man Supraleitung. Zum Beispiel liegt diese Temperatur für Blei bei etwa 7,2 K (Kelvin), was -266 ○ Celsius entspricht. Nur mit Hilfe von gekühlten Supraleitern lassen sich die stärksten Magnetfelder von mehreren Tesla über Spulen erzeugen. Die erforderlichen Stromstärken in den Spulen würden ansonsten wegen des Ohm’schen Widerstands der Spulenwicklungen zu große Wärmemengen und damit einen zu großen Energieverlust mit sich bringen.

9.3.3 Halbleiter Halbleiter gleichen im Aufbau wie auch die metallischen Leiter einer Gitteranordnung. Bei einer solchen regelmäßigen Anordnung spricht man auch von Kristallgittern. Bei einem Leiter geben die Metallatome aber bereits von Anfang an Leitungselektronen ab, die das sogenannte Elektronengas bilden. Im Halbleiter liegen keine freien Elektronen vor. Es bedarf einer spezifischen Mindestenergie, um die Außenelektronen (auch Valenzelektronen genannt) beweglich werden zu lassen. Daher nimmt die Leitfähigkeit von Halbleitern unter Temperaturzufuhr und somit Energiezufuhr auch drastisch zu. Es hilft, den Leitungsmechanismus bei Halbleitern genauer zu betrachten und aufzuteilen in negative sowie positive Ladungen. Die negativen Leitungselektronen bewegen sich zur Anode (dem Pluspol). Man spricht von n-Leitung. Die Ladungs„Löcher“, die gelöste Elektronen in ihren Ionen hinterlassen, verhalten sich wie positive Ladungen. Sie bewegen sich auf die Kathode (Minuspol) zu. Man nennt dies p-Leitung. Diese „Löcher“ sind also die Zustände von Valenzelektronen im Kristallgitter, die frei geworden sind, als sie von einem Elektron, das eine höhere Energie bekommen hat, verlassen wurden. In einem reinen Halbleiter werden Leitungselektronen und Löcher stets als Paar gebildet und sind somit in gleicher Zahl vorhanden. Die wichtigsten Halbleiterkristalle sind Germanium und Silizium der 4. Hauptgruppe des periodischen Systems der Elemente. Die Hauptgruppe gibt an, wie viele Elektronen sich auf der äußersten Schale eines Atoms befinden. Beide Kristalle weisen also vier Valenzelektronen auf (siehe auch Kapitel 14). Man spricht von einem voll besetzen Valenzband, wenn keines der Elektronen frei ist und zur Leitung beiträgt. Das Leitungsband ist dann leer. In diesem

9.3 Elektronenleitung | 195

Zustand ist ein Halbleiter also ein Isolator. Erst mit zugeführter Energie lassen sich Elektronen von dem Valenzband in das Leitungsband bringen. Um nun einen Halbleiter zu erzeugen, werden künstlich Fremdatome in das Kristallgitter gesetzt. Dadurch vermehrt man eine der beiden Sorten der Ladungsträger. Man spricht dabei von Dotierung. Setzt man ein Element der 5. Gruppe ein, also ein Atom mit fünf Außenelektronen, so wird ein Elektron davon unmittelbar an das Leitungsband abgegeben (es handelt sich bei dem fremden Atom um einen sogenannten Donor). Das Material wird zu einem n-Leiter mit einem Überschuss negativer Ladungen. Häufig werden Phosphor, Arsen oder Antimon als Donor eingesetzt. Analog dazu kann man auch mit Elementen der 3. Gruppe dotieren. Ein solches bindet ein Valenzelektron des Halbleiterkristalls an sich, so dass im Kristallgitter ein Ladungsloch entsteht. Es handelt sich bei dem fremden Element um einen Akzeptor und man spricht von einer p-Dotierung, da nun eine positive Ladung (ein ElektronLoch) entstanden ist. Für die p-Dotierung kommen beispielsweise Bor, Indium, Aluminium oder Gallium in Frage. Tatsächlich lassen sich alternativ zum Dotierungsprozess auch Kristalle aufbauen, welche bereits Elemente der 3. und 5. Gruppe im Periodensystem enthalten. Mit der entsprechenden Anordnung oder Dotierung lassen sich in einem Halbleiterkristall auch mehrere dünne p-leitende und n-leitenden Bereiche übereinander herstellen, die dann in den sogenannten pn-Übergängen aneinandergrenzen. Eine Halbleiterdiode enthält beispielsweise ein p- und ein n-leitendes Gebiet. Leitungselektronen befinden sich vor allem im n-Leiter. Liegt nun am p-Leiter der positive Pol einer Spannung an, so können die Leitungselektronen durch die Grenzfläche zwischen n- und p-Leiter fließen. Die positiv geladenen Löcher wandern dann ebenfalls durch diese Grenzfläche (auch Sperrschicht genannt), jedoch in entgegengesetzter Richtung. Der Halbleiter wird zum Leiter. Positive und negative Ladungen fließen einander entgegen. Liegt eine umgekehrte Spannung an, so fließt kein Strom. Die Spannung vergrößert die Sperrschicht lediglich durch weitere Verarmung, da positive und negative Ladungen sich weiter trennen. Der Halbleiter ist ein Grundbaustein der Transistoren (vgl. Band 1, Kap. I.6.1.2). Leuchtdioden Eine Lichtdiode (LED von „light-emitting diode“) ist ein solcher einfacher Halbleiter, der bei elektrischem Strom in Durchlassrichtung zusätzlich Licht abstrahlt. Wenn eine Spannung in Durchlassrichtung anliegt, wandern Elektronen von der n-dotierten Seite zum p-n-Übergang. Nach Durchquerung der Grenzschicht zur p-dotierten Seite „fällt“ das Elektron dann in das energetisch günstigere Valenzband. Dieser Übergang wird Rekombination genannt. Ein Ion rekombiniert mit einem Elektron oder ein Elektron im Leitungsband vereint sich mit einem Loch. Dabei wird Energie frei, welche dann als Licht abgegeben wird.

196 | 9 Elektrizität

Bei der Herstellung von LEDs ist also eine präzise Beschaffenheit des Materials des Halbleiters erforderlich. Die Erfinder der blauen Leuchtdiode, Isamu Akasaki, Hiroshi Amano und Shuji Nakamura, erhielten 2014 gar den Nobelpreis für Physik für ihren Durchbruch. Energieeffiziente, langlebige weiße LEDs waren ohne blaues Licht jahrzehntelang nicht möglich gewesen.

10 Magnetismus Es gibt in der freien Natur vorkommende Magnete wie das Magneteisen Fe3 O4 , welches die Fähigkeit besitzt, kleine Eisenstücke anzuziehen und festzuhalten. Diese Eigenschaft bezeichnen wir als magnetisch. Wendet man einen Stabmagneten in Eisenspänen, so bleiben diese besonders, teilweise sogar aufrecht stehend, an dessen Enden hängen. Man nennt diese Stellen mit besonders ausgeprägter Kraftwirkung auch Pole. Jeder Magnet besitzt jeweils einen magnetischen Nordpol und einen magnetischen Südpol. Das Gebiet um einen Magneten herum, in dem wir diese magnetischen Kräfte beobachten, bezeichnen wir als magnetisches Feld. Dieses Feld kann ebenso wie das elektrische Feld auch im Vakuum existieren und benötigt kein Medium. Das Thema Magnetismus wurde in Band 1 (dort Kap. II.5.3) im Zusammenhang mit magnetischen Speichern behandelt. Das magnetische Feld stellt man sich mit Hilfe von Magnetfeldlinien vor, welche die beiden Pole verbinden. In dem bekannten Experiment mit dem frei liegenden Stabmagneten, um den man feine Eisenteilchen streut, ordnen sich diese entlang der Magnetfeldlinien an. Magnetfeldlinien sind nie offen, sondern stets geschlossen und durchlaufen den Nord- und den Südpol eines Magneten. Auch die Erde besitzt ein Magnetfeld. Die ebenfalls magnetische Kompassnadel richtet sich nach diesem Erdmagnetfeld aus. Die magnetischen Pole sind dabei nicht exakt deckungsgleich mit den geografischen Polen der Erde. Insbesondere liegt der magnetische Südpol in der Nähe des geografischen Nordpols der Erdkugel. Die Bezeichnung als „Arktischer Magnetpol“ und „Antarktischer Magnetpol“ liegt nahe, wird aber nicht sonderlich häufig gebraucht. Hinzu kommt, dass die Erde im Laufe ihrer Geschichte bereits mehrfach die Polarität ihres Magnetfeldes gewechselt hat. Im Durchschnitt kommt es alle 200 000 bis 300 000 Jahre zu einem solchen Polsprung. Das wissen wir unter anderem aus der Analyse von Lavagestein. Lava enthält kleine magnetische Teilchen, die sich wie Kompassnadeln verhalten. Solange die Lava flüssig ist, können sie sich nach dem Erdfeld ausrichten. Kühlt sie jedoch ab, verlieren die Teilchen ihre Beweglichkeit und die Feldrichtung wird eingefroren. Der letzte Polsprung ist allerdings nun schon etwa 780 000 Jahre her. Der nächste Wechsel wäre somit überfällig. Eine solche Magnetfeldumkehr erstreckt sich allerdings über mehrere tausend Jahre – genug Zeit für die Tierwelt, die sich nach dem Erdmagnetfeld richtet, um sich darauf einzustellen.

10.1 Magnetfelder durch Ströme Magnetfelder werden auch durch elektrische Ströme verursacht. Allgemeiner kann man sagen: Bewegte Ladungen erzeugen Magnetfelder. Ein gradliniger stromdurchflossener Leiter erzeugt dabei ein zylinderförmiges Magnetfeld um den Leiter herum. Es kann auch hier die Rechte-Hand-Regel verwendet werden, die wir aus dem Kapitel 7.1 kennen: Zeigt der Daumen entlang der technischen Stromrichtung (vom positiven zum negativen Spannungspol), so deuten die um den Leiter gekrümmten Finger in Richtung des Nordpols der Magnetfeldlinien. https://doi.org/10.1515/9783110496277-018

198 | 10 Magnetismus Windet man den Leiter selbst zu seinem Kreis, so treten alle magnetischen Feldlinien aus der Kreisfläche heraus, umlaufen den Leiter im Außenbereich und führen schließlich auf der anderen Seite erneut durch den Leiterkreis. Eine klassische gewickelte Spule kann man sich als Aneinanderreihung vieler solcher Kreisleiter denken. Innerhalb der Spule überlagern sich die Feldlinien jeder einzelnen Windung und verstärken so das Magnetfeld im Inneren. Die Feldlinien innerhalb der stromdurchflossenen Spule verlaufen dann nahezu parallel zueinander (siehe Abbildung 10.1). Außer-

Abb. 10.1: Verlauf von Feldlinien im Inneren und der Umgebung der Spule.

halb der Spule verhält sich das Magnetfeld dann wie bei einem Stabmagneten. Folgerichtig bezeichnet man die Spulenenden dann ebenfalls als (magnetische) Pole. Die magnetische Feldstärke H innerhalb einer solchen Spule lässt sich direkt in Abhängigkeit der Stromstärke I, welche durch n Windungen der Spule mit der Gesamtlänge l, angeben: n H=I⋅ . (10.1) l Folglich hat die magnetische Feldstärke H die Einheit Ampere pro Meter (A/m). Da jeder Stabmagnet durch eine entsprechend konfigurierte Spule ersetzbar ist, liegt der Gedanke nahe, einen Stabmagneten ebenfalls auf Magnetfelder bewegter Ladungen zurückzuführen. Tatsächlich kann man sich vorstellen, dass jedes Eisenatom einen Elementarmagneten darstellt. Grob betrachtet führen die Bewegungen der Elektronen innerhalb des Atoms zu einer Art atomaren Kreisstrom, welcher das atomare Magnetfeld hervorruft. In einem unmagnetischen Stab aus Eisen sind diese Elementarmagnete ungeordnet und haben keine gemeinsame Vorzugsrichtung. Befindet sich der Stab aber in einem Magnetfeld, so richten sich auch die atomaren Elementarmagnete aus und der Stab selbst wird magnetisch.

10.1 Magnetfelder durch Ströme | 199

Man beobachtet, dass Nägel, Nadeln oder andere magnetisierbare Gegenstände einen Teil ihrer Magnetisierung beibehalten und somit zu Stabmagneten gemacht werden können. Im Gegenzug verliert auch ein Stabmagnet seine Magnetisierung, wenn er stark erhitzt wird. Die Atome und somit die Elementarmagnete werden angeregt, bewegen sich chaotisch und beginnen ihre Anordnung zu verlieren.

10.1.1 Kräfte im Magnetfeld Wir haben gesehen, dass Ströme Magnetfelder hervorrufen, die auf andere Magneten eine Kraft auswirken können. Das Prinzip von Kraft und Gegenkraft legt nahe, dass also auch ein Magnet eine Kraft auf den Strom ausübt. Dieser Effekt ist leicht nachweisbar. Das in Abbildung 10.2 dargestellte Experiment erbringt diesen Nachweis. Ein beweglicher Leiter wird in das homogene Magnetfeld eines Hufeisenmagneten gehängt. Lässt man nun Strom durch den Leiter fließen, bewegt sich der Leiter in einer Richtung senkrecht zum Magnetfeld. Polt man die Stromrichtung um, so wird der Leiter in die entgegengesetzte Richtung ausgelenkt. Die Kraft, die den Leiter bewegt, ist dabei proportional zur Stromstärke im Leiter und zur Stärke des Magnetfeldes. Man beobachtet außerdem, dass die Kraft maximal wird, wenn der Strom senkrecht zu den Magnetfeldlinien fließt, und vollkommen verschwindet, wenn der Leiter parallel zum Magnetfeld ausgerichtet ist. Die Richtung der wirkenden Kraft ergibt sich erneut über eine Merkregel an der rechten Hand: Bilden der ausgestreckte Daumen, Zeigefinger und Mittelfinger zueinander rechte Winkel, so gibt der Daumen die Richtung der Kraft

I S

H

F

N

Abb. 10.2: Versuchsaufbau zur Lorentz-Kraft

200 | 10 Magnetismus ⃗ an, wenn der Zeigefinger in Stromrichtung ⃗I und der Mittelfinger in Richtung des F ⃗ (nach Süden) deutet (siehe Abbildung 10.3). Magnetfeldes H

Kraft Strom

Süden Abb. 10.3: Rechte-Hand-Regel für die Lorentz-Kraft in technischer Stromrichtung.

Stehen alle Komponenten senkrecht zueinander, so ist die Kraft maximal und proportional zur Stromstärke I und zur Länge l des Leiters innerhalb des Magnetfeldes der Stärke H: F∼I⋅l⋅H F = const ⋅ I ⋅ l ⋅ H. F = μ0 ⋅ I ⋅ l ⋅ H.

(10.2)

Bei Verwendung der SI-Einheiten stellt man fest, dass die Proportionalitätskonstante „const“ die Einheit Vs/Am besitzt. Sie ist eine universelle Konstante, die magnetische Feldkonstante μ0 genannt wird. μ0 ⋅ H, also die magnetische Feldkonstante mal der magnetischen Feldstärke, beschreibt die magnetische Flussdichte im Vakuum. Die magnetische Flussdichte B = μ0 ⋅ H hat im Vakuum stets die Richtung der magnetischen Feldstärke H. Die magnetische Feldkonstante μ0 gibt also das Verhältnis der magnetischen Flussdichte zur magnetischen Feldstärke im Vakuum an. Die Einheit der magnetische Feldkonstante μ0 kann in verschiedenen SI-Einheiten, die wir bereits kennengelernt haben, ausgedrückt werden: Vs N H Tm T2 m3 kg m kg m = 2 = = = = 2 = 2 2. Am A m A J C A s

(10.3)

Die Flussdichte B ist für die Kraft in einem Magnetfeld maßgebend. Ihre SI-Einheit lautet Tesla (T) und wurde nach Nikola Tesla benannt.

10.1 Magnetfelder durch Ströme |

201

Häufig wird auch die kleinere Einheit Gauß (Gs) verwendet: 1 Gs = 10−4 T. Da Magnetfelder nicht unmittelbar wahrgenommen werden, listet Tabelle 10.1 einige typische Werte von magnetischen Flussdichten in der Natur und in der Technik auf. Tab. 10.1: Typische Werte für magnetische Flussdichten in der Natur und in der Technik. Beispiel

Mag. Flussdichte in Tesla

Magnetfelder im interstellaren Medium und um Galaxien Erdmagnetfeld in 1 cm Abstand von einem 100A-Strom Hufeisenmagnet stärkste Dauermagnete (Neodym-Eisen-Bor) Kernspintomograf Dipolmagnete des Large Hadron Collider des CERN Stärkster Magnet (Supraleiter) Magnetfeld auf einem Neutronenstern

∼ 10−9 5 ⋅ 10−5 ≈ 1 Gauss 0,002 0,1 1,5 0,4–3 8,6 32 106 –108

Die kinetische Energie eines Teilchens wird nicht durch ein Magnetfeld geändert. Zwar ändert sich die Richtung der Geschwindigkeit (d.h. es findet sehr wohl eine Beschleunigung statt), aber nicht deren Betrag. Die Lorentz-Kraft leistet keine Arbeit.

Im beschriebenen Experiment spielt der Leiter selbst gar keine Rolle. Entscheidend sind die bewegten Ladungen in ihm, auf die die Kraft wirkt. Beschreibt man die in Gleichung 10.2 beschriebene Kraft für einzelne Elektronen als Ladungsträger in einem Magnetfeld, so wird die Geschwindigkeit v eines Elektrons so, wie dessen Elementarladung e herangezogen, da die Kraft F auf bewegte Ladungen wirkt: F = e ⋅ v ⋅ B.

(10.4)

Gleichung 10.4 beschreibt nun die Lorentz-Kraft. Sie wirkt stets senkrecht zur Bewegungsrichtung und senkrecht zur Feldausrichtung. Auch in der Kathodenstrahlröhre in alten Fernsehern, werden Elektronen zunächst mit Hilfe eines elektrischen Feldes als gebündelter Strahl erzeugt und mittels magnetischer Felder so abgelenkt, dass sie periodisch den gesamten Bildschirm ablaufen. Die Elektronen werden im anliegenden Magnetfeld über die Lorentz-Kraft schließlich Bildschirmzeile für Bildschirmzeile erst horizontal abgelenkt, dann vertikal abgelenkt.

202 | 10 Magnetismus 10.1.2 Induktion Wir beschreiben nun das Phänomen der Induktion. Bewegt man einen Stabmagneten senkrecht auf einen Leiterring zu, so fließt durch den Leiter ein kreisförmiger Strom, solange sich der Magnet bewegt. Zieht man den Stabmagneten in die andere Richtung zurück, so dreht sich auch die Stromrichtung im Stromkreis um. Hierbei spielt lediglich die Relativbewegung eine Rolle. Man erzielt denselben Effekt, wenn man den Magneten in seiner Position belässt und den Leiterkreis bewegt. Michael Faraday entdeckte dieses Phänomen 1831 und bezeichnete es als elektromagnetische Induktion. Faraday gilt als einer der bedeutendsten Experimentalphysiker – er begründete das gesamte Feld des Elektromagnetismus. Genau genommen wird kein Strom induziert, sondern eine Spannung Uind , über die dann der Strom I = Uind ⇑R fließt (siehe auch Gleichung 9.2). Man stellt fest, dass eine zeitliche Änderung des Magnetfelds eine Induktionsspannung hervorruft. Das Annähern im Gedankenexperiment zuvor bewirkte eine solche Änderung, da das Magnetfeld mit der Entfernung abnimmt. Die Höhe der Induktionsspannung hängt vom sogenannten magnetischen Fluss Φ ab. Wir haben bereits die magnetische Flussdichte B behandelt. Das Produkt aus Flussdichte B und Fläche A ergibt den Fluss Φ: Φ=B⋅A B=

Φ A

(10.5)

Nun ergibt sich die magnetische Flussdichte B als der magnetische Fluss Φ pro Fläche A. Die an den Enden einer einzelnen Spulenwindung entstehende induzierte Spannung Uind ist gleich der Änderungsgeschwindigkeit des magnetischen Flusses dΦ⇑dt. Für eine Spule mit n Windungen ergibt sich allgemein für den Wert der induzierten Spannung das Faraday’sche Induktionsgesetz: Uind = −n ⋅

dΦ . dt

(10.6)

Der magnetische Fluss hat die Einheit Voltsekunde (Vs). Die Einheit der magnetischen Flussdichte B ist folglich Vs/m2 oder auch 1 Tesla. Diese Relation findet sich auch in Gleichung 10.3. Die Induktionsspannung ist stets ihrer Ursache entgegengerichtet, was das Minuszeichen in Gleichung 10.6 widerspiegelt. Wie ist das zu verstehen? Was verursacht die Induktionsspannung? Wir gehen einmal rückwärts vor: 1. Eine zeitliche Änderung des magnetischen Flusses Φ verursacht die Induktionsspannung Uind . 2. Der magnetische Fluss Φ ist das Produkt aus Flussdichte B und Fläche A (Gleichung 10.5).

10.1 Magnetfelder durch Ströme |

203

3. Die magnetische Flussdichte B hängt direkt von der Feldstärke H ab: B = μ0 ⋅ H. 4. Ein stromdurchflossener Leiter erzeugt ein Magnetfeld H = I ⋅ n⇑l. Der letzte Punkt beschreibt den ursächlichen Strom bzw. die ursächliche Spannung. Besonders anschaulich wird dies bei der Selbstinduktion einer Spule. Fließt Strom durch eine Spule, so baut sich ein Magnetfeld auf (siehe 3. Punkt oben). Während es sich aufbaut, verändert sich also das Magnetfeld und damit der magnetische Fluss Φ durch die eigene Windungsfläche A. Man spricht von Selbstinduktion. In der Spule selbst wird also eine Spannung induziert, diese wirkt der bereits anliegenden Spannung entgegen. Unterbrechen wir den Strom plötzlich, so wird die Induktionsspannung von der Abnahme des Magnetfeldes verursacht und somit der noch vorhandenen Spannung an der Spannungsquelle (welche just unterbrochen wurde) gleich gerichtet. Es entstehen kurzzeitig hohe Überspannungen. Wir erleben das bisweilen am Funken, der an der Unterbrechungsquelle entsteht (wenn man den Stecker zieht). Generell erzeugt diese Selbstinduktion eine gewisse Trägheit. Der Strom erreicht seinen Endwert erst nach einer gewissen Zeit. Bei einem geschlossenen Stromkreis sinkt die Stromstärke nur langsam, wenn die Spannungsquelle abgeschaltet wird. Die induzierte Spannung ist proportional zur zeitlichen Änderung der Stromstärke: Uind = −L ⋅

dI . dt

(10.7)

Die Proportionalitätskonstante L wird Selbstinduktionskoeffizient oder auch Induktivität L genannt. Ein besonders anschauliches Experiment ist das folgende: Man stelle sich einen Stabmagneten mit kreisförmigen Querschnitt, einen gleich großen unmagnetischen Stab und ein passendes hohles Kupferrohr vor. Das Rohr wird senkrecht aufgestellt und je Versuchsdurchführung einer der beiden Stäbe oben hinein gesteckt. Welche der beiden Stäbe kommt als Erstes unten an oder passieren beide das Rohr gleich schnell? Der Stabmagnet kommt deutlich später unten an. Wie ist das zu erklären? Der fallende Stabmagnet erzeugt ein sich zeitlich änderndes Magnetfeld im Kupferrohr. Stellt man sich das Rohr vereinfacht als eine Vielzahl kleiner Windungen vor, so erkennt man, dass dieses sich zeitlich ändernde Magnetfeld eine Spannung und somit einen Strom induziert. Elektronen beginnen sich im Rohr auf Kreisbahnen um den Magneten herum zu bewegen. Dieser Kreisstrom im Rohr wiederum erzeugt ein Magnetfeld im Inneren des Rohres. Nach dem Faraday’schen Induktionsgesetz (siehe Gleichung 10.6) ist dies dem ursächlichen Magnetfeld entgegengesetzt und bremst somit den Stabmagneten entschieden ab.

10.1.3 Elektrischer Schwingkreis Der elektrische Schwingkreis und diverse Anwendungen werden ausführlicher in Band 4 der Reihe „Medientechnisches Wissen“ als Teil des Kapitels zu Elektronik be-

204 | 10 Magnetismus handelt. Hier gehen wir lediglich auf die wesentlichen Bestandteile ein, um schließlich die Brücke zu den elektromagnetischen Wellen zu schlagen. Ein elektrischer Schwingkreis basiert auf dem Prinzip der Selbstinduktion und der damit verbundenen Trägheit des Magnetfeldes. Ein einfacher Schwingkreis besteht aus einer Spule und einem Kondensator wie in Abbildung 10.4 dargestellt. Der Kondensator wird aufgeladen und der Stromkreis geschlossen. Ohne die Spule würde sich der Kondensator entladen und die Spannung mit der Zeit bis zum Ausgleich abfallen. Mit der Spule und ihrer Induktivität passiert aber Folgendes: Während der Entlandungsstrom des Kondensators ansteigt, wird ein Magnetfeld in der Spule aufgebaut. Fällt der Strom wieder ab, setzt eine Induktionsspannung ein, die einen Strom in derselben Richtung erzeugt. Dadurch wird der Kondensator wieder aufgeladen, allerdings mit umgekehrter Polung. Infolge der Trägheit des Magnetfeldes fließt der Strom also weiter, obwohl die Spannung am Kondensator bereits Null geworden ist. Der Kondensator wird also erneut durch die Induktionsspannung des sich nun abbauenden Magnetfeldes der Spule geladen. Dieser Vorgang wiederholt sich nun in umgekehrter Richtung. Elektrische Energie wird in die Energie des Magnetfeldes gewandelt und

Spule

L

C Kondensator

Abb. 10.4: Einfacher elektrischer Schwingkreis.

umgekehrt. Es liegt eine freie elektromagnetische Schwingung vor. Der Vorgang ist direkt analog zur wechselseitigen Umwandlung potentieller und kinetischer Energie beim Federpendel. Je größer die Induktivität L (siehe Gleichung 10.7) ist, desto träger agiert das Magnetfeld und desto langsamer schwingt der Schwingkreis. Die Kapazität C des Kondensators bestimmt ebenfalls die Schwingdauer und es gilt für die Schwingungsperiode T: ⌋︂ (10.8) T = 2π L ⋅ C.

11 Elektromagnetische Wellen Für ein erstes Gedankenexperiment stellen wir uns zwei lange Leitungen in geringem Abstand vor. An die Leitungen legen wir durch einen Schwingkreis eine hochfrequente Wechselspannung an. Zwischen den beiden Leitungen entsteht nun ein elektrisches Feld. Es lässt sich beobachten, dass das Feld nicht gleichmäßig stark entlang der Leiter ist. Tatsächlich baut sich ein Feld auf, das einer stehenden Welle entspricht (siehe Abbildung 11.1).

Abb. 11.1: Elektrisches Feld zwischen zwei Leitern mit hochfrequenter Wechselspannung.

Daraus lässt sich direkt schließen, dass sich ein elektrischer Spannungswert vom Generator entlang der Leiter nicht unendlich schnell ausbreitet, sondern mit einer festen Geschwindigkeit. Durch den hochfrequenten Wechsel der Polarität entsteht auf der Leitung eine Spannungswelle, die am offenen Ende reflektiert wird und so eine stehende Welle durch Überlagerung mit der eingehenden Welle erzeugt. Dies entspricht dem Modell der Seilwelle aus Kapitel 8.2.1. An den Knotenpunkten der Welle hat das elektrische Feld die Stärke 0. Bestimmt man die Wellenlänge, die zur Netzfrequenz von 50 Hz passt, so ergibt sich eine Länge von 6000 km. Das ist wesentlich länger als die Leitung selbst, so dass in der Praxis die Wechselspannung https://doi.org/10.1515/9783110496277-019

206 | 11 Elektromagnetische Wellen zu jeder Zeit an jeder Stelle zwischen den beiden Leitungen gleich groß ist. Spannungsmaxima und vor allem Spannungsnullpunkte wären auf einer Stromleitung auch äußerst ungünstig.

Die Ausbreitungsgeschwindigkeit c errechnet sich ebenso wie bei den mechanischen Wellen aus der Wellenlänge λ, die wir aus den Abständen der Knotenpunkte bestimmen können, und der Frequenz f des Generators. Aus dem Experiment ergibt sich eine Ausbreitungsgeschwindigkeit von c ≈ 3 ⋅ 108 m/s. Dies entspricht der Lichtgeschwindigkeit in Luft (Lichtgeschwindigkeit im Vakuum: c = 299 792 458 m/s, siehe Kapitel 3.2). An den beiden parallelen Leitern bilden sich zwei verschiedene Felder aus. Elektrische Feldlinien verlaufen von einem Leiter zum anderen. Magnetische Feldlinien verlaufen je kreisförmig um einen Draht (siehe Kapitel 10.1). Elektrische und magnetische Feldlinien stehen überall senkrecht aufeinander und bilden ebenfalls Wellen längs der Leitung. Beide Wellen haben dieselbe Wellenlänge wie die SpannungsStrom-Wellen. Wir bezeichnen sie als elektromagnetische Wellen.

11.1 Elektrischer Strahlungsdipol In Kapitel 8.2.1 betrachteten wir eine stehende Welle auf einer eingespannten Saite. Auf ihr bilden sich Wellen gerade so aus, dass an den festen Enden der Saite Knotenpunkte liegen. Gleiches gilt für die besprochenen elektromagnetischen Schwingungen einer Doppelleitung. Hier liegen die Stromknoten an den offenen Enden. Die Stromknoten gehen jedoch einher mit Spannungsmaxima, während in der Mitte der größte Wechselstrom fließt, aber keine elektrische Spannung herrscht. Das elektrische Wechselfeld ist an den Leiterenden besonders stark (siehe Abbildung 11.1). Entfernt man einen der beiden Leiter, so bleibt die Stromverteilung der Schwingung dieselbe. Die elektrischen Feldlinien schließen sich nun aber nicht mehr über den gegenüber liegenden Leiter, sondern indem sie von den positiven Ladungen an einem Ende zu den negativen Ladungen am anderen Ende führen. Es entsteht ein schwingender elektrischer Dipol. Die elektrischen Feldlinien eines solchen Dipols verlaufen in allen Ebenen, welche die Dipolachse enthalten. Senkrecht zur Dipolachse erzeugt der schwingende elektrische Dipol ausschließlich magnetische Feldkomponenten. In Richtung der Dipolachse strahlt der elektrische Dipol nicht. Der Aufbau einer einfachen Empfängerantenne ist identisch und diese empfängt ebenfalls nicht aus Richtung der Dipolachse. Ganz allgemein kann man festhalten, dass jede beschleunigte elektrische Ladung elektromagnetische Wellen abstrahlt. Der Aufbau mit den beiden engen parallelen Leitern hat nur ein sehr geringes äußeres Strahlungsfeld, weil sich die von den beiden Leitern emittierten Wellen quasi

11.2 Elektromagnetismus |

207

vollständig durch destruktive Interferenz auslöschen, schließlich sind sie bei sehr geringem Gangunterschied gegenphasig.

11.2 Elektromagnetismus Historisch gesehen wurden elektrische und magnetische Phänomene über Jahrhunderte als voneinander unabhängig wahrgenommen, weil man nicht in der Lage war, länger andauernde elektrische Ströme zu erzeugen. Beim Magnetismus gab es permanent magnetische Steine und man konnte deren Wechselwirkung untereinander beobachten. So wurde auch das magnetische Erdfeld bekannt. Einer der Fundorte dieser Permamagneten war die antike Stadt Magnesia (heute Manisa) in der Türkei. Leider waren gerade diese magnetischen Phänomene (Permanentmagnete, Erdmagnetfeld) zunächst am schwierigsten theoretisch zu erklären und mit den elektrischen Erscheinungen ihrer Zeit nicht ohne Weiteres in Verbindung zu bringen. Es gibt viele Analogien zwischen elektrischen Feldern und magnetischen Feldern und Größen. Bevor wir die Maxwell-Gleichungen, welche diese miteinander in Verbindung setzt, kurz skizzieren, stellen wir die sich jeweils entsprechenden Größen gegenüber. Tabelle 11.1 listet elektrische und ihnen entsprechende magnetische Größen auf. Auffallend sind dabei zwei grundlegende Unterschiede. Während das elektrische Tab. 11.1: Vorsatzzeichen für kleine und große Zahlen. Name Feldstärke Quelle Flussdichte Fluss Fluss durch Volumen Bauelement Eigenschaft

Elektrische Größe Magnetische Größe ⃗ = F ⇑Q E Ladung Q D = ϵ0 ⋅ E Ψ=D⋅A ⃗ ⋅ dA ⃗=Q ∮A D Kondensator Kapazität

⃗ H Quellenfrei! B = μ0 ⋅ H Φ=B⋅A ⃗ ⋅ dA ⃗=0 ∮A B Spule Induktivität

Feld von einer Ladung ausgeht, welche die Quelle der Feldlinien darstellt, besitzt das magnetische Feld keine solche Quelle. Feldlinien sind immer geschlossen und verbinden den magnetischen Nord- und Südpol, durchlaufen aber auch den Magneten selbst. Zusammenfassen lässt sich dies mit der Aussage: Es existiert kein magnetischer Monopol, aber es existieren einzelne elektrische Ladungen Q. Die Unterschiede beim Fluss durch eine Oberfläche geben denselben Umstand wieder. Der elektrische Fluss durch eine gedachte Kugelfläche A entspricht gerade der ursprünglichen Ladung Q (siehe Kapitel 9.1). Die Bilanz des magnetischen Gesamt-

208 | 11 Elektromagnetische Wellen flusses durch eine solche Kugeloberfläche A ist hingegen null: Für jede austretende Feldlinie kehrt auch eine zurück.

11.2.1 Maxwell-Gleichungen Die berühmten Maxwell-Gleichungen sind ein Satz aus vier einfachen Gleichungen, welche die Phänomene des Elektromagnetismus beschreiben und damit einen entscheidenden Teil zu unserem modernen physikalischen Weltbild beitragen. Benannt wurden sie nach James Clerk Maxwell. Maxwell wird oft als der Naturwissenschaftler des 19. Jahrhunderts gesehen, welcher den größten Einfluss auf die Physik des 20. Jahrhunderts hatte. Seine Überlegungen führten zu grundlegenden Naturmodellen und er galt als Brückenbauer zwischen Mathematik und Physik. Zum hundertsten Jahrestag von Maxwells Geburt beschrieb Albert Einstein Maxwells Werk 1931 als „das tiefste und fruchtbarste, das die Physik seit Newton entdeckt hat“.

Besonders schön lassen sich die Gleichungen unter Verwendung des Nabla-Operators ∇ formulieren. Der ∇-Operator beschreibt die Divergenz (div) oder als Vektorprodukt (vgl. Kap. I.4.1) auch die Rotation (rot). Dabei stellt er formal lediglich einen Vektor dar, dessen Komponenten die partiellen Ableitungsoperatoren ∂x∂ i sind: ⃗ =( ∂ ,..., ∂ ) ∇ ∂x1 ∂x n

(11.1)

⃗ ≡ rotE ⃗ bezeichnet die Rotation von E. ⃗ ⃗ ×E ∇ ⃗ ⃗ ⃗ ⃗ ⋅ E ≡ divE bezeichnet die Divergenz von E. ∇ In dieser Notation lauten die Maxwell-Gleichungen: ⃗= ρ ⃗ ⋅E ∇ ε0 ⃗ ⃗ ⋅B=0 ∇

(11.2) (11.3)

⃗ ⃗ = − ∂B ⃗ ×E ∇ ∂t

(11.4)

⃗ ⃗ = μ0⃗j + μ0 ε0 ∂ E ⃗ ×B ∇ ∂t

(11.5)

Diesen vier Gleichungen lässt sich durchaus einen gewisse Ästhetik abgewinnen, wohl auch deshalb findet man sie mittlerweile auch als Tattoos, Aufkleber oder Tshirts. Die Maxwell-Gleichungen verknüpfen die elektrische Feldstärke E und die magnetische Flussdichte B mit der Ladungsdichte ρ (Ladung pro Volumen) und elektrischen Stromdichte j (Strom pro durchflossene Fläche). – Die Gleichung 11.2 besagt, dass elektrische Feldlinien voneinander divergieren und dass die Ladung die Quelle des elektrischen Feldes ist.

11.2 Elektromagnetismus |



– –

209

Gleichung 11.3 gibt an, dass magnetische Feldlinien nicht divergieren. Das Feld der magnetischen Flussdichte ist quellenfrei. Es gibt keine magnetischen Monopole. Gleichung 11.4 entspricht dem Induktionsgesetz: Änderungen der magnetischen Flussdichte führen zu einem elektrischen Wirbelfeld. Gleichung 11.5 beschreibt elektrische Ströme als Erzeuger eines magnetischen Wirbelfeldes.

Im Vakuum gibt es keine (freien) Ströme und keine (freien) Ladungen. Können dann trotzdem E- und B-Felder existieren? Ja, sobald sie einmal vorhanden sind, können sie sich gegenseitig am Leben erhalten. Als Schritt zu den elektromagnetischen Wellen betrachten wir nun die Gleichungen im Vakuum. Freie Ladungen ρ gibt es dann keine mehr und die Gleichungen vereinfachen sich zu: ∇⋅E =∇⋅B =0 ∂B ∂t ∂E rotB = ∇ × B ∼ ∂t rotE = ∇ × E = −

Kombiniert man diese Gleichungen erhält man: rot(rotE) = −rot ( rot (

∂B ) ∂t

∂B ∂2 E )∼ 2 ∂t ∂ t

und schließlich die elektromagnetische Wellengleichung: ∂2 E ∂2 t 2 2 2 2 ∂ ∂ ∂ ∂ E −( 2 + 2 + 2)E ∼ 2 ∂x ∂y ∂z ∂ t rot(rotE) ∼ −

Dies entspricht der Schwingungsgleichung, wie wir sie bereits in Kapitel 8 kennengelernt haben: Jede Lösung der Wellengleichung lässt sich durch Überlagerung von ebenen Wellen beschreiben: E = E0 sin(ω ⋅ t + ϕ). Die Maxwell-Gleichungen beschreiben also alle entscheidenden Phänomene des Elektromagnetismus und führen unmittelbar auf die Existenz elektromagnetischer Wellen – besser bekannt als Licht.

12 Optik 12.1 Licht als elektromagnetische Welle In diesem Kapitel behandeln wir die Natur des Lichtes und befassen uns mit diversen Eigenschaften dieser elektromagnetischen Wellen. Vieles davon gilt insbesondere für sichtbares Licht, welches der Begriff Optik nahelegt. Generell handelt es sich auch bei Radiowellen und Röntgenstrahlung um elektromagnetische Wellen und somit im weiteren Sinne um Licht. Für eine erste Beobachtung greifen wir auf die Sonne zurück. Die Strahlung der Sonne erreicht uns auf der Erde durch ein Vakuum. Im Gegensatz zum Schall ist also offenbar kein übertragendes Medium erforderlich. Wir wissen bereits, dass es sich um elektromagnetische Wellen handelt, jedoch mit einer deutlich kürzeren Wellenlänge, als wir von unserem elektrischen Dipol kennen. Man kann sich vorstellen, dass hier die Erzeuger der Wellen keine langen Leiter sind, sondern dass die Elektronen in Atomen oder Molekülen hochfrequente Schwingungen ausführen und somit kleine Dipole oder auch Sender darstellen. Eine weitere Beobachtung ist, dass das Sonnenlicht dort, wo es auftritt, eine gewisse Wärme erzeugt. Die Lichtstrahlung überträgt also auch Energie. Andernfalls wäre sie auch nicht wie beispielsweise von unseren Augen detektierbar. Es bedarf einer gewissen Energie, um eine Reaktion auszulösen. Unser menschliches Auge ist dabei in der Wahrnehmung auf einen relativ überschaubaren Frequenzbereich eingeschränkt. Elektromagnetische Wellen mit Frequenzen von etwa 375–750 THz liegen im sichtbaren Spektrum von rotem Licht bis hin zu blauem Licht. Diese Frequenzbreite umfasst also lediglich eine Oktave! Spricht man von Licht, so verwendet man in der Regel allerdings eine Längeneinheit zur Beschreibung dieser Wellen. Wir erinnern uns, dass die Wellenlänge λ über die Ausbreitungsgeschwindigkeit c von der Frequenz f abhängt (siehe auch Gleichung 8.5): λ=

c . f

(12.1)

Der eben erwähnte sichtbare Wellenlängenbereich liegt in etwa zwischen 400 nm und 800 nm (Nanometer = 10−9 m). In der Literatur, und oft als veraltet bezeichnet, findet man auch die Angabe in Å (Ångström = 10−10 m). Der Bereich der beobachtenden Astronomie verwendet aber das Ångström nach wie vor sehr häufig. Die Frequenz kann nur deshalb so eindeutig über Gleichung 12.1 ausgedrückt werden, weil die Ausbreitungsgeschwindigkeit c von Licht (im Vakuum) konstant ist. Sie liegt bei exakt c = 299 792 458 m/s (siehe Kapitel 3.2).

https://doi.org/10.1515/9783110496277-020

12.2 Quellen

| 211

12.2 Quellen Das Licht, welches wir wahrnehmen, stammt in der Regel von strahlenden Körpern. Oft handelt es sich um sogenannte Temperaturstrahlung. Auf die Eigenschaften der Strahlung heißer Körper wie unserer Sonne, anderer Sterne, alter Glühlampen oder Toasterlamellen gehen wir noch in Kapitel 13.4 ein. Leuchtstoffröhren, Energiesparlampen oder Fluoreszenz kommen allerdings auch ohne hohe Temperaturen aus; ihr Licht wird andersartig erzeugt (siehe Kapitel 14).

12.3 Lichtstrahlen Licht breitet sich grundsätzlich gradlinig aus. Eine Punktquelle strahlt das Licht radial aus. Gerne wird dabei von Lichtstrahlen gesprochen, aber ähnlich wie bei einer mechanischen Welle auf der Wasseroberfläche gibt es bei den elektromagnetischen Lichtwellen keinen einzelnen auswählbaren Strahl. Wir bleiben bei dem Vergleich mit mechanischen Wellen und erinnern uns an den Versuchsaufbau mit dem kleinerwerdenen Spalt, auf den die Wasserwellen trafen, aus Kapitel 8.3.6 mit der Abbildung 8.4. Trifft das ausgesandte Licht einer Punktquelle auf eine Wand mit einem Loch oder – etwas medientechnischer – eine Blende, so setzt sich der Lichtkegel durch das Loch fort. Auch wenn man die Blende weiter schließt, bleibt das Licht ein Kegel und wird zu keinem Strahl. Tatsächlich wird der Winkel des Kegels hinter der Blende kleiner und kleiner, bis er aber schließlich beginnt wieder anzusteigen. Wir treffen auch bei Lichtwellen erneut auf das Huygens’sche Prinzip der Beugung. Das Phänomen der Beugung tritt auf, wenn die Dimension der begrenzenden Öffnung (Spalt oder Blende) nicht mehr deutlich größer als die Wellenlänge ist. Bei Schall und Wasserwellen lag die Wellenlänge in der Größenordnung von Zentimetern. Beim Licht befinden wir uns im Bereich von weniger als einem Mikrometer (1 Millionstel Meter). Das bedeutet, dass die Beugung bei Licht erst ab einer bestimmten Grenze zum Tragen kommt. Die Wellennatur des Lichtes zeigt sich also nicht permanent so deutlich. In der Literatur wird daher häufig zwischen den beiden Bereichen unterschieden. Betrachtet man Licht näherungsweise als reine Lichtstrahlen, so spricht man von einer geometrischen Optik. Dies beinhaltet Spiegel, Linsen und dergleichen. Die Wellenoptik befasst sich hingegen mit Phänomenen, in denen die Wellennatur des Lichtes explizit in Erscheinung tritt. Im Folgenden beziehen wir uns zumeist auf diese geometrische Optik, auch Strahlenoptik genannt, da man das Licht jeweils als einfachen Strahl verfolgt.

212 | 12 Optik

12.4 Die Lochkamera Wir beginnen unsere Reise durch die abbildende Optik am Beispiel einer einfachen Lochkamera. Oft wird diese Kamera als „Camera obscura“ bezeichnet, dies ist aber nicht ganz korrekt. Eine „camera obscura“ ist wortwörtlich verstanden eine Kammer die abgedunkelt (obscura) ist und in die durch ein Loch in der Wand Licht fällt. Bei der Lochkamera ist das Prinzip dasselbe: Jeder Punkt eines vor der Kamera befindlichen Objektes sendet durch das Loch einen Lichtstrahl (eigentlich Lichtkegel), der auf der Rückwand der Lochkamera einen Punkt erzeugt. All diese Punkt bilden insgesamt eine beleuchtete Fläche, welche schließlich ein Bild ergibt, das dem aussendenen Objekt zumindest einmal ähnlich sieht. Verengt man das Loch, wird das Bild verständlicherweise dunkler, aber auch schärfer, weil von jedem Punkt des Objektes nun ein engeres Lichtbündel durch das Loch auf die Wand trifft und somit der Lichtfleck kleiner und somit weniger „verwaschen“ wird. Dabei muss das Kammerloch natürlich groß gegenüber der Wellenlänge bleiben. Abbildung 12.1 veranschaulicht den Strahlengang. Es wird auch verdeutlicht, dass das Bild in der Lochkamera wie in der Camera obscura auf dem Kopf steht.

Abb. 12.1: Das Prinzip der Lochkamera am Beispiel der Camera obscura (18. Jahrhundert).

Am Beispiel der Lochkamera wollen wir auch auf ein weiteres Phänomen eingehen: Betrachtet man am Tag Schattenbilder von Blättern, Jalousien am Fenster oder der eigenen Hand, so wirken diese stets ein wenig wie weichgezeichnet. Ecken erscheinen rundlich und selbst das dreieckige Loch in den Lamellen der Jalousie erzeugt einen kreisrunden Lichtfleck auf der Wand. Die Ursache dafür findet sich darin, dass die Konfiguration der einer Lochkamera gleicht. Am Boden unter dem Baum oder an der Wand wird nicht etwa das „Loch“ abgebildet, sondern – im Falle eines sonnigen Tages – die Lichtquelle selbst: unsere Sonne. Die Sonne ist trotz ihrer enormen Ent-

12.4 Die Lochkamera | 213

fernung keine Punktquelle. Tatsächlich erscheint sie am Himmel in etwa so groß wie der Mond, und das ist ein halbes Winkelgrad oder auch 30 Bogenminuten. An dieser Stelle befürchtet der Autor einige Leser desillusionieren zu müssen. Auch der tief hängende noch so groß erscheinende Vollmond hat die scheinbare Größe von einem halben Grad am Himmel. Das ist in etwa die halbe Breite des Zeigefingers am ausgestreckten Arm. Das funktioniert bei kleinen und großen Menschen recht gut. Besonders breite Zeigefinger gehen statistisch oft mit langen Armen einher. Sonne und Mond erscheinen in etwa gleich groß. Ein Umstand, der uns die totalen Sonnenfinsternisse wie auch die ringförmigen Finsternisse beschert. Der Vergleich mit dem Finger bietet sich wegen des notwendigen Schutzes der Augen allerdings nur für den Mond an. Die Ursache für diese teilweise sehr ausgeprägte optische Täuschung eines übergroßen Mondes hängt vermutlich mit der Interpretation des Bildes durch das Gehirn zusammen. Gibt es ansonsten wenig zu sehen (der Mond steht hoch und allein), so erfasst das Gehirn einen größeren Ausschnitt, um nichts zu verpassen. Der Mond wirkt relativ zum Umfeld kleiner. Steht der Mond jedoch tief über den Baumkronen oder Hausdächern, so ist der Ausschnitt um den Mond herum so detailreich, dass das Gehirn quasi in diesen Bereich hineinzoomt. Es gibt allerdings auch alternative Erklärungsversuche für diese Wahrnehmung.

Der Kreis, den wir hier und da in den Blätterschatten erkennen, ist also deshalb ein Kreis, weil unsere Sonne rund ist. Besser gesagt: Wir sehen ein Abbild unserer Sonne. Dies ist besonders eindrucksvoll zu Zeiten einer partiellen (!) Sonnenfinsternis. Plötzlich entsteht ein Schattenbild aus lauter Sicheln. Die Aufnahmen in Abbildung 12.2 sind im März 2015 bei einer solchen partiellen Sonnenfinsternis entstanden. Das obere Bild zeigt das Schattenbild einer Baumkrone, das untere Bild den Schatten der Hand meiner Tochter, welche versucht nur ein kleines Loch für das Licht im Schatten ihrer Faust zu lassen, was ihr gelingt. Die kleine Sichel an der Wand gibt nicht die Form der Lücke zwischen den Fingern, sondern das Abbild der Sonne wieder. Dass die Schatten im Sonnenlicht überhaupt so scharf sind, liegt daran, dass die Sonne trotz ihrer absoluten Größe dann doch eher klein am Himmel erscheint. Objekte, die von flächigen Lichtquellen beschienen werden, erzeugen keinen scharfen Schattenrand. Es gibt dann nicht die eine Grenzlinie, an der das Licht der Quelle entweder ankommt oder verdeckt wird. Stattdessen gibt es einen mehr oder minder weichen Übergang zwischen „gar kein Licht kommt an“ über „ein Teil der Lichtquelle wird vom Objekt verdeckt, aber ein anderer Teil des Lichtes erreicht diesen Punkt noch“ bis hin zu „von diesem Punkt aus ist die gesamte Lichtquelle noch zu sehen, folglich gibt es gar keine Abdunklung an dieser Stelle“. Man unterscheidet entsprechend zwischen dem vollkommen verdunkelten Kernschatten und den nur teilweise abgedunkelten Schlagschatten, auch als Halbschatten bezeichnet. Besonders eindrucksvoll ist dies bei einer Mondfinsternis zu erkennen. Die Erde schiebt sich zunächst nur teilweise zwischen Mond und Sonne, so dass es nach wie vor Sonnenstrahlen gibt, die den Mond direkt treffen. Erst im Kernschatten wird der Mond gar nicht mehr direkt von der Sonne beschienen. Dass man ihn trotzdem während einer totalen Mondfinsternis im Kernschatten noch sehen kann (wenn auch sehr viel dunkler), liegt daran, dass die Erdatmosphäre einen Teil des Sonnenlichtes bricht und

214 | 12 Optik

Abb. 12.2: Die teilverdeckte Sonne erzeugt sichelförmige Schattenbilder.

in die Schattenregion hineinlenkt. Es handelt sich hierbei nicht etwa um Beugung (die Erde ist nun wirklich größer als die Wellenlänge des Lichts), sondern ein neues Phänomen, welches wir in Kapitel 12.4.3 besprechen werden. Ein Teil des Lichtes wird aber auch einfach in der Erdatmosphäre gestreut.

12.4.1 Tiefenschärfe Anhand der einfachen Lochkamera kann auch das Prinzip der Tiefenschärfe erläutert werden. Zunächst sei erwähnt, dass Tiefenschärfe und Schärfentiefe praktisch gleichwertig verwendet werden. Die genaue Begrifflichkeit hängt eher von der Perspektive ab: Schärfentiefe als ein Maß für die Ausdehnung des scharfen Bereichs während Tiefenschärfe beschreibt, (bis) in welcher Bildtiefe das Bild scharf abgebildet wird.

12.4 Die Lochkamera | 215

Um überhaupt ein halbwegs scharfes Bild mit einer Lochkamera erzeugen zu können, muss die Blende der Kamera sehr klein sein. Dann sind die Lichtkegel der einfallenden Lichtbündel sehr klein und vor allem sehr ähnlich für alle Objekte, unabhängig von ihrem Abstand zum Loch. Auf der Bildebene wird dann ein sogenannter Zerstreuungskreis abgebildet, dessen Größe proportional zum Lochblendendurchmesser ist. Einfache Lochkameras besitzen daher in der Regel auch gar keine Möglichkeit zur Entfernungseinstellung, weil sie prinzipbedingt eine sehr große Tiefenschärfe bis ins Unendliche aufweisen. Ähnlich erging es ersten Digital- und insbesondere Handykameras. Ihre Lichtöffnung war so gering, dass die Tiefenschärfe automatisch sehr groß war. Das verhindert unscharfe Bilder effektiv, grenzt aber auch den Gestaltungsspielraum des Fotografen erheblich ein. Bei dem Begriff der Blende gibt es unterschiedliche Konventionen. Unumstritten ist das Öffnen und Schließen einer Blende. Das Öffnen vergrößert das effektive Loch für den Lichteinlass. Die Tiefenschärfe fällt dann geringer aus. Beim Schließen einer Blende verringert man den Lichtdurchlass. Die Tiefenschärfe vergrößert sich. Eine Blende ist folglich klein, wenn die Öffnung klein ist. Die Blendenzahl ist dann groß (zum Beispiel eine Blende von 22 ist eine hohe Blendenzahl, also eine kleine Blende). Dies ist die gebräuchlichste Definition von großer und kleiner Blende in diesem Zusammenhang.

12.4.2 Spiegel Der Spiegel ist wohl das bekannteste Beispiel für Reflexionen von Licht. Die meisten Leser dürften sich an das klassische „Einfallswinkel = Ausfallswinkel“ erinnern. Allgemeiner aber gilt, dass sich ein Lichtbündel, welches auf eine Grenzfläche zweier Medien trifft, in zwei Bündel aufteilt. Ein Teil der eintreffenden Welle wird reflektiert, ein anderer Teil dringt in das zweite Medium ein. Einfallswinkel und Ausfallswinkel des reflektierten Anteils sind dann gleich, wenn man den Winkel auch zum Einfallslot (senkrecht zur Grenzebene der beiden Medien) hin betrachtet. Zunächst interessieren wir uns für das reflektierte Licht und gehen auf den Teil, der in das Medium an der Grenzfläche eintritt, in Kapitel 12.4.3 ein. Das Spiegelbild als Phänomen ist einem sehr vertraut. Jeder kennt auch die Tatsache, dass links und rechts im Spiegelbild vertauscht erscheinen. Die meisten Menschen kennen ihr eigenes Gesicht daher besser aus dem Spiegel als beispielsweise von Fotos, so dass wir uns auf Darstellungen ohne Seitenverkehrung fremd vorkommen. Das führt dazu, dass viele Notebookhersteller für Videokonferenzen das Bild ihrer eingebauten Kamera spiegeln, damit der Besitzer sich selbst besser fühlt. Jedem ist auch bewusst, dass oben und unten im Spiegelbild nicht vertauscht werden. Etwas weniger sicher fühlt man sich aber, wenn man gefragt wird, wieso das eigentlich so ist. Und was, wenn wir uns auf die Seite legen? Effektiv sind dann doch oben und unten bei uns vertauscht, aber nicht vom Raum, der hinter uns im Spiegel

216 | 12 Optik

Blende 22

Blende 8

Blende 3,5

Abb. 12.3: Fotokamera mit Objektiv und verschiedenen Einstellungen für die Blende.

noch zu sehen ist. Das ändert sich auch nicht wenn man nur durch ein Auge sieht, die Anordnung unserer Augen spielt also auch keine Rolle. Perspektivisch korrekter, wenn auch gewöhnungsbedürftig, ist die Sichtweise, dass ein Spiegel nicht links und rechts, sondern effektiv vorne und hinten vertauscht. Der Leser möge darüber einmal nachdenken. Spiegel sind nie perfekt und reflektieren nur in den seltensten Fällen mehr als 90 % der eintreffenden Lichtmenge. Das Verhältnis von reflektierter zur auftreffenden Strahlungsleistung nennt man auch Reflexionsvermögen oder Reflektivität. Auch durchsichtige Körper reflektieren stets einen gewissen Anteil. Bei üblichem Glas sind es immerhin etwa 4 % bei senkrechtem Lichteinfall. Bei steigendem Einfallswinkel (zum Lot, also flacher zur Grenzebene) nimmt das Reflexionsvermögen stark zu. So erweist sich eine Schaufensterscheibe als stark spiegelnd, wenn man sehr flach auf sie schaut. Abbildung 12.4 verdeutlicht dies eindrucksvoll. Das Bild entstand Weihnachten 2018, um meiner Tochter zu demonstrieren, aus wie vielen einzelnen Glasscheiben unsere Fenster bestehen. Deutlich erkennt man drei stärkere Spiegelbilder: eines von der vorderen Scheibe, eines von der mittleren Scheibe und eines von der hinteren Scheibe der Dreifachverglasung. Darüber hinaus sind etwas schwächer weitere Spiegelungen auszumachen. Hier ist der Strahlengang ein wenig kompliziert, aber noch

12.4 Die Lochkamera | 217

nachvollziehbar. Ein nennenswerter Anteil des Lichtes wird jeweils nicht reflektiert, sondern es durchdringt das Glas (es transmittiert). Ansonsten wäre es natürlich auch nicht durchsichtig. Das Licht, welches die erste Scheibe durchlässt, wird zum Teil von der zweiten Scheibe reflektiert, durchdringt die erste Scheibe von der Rückseite und wird als zweite Spiegelung auf dem Foto sichtbar. Gleiches geschieht zwischen der mittleren und hinteren Scheibe. Ein Teil des Lichtes welches von der zweiten (oder dritten) Scheibe reflektiert wird, durchdringt die davor liegende Scheibe aber nicht, sondern wird erneut reflektiert, um dann auf die nächste Glasscheibe zu treffen. So ergeben sich das vierte und fünfte Spiegelbild der Lichterkette in Abbildung 12.4. Zumindest in erster Näherung. Denn selbst dieses einfache Beispiel ließe sich natürlich über einige Ebenen von Lichtstrahl-„Pingpong“ weiterverfolgen. Dabei nimmt die verbleibende Lichtmenge aber so rasch ab, dass weitere Verzweigungen schwer zu erkennen sind. Hinzu kommt die Tatsache, dass jede Scheibe selbst bereits zweimal reflektiert: einmal an der Außenfläche von Luft zu Glas, aber auch an der Innenfläche von Glas zu Luft. Was mit dem Licht im Medium passiert, wird Gegenstand des folgenden Kapitels sein.

12.4.3 Brechung Generell gilt, dass ein Lichtstrahl seine Richtung potentiell beim Übergang von einem Medium in ein anderes ändert. Dieser Effekt wird als Brechung bezeichnet. Der Grad der Richtungsänderung hängt von beiden Medien ab. Genauer gesagt vom Verhältnis der beiden Materialkonstanten n, auch Brechzahl (seltener: Brechungsindex) genannt. Ist α der Einfallswinkel zum Lot und β der Ausfallswinkel, so gilt mit den Brechzahlen n1 und n2 das Brechungsgesetz von Snell: sin α n2 = . sin β n1

(12.2)

Findet der Übergang dabei von einem optisch dünneren (wie beispielsweise Luft) zu einem optisch dichteren Medium (wie Glas) statt, so wird der Lichtstrahl stets zum Lot hin gebrochen, der Ausfallswinkel wird also steiler zur Grenzfläche. Das optisch dichtere Medium hat also die größere Brechzahl n. Luft hat dabei eine Brechzahl von n ≈ 1, 0, Wasser hingegen n = 1, 33 und Glas hat eine Brechzahl von n ≈ 1, 6. Der Vollständigkeit halber, wenn auch etwas weniger praxisrelevant sei erwähnt, dass Diamanten eine Brechzahl von n ≈ 2, 5 aufweisen. Gleichung 12.2 lässt sich ebenfalls über das Verhältnis der Ausbreitungsgeschwindigkeit von Licht im jeweiligen Medium c1 und c2 definieren: sin α c1 = . (12.3) sin β c2 Die Brechzahlen verhalten sich also umgekehrt zu den Ausbreitungsgeschwindigkeiten: c1 ⇑c2 = n2 ⇑n1 . Die Ausbreitungsgeschwindigkeit c von Licht in einem Medium

218 | 12 Optik

Einfallendes

zum Beobachter

Licht

Glasscheibe

Glasscheibe

Glasscheibe

Abb. 12.4: Mehrfachreflexion von Lichterkette an Dreifachverglasung.

hängt also unmittelbar von dessen Brechzahl n und der Lichtgeschwindigkeit im Vakuum c0 ab: c0 . (12.4) c= n Die Abhängigkeit der Lichtgeschwindigkeit vom Medium hat weitreichende Konsequenzen. Die Frequenz f einer fortschreitenden Welle bleibt beim Wechsel von einem Medium in ein anderes erhalten. Durch die allgemeingültige Beziehung c = f ⋅ λ (siehe Gleichung 8.5) ändert sich also ebenfalls die Wellenlänge im Medium mit der Brechzahl n λ im Vergleich zur Wellenlänge im Vakuum: λ = nλ0λ . Das λ in n λ weist darauf hin, dass n λ selbst auch Wellenlängenabhängig ist. Der Unterschied der Wellenlänge im Vakuum und der Wellenlänge in Luft ist sehr gering, da die Brechzahl der

12.4 Die Lochkamera | 219

Lot

Einfallswinkel α

Ausfallswinkel β

α

α

β

Medium 1

Medium 2

Abb. 12.5: Brechung beim Übergang von Medium 1 zu Medium 2.

Luft nahezu 1 beträgt. Dennoch muss dieser Unterschied natürlich berücksichtigt werden, insbesondere wenn man Licht aus dem Weltall auf der Erde empfängt. Bei einem

Abb. 12.6: Vereinfachte Darstellung des Phänomens der Brechung: Läufer an Land sind schneller als im Wasser, daher ändert sich beim Wechsel die Richtung der Läuferfront.

Übergang von einem optisch dichteren in ein optisch dünneres Medium wird der Lichtstrahl vom Einfallslot weggebrochen. Er wird also flacher zur Grenzfläche. Betrachtet man Gleichung 12.2 genauer für den Fall, so fällt auf, dass der Ausfallswinkel durchaus 90 ○ erreichen kann für n1 > n2 . Der ausfallende Lichtstrahl liegt dann in der Grenzebene der beiden Medien. Für β = 90○ wird sin β = 1 und es ergibt sich der Grenzwinkel

220 | 12 Optik für diesen Spezialfall zu sin α g = nn12 . Der Winkel α g wird auch Grenzwinkel der Totalreflexion genannt, denn für Winkel größer als α g kann das Licht nicht mehr in das dünnere Medium eindringen (der Ausfallswinkel würde 90 ○ zum Lot überschreiten). Das Licht wird daher in voller Leistung reflektiert. Der Grenzwinkel der Totalreflexion gegen Luft n ≈ 1, 0 beträgt für Glas n ≈ 1, 6 immer unter 45 ○ , was sich bestimmen lässt aus α g = arcsin 1,0 = 38, 7 ○ . Dies machen sich Umlenkprismen zu Nutze. 1,6 Ein gleichschenklig rechtwinkliges Prisma ist in der Lage, einen Lichtstrahl mit Totalreflexion um 90 ○ zu knicken. Eine solche Anordnung ersetzt einen unter 45 ○ stehenden Spiegel. Ferngläser verwenden in der Regel eine Anordnung derartiger Prismen, um das Licht umzulenken und dabei nach dem Linsendurchgang wieder umzudrehen.

Neben Prismen profitieren auch Glasfaserleitungen von diesem Phänomen. Das Licht bleibt in der Faser, weil an deren Grenzfläche nach außen stets Totalreflexion auftritt, wie in Abbildung 12.7 dargestellt.

Abb. 12.7: Totalreflexion an der Innenseite einer Glasfaser.

Totalreflexion tritt auch bei dem Phänomen der Fata Morgana auf. Vor allem im Sommer ergeben sich deutliche Temperaturunterschiede der Luft unmittelbar über dunklen Teerstraßen. Diese absorbieren viel Sonnenlicht und heizen somit auf. Relevant ist aber, dass Luftschichten im größeren Abstand über der Straße etwas kühler sind. Der Brechungsindex heißer Luft ist geringer als jener der kälteren Luft. Trifft ein Lichtstrahl nun in einem flachen Winkel aus der kühleren Luft auf die heißere, so ergibt sich die gleiche Konfiguration wie beim Glasfaserleiter und es kann zu einer Totalreflexion kommen. Es spiegelt also nicht die Straße, sondern die Luftschichten darüber. In der Praxis wird das Licht dabei nicht an einer harten Grenze gebrochen, sondern durch die verschiedenen heißen Bereiche der Luft schließlich in Totalreflexion in unser Auge gebogen. Die Abhängigkeit der Wellenlänge im Medium von dessen Brechzahl λ = nλ0λ führt ebenfalls zu dem Phänomen der Dispersion, welches wir im folgenden Kapitel genauer betrachten.

12.4 Die Lochkamera | 221

12.4.4 Polarisation Durch Reflexion oder Doppelbrechung kann auch polarisiertes Licht entstehen. Die Polarisation beschreibt dabei die Schwingungsrichtung einer Transversalwelle. Direktes Sonnenlicht ist zunächst nicht polarisiert, was bedeutet dass es keine bevorzugte Schwingungsebene senkricht zur Ausbreitungsrichtung gibt. Trifft das Licht jedoch auf eine Oberfläche an der es reflektiert wird, so weist das reflektierte Licht eine Polarisation auf. Der in der Reflexionsebene polarisierte Anteil dringt eher in die Oberfläche ein, der dazu senkrechte Anteil wird eher reflektiert. Daher sind teure Sonnenbrillen oft mit Polarisationsfiltern versehen. So filtern die Sonnenbrillen z.B. unerwünschte Lichtreflexionen von Glasscheiben. Diese Sonnenbrillen bzw. die Polarisationsfilter in ihnen haben dabei eine spezifische Ausrichtung. Trägt man eine solche Brille, lässt sich durch seitliches Neigen des Kopfes beeinflussen, welcher Anteil des polarisierten Lichtes das Brillenglas passiert. In der Fotografie werden Polarisationsfilter, oder auch Polfilter gezielt eingesetzt, um Reflexionen zu mindern. Oft wird die Farbreinheit von Laub und Gräsern verbessert, weil der Polarisationsfilter störende (blaue) Reflexe des Himmels teilweise unterdrückt. Diese Filter werden dann frei drehbar vor der Kameralinse angebracht. Derartige Polarisationsfilter werden auch in LCD-Displays verwendet. Zwischen zwei gekreuzten Polfiltern befinden sich Flüssigkristalle, die je nach Ausrichtung die Polarisationsebene des Lichtes verändern und die Filter so lichtundurchlässig werden lassen, denn eine Anordnung von zwei Polarisationsfiltern mit senkrecht zueinander ausgerichteten Polarisationsachsen lässt kein Licht passieren.

Abb. 12.8: Schematischer Aufbau eines Flüssigkristallbildschirms (LCD). Das Licht der Hintergrundbeleuchtung (5) durchscheint senkrecht zueinander stehende Polarisationsfolien (1 und 4). Transparente Elektroden für eine Digitalanzeige oder einzelne Pixel befinden sich in Ebene 2 und der Flüssigkristall der sich je nach Spannung der Elektroden ausrichtet in Ebene 3.

222 | 12 Optik

12.5 Farben Wir ziehen das im vorangegangenen Kapitel beschriebene gleichschenklige Prisma für einen Versuch heran. Ein Lichtstrahl der Sonne trifft auf ein Prisma und lenkt den Lichtstrahl entsprechend ab. Zusätzlich jedoch erscheint statt eines weißen Lichtpunktes ein Streifen in den Regenbogenfarben auf der Wand. Abbildung 12.9 zeigt diese Versuchsanordnung. Bei dieser Stellung des Prismas ist der obere Teil des Farbstreifens rot und der untere bläulich-violett.

Prisma rot orange gelb grün blau violet

Abb. 12.9: Strahlengang eines Lichtstrahls durch ein Prisma.

Weißes Licht enthält also verschiedene Farben. Das Licht der Sonne setzt sich tatsächlich aus allen wahrnehmbaren reinen Spektralfarben (und darüber hinaus) zusammen. Diese Entdeckung wird ebenfalls Isaac Newton zugeschrieben. Theoretisch gibt es unendlich viele Spektralfarben, im täglichen Umgang mit ihnen ist aber oft nur von einer bestimmten, relativ kleinen Anzahl von Spektralfarben die Rede, zum Beispiel von den sechs Regenbogenfarben Rot, Orange, Gelb, Grün, Blau und Violett. Alle Farben unterscheiden sich in ihrer Frequenz beziehungsweise Wellenlänge und zwischen ihnen gibt es einen fließenden Übergang. Tabelle 12.1 listet typische Wellenlängen einiger Hauptfarben auf.

12.5 Farben

| 223

Tab. 12.1: Wellenlängen und Frequenzen einiger Hauptfarben. Name

Wellenlängenbereich

Frequenz

Rot Orange Gelb Grün Blau Violett

700–630 nm 630–590 nm 590–560 nm 560–490 nm 490–450 nm 450–400 nm

430–480 THz 480–510 THz 510–540 THz 540–610 THz 610–670 THz 670–750 THz

Die Konvention auf einzelne Farben und deren Festlegung auf einen Wellenlängenbereich ist absolut willkürlich. Tatsächlich ist die Farbwahrnehmung von Mensch zu Mensch leicht unterschiedlich. Ihnen sind sicher Diskussionen um die Farbe Türkis und dessen Grün- oder Blauanteil bekannt. Teils spielen auch kulturelle Konventionen eine Rolle. Das Farbsehen ist eine reine Leistung des Gehirns welche der Wellenlänge jeweils einen Farbeindruck zuordnet.

Das menschliche Auge hat auf der Netzhaut drei unterschiedliche Arten von sogenannten Zapfen, die das Farbsehen ermöglichen. Jede Zapfenart hat einen spezifischen spektralen Empfindlichkeitsbereich: – S-Zapfen (S für Short) für kürzere Wellenlängen (etwa 400–500 nm). – M-Zapfen (M für Medium) für mittlere Wellenlängen (etwa 450–630 nm). – L-Zapfen (L für Long) für längere Wellenlängen (etwa 500–700 nm). Die höchste Empfindlichkeit der Zapfen liegt bei 420 nm, 530 nm und 560 nm, was in etwa den Grundfarben blau, grün und gelb-rot entspricht. Thomas Young vermutete bereits 1801, dass das Auge auf einzelne Farben empfindlich ist. Er schlussfolgerte das aus der Möglichkeit, alle Farben aus drei Primärfarben zusammensetzen zu können. Hermann Ludwig Ferdinand von Helmholtz (1821-1894) konkretisierte diese Annahme mit der Dreifarbentheorie (1850), welche im Wesentlichen die drei Zapfenarten mit den Empfindlichkeit für blau, grün und rot beschreibt, wie wir sie heute kennen. Trifft Licht auf einen solchen Zapfen oder solch ein Stäbchen, so bewirkt dies chemische Umwandlungen, die nicht instantan erfolgen. Eine gewisse Zeit vergeht, bis diese wieder abklingen. Lichteindrücke haben also eine Nachwirkung. Wir kennen das aus dem Alltag, wenn man in eine besonders helle Lichtquelle geschaut hat. Darauf beruht auch die Tatsache, dass wir einzelne diskrete Lichtpulse ab einer Frequenz von etwa 15–30 Hz als kontinuierlich wahrnehmen. Nur deshalb reicht diese Frequenz bei Filmen oder teilweise LED-Lampen aus. Bewegt man allerdings den Kopf oder auch nur das Auge, so treffen unterschiedliche Pulse auf unterschiedliche Bereiche der Netzhaut und es entsteht schnell eine Art Stroboskopeffekt, was Menschen unterschiedlich stark auffällt. Die Tatsache, dass unser Auge sämtliche Farben als eine Kombination von rot, grün und blau wahrnimmt, führt dazu, dass Farbfernseher und Bildschirme fast das

224 | 12 Optik

42°

Regentropfen

Abb. 12.10: Strahlengang innerhalb eines Regentropfens. Reflexion und Brechung führen zu einem Regenbogen mit charakteristischem Winkel.

gesamte sichtbare Farbspektrum mit nur drei Farbelementen zusammenmischen können. Es handelt sich dabei um die sogenannte additive Farbmischung wie sie für Licht gilt. Aus rot und grün wird gelb. Auch Energiesparlampen und Leuchtstoffröhren nutzen dieses Phänomen aus, indem sie Licht lediglich in diskreten einzelnen Farben abgeben, welche das Auge dann zu einem Weißton mischt. Das jeweilige Mischverhältnis von Blau zu den roten Tönen ist maßgeblich dafür, ob das Licht als „warm“ oder „kalt“ empfunden wird. Dazu mehr im Kapitel 13.3. Das Prisma zerlegt das Sonnenlicht in seine Bestandteile, weil die Ausbreitungsgeschwindigkeit der Lichtwellen im Glas von dessen Brechzahl n abhängt. Dies wird auch als Dispersion bezeichnet. Blaues Licht hat die höchste Frequenz und rotes Licht die niedrigste. Die Brechzahl steigt mit der Frequenz an. n sinkt also mit der Vakuumwellenlänge λ0 (siehe Kapitel 12.4.3). Somit ist die Dispersion für blaues Licht stärker als für rotes Licht und es ergibt sich die Aufspaltung wie in Abbildung 12.9. Auch das Phänomen des Regenbogens lässt sich mit Brechung und Dispersion erklären. Ein Lichtstrahl trifft auf einen Wassertropfen. Beim Eintritt in das dichtere Medium, wird er zum Lot hin gebrochen. Auf Grund der Dispersion ist der Brechungswinkel unterschiedlich für verschiedene Frequenzen. Das bereits aufgefächerte Lichtbündel im Regentropfen wird an der gegenüberliegenden Innenseite zum Teil mit Totalreflexion reflektiert, tritt schließlich wieder aus dem Regentropfen aus und wird an der Grenzschicht Wasser-Luft vom Lot weg gebrochen sowie weiter aufgefächert. Der Winkel zwischen dem ursprünglichen Lichtstrahl und dem durch den Wassertropfen reflektierten Licht beträgt stets etwa 42 ○ . Das heißt, der Regenbogen findet sich in einem Abstand von 42 ○ zum Gegenpunkt der Sonne und hat am Himmel somit immer einen Durchmesser von ≈ 84 ○ . Mehrfachbögen entstehen dadurch, dass das Licht teil-

12.6 Linsen

| 225

weise mehrfach im Tropfen reflektiert wird. Da dabei stets viel Licht „verloren“ geht, fallen diese deutlich schwächer aus. Steht die Sonne höher als 42 ○ über dem Horizont, kann vom Erdboden aus kein Regenbogen gesehen werden! Im Jahr 1800 entdeckte Sir Friedrich Wilhelm Herschel die Infrarotstrahlung, also Licht, welches nicht von unseren Augen wahrgenommen werden kann. Herschel, als Musiker und Astronom bekannt, ließ Sonnenlicht durch ein Glasprisma scheinen, um ein Spektrum zu erhalten. Es entstand der klassische Regenbogenverlauf. Dabei maß er jeweils die Temperatur der Farben mit einem Thermometer, welches er in die unterschiedlichen Farben hielt. Er verwendete drei Thermometer. Eines zur Messung und zwei legte er links und rechts neben das Spektrum als Kontrollmessung. Dadurch stellte er fest, dass nicht nur die Temperaturen von blau zu rot zunahmen, sondern dass er die höchste Temperatur im vermeintlichen Schatten neben dem roten Licht maß. Er erkannte die Ursache dafür in der Strahlung, die wir heute Infrarotstrahlung nennen. Digitalkameras sind in der Regel noch weiter im Infraroten empfindlich als das Auge. Meist kann das gepulste Licht einer Infrarotfernbedienung daher beispielsweise mit einer Handykamera detektiert werden.

Der Abschnitt Chemie in diesem Band befasst sich in Kapitel 9 zur Farbstoffchemie und Fotochemie ebenfalls mit Farben.

12.6 Linsen In diesem Abschnitt befassen wir uns mit Linsenoptik und einfachen Linsensystemen. Die älteste eindeutige Beschreibung von Brenngläsern ist ein Theaterstück des griechischen Dichters Aristophanes, das 423 v.u.Z. uraufgeführt wurde. Plinius der Ältere erwähnt in einem seiner Werke (etwa im Jahre 60 n.u.Z.), dass Kaiser Nero zur Korrektur seiner Kurzsichtigkeit bereits einen Smaragd verwendete. Auch der römische Philosoph Seneca beschrieb das Phänomen, dass Gegenstände, die durch mit Wasser gefüllte Glaskugeln betrachtet werden, vergrößert erscheinen. Optische Linsen finden in unzähligen Geräten und Gebieten Anwendung. Im Rahmen dieser Buchreihe beschränken wir uns auf die Vermittlung grundlegender Prinzipien und verweisen für tiefergehende Betrachtungen auf einschlägige Literatur. Die einfachste symmetrische Linsenform ist die „dünne Linse“, welche entweder konvex (lateinisch convexus ‚gewölbt, gerundet‘) oder konkav (lateinisch concavus ‚ausgehöhlt‘) sein kann. Bei konvexen Linsen spricht man auch von Sammellinsen. Sie verkleinern den Öffnungswinkel von einfallenden Lichtbündeln. Konkave Linsen hingegen vergrößern diesen Öffnungswinkel und man spricht von Zerstreuungslinsen. Als optische Achse beschreibt man die Linie senkrecht zur Linsenmitte. Eine einfache Linse verhält sich rotationssymmetrisch um diese Achse. Dabei kann man sich jeden Teil einer Sammellinse wie ein separates Prisma vorstellen (siehe Abbildung 12.11). Man erkennt, dass jeder Strahl durch die zweimalige Brechung in Richtung der optischen Achse gebrochen wird. Der Lichtstrahl, der direkt durch die Linsenmitte führt, wird dabei lediglich ein wenig verschoben, ohne seine Richtung zu ändern, wie in der Ab-

226 | 12 Optik

M

Abb. 12.11: Eine dünne Linse kann als Aneinanderreihung einzelner Prismen genähert werden.

bildung 12.11 dargestellt. Wenn wir von „dünnen Linsen“ sprechen, meinen wir eigentlich Linsen ganz ohne reale Ausdehnung, so dass auch diese Verschiebung verschwindet. Alle Eigenschaften in Bezug auf die Gesamtbrechung des Lichtes bleiben erhalten, aber werden in der Regel als ein einzelner Brechungspunkt innerhalb der Linse dargestellt, statt korrekt das Verhalten an beiden Außenflächen zu beschreiben.

12.6.1 Brennpunkt Fallen parallele Lichtstrahlen auf eine dünne Linse, so werden alle eingehenden Strahlen hinter der Linse in einem Punkt gebündelt. Je weiter die Lichtstrahlen von der optischen Achse entfernt auf die Linse auftreffen, desto größer ist die Krümmung der Linse und desto stärker fällt die Brechung aus. Dieser Punkt, in dem alle Strahlen gebündelt werden, wird als Brennpunkt F bezeichnet. Die Entfernung des Brennpunktes von der Linsenmitte bezeichnet man als Brennweite f . Die dünne Linse ist im einfachsten Fall beidseitig symmetrisch, das heißt, sie weist in beide Richtungen die selbe Brennweite f auf. Somit gilt auch, dass Lichtstrahlen, welche im Brennpunkt einer Linse radial von einer Punktquelle ausgesendet werden (und die Linse treffen), hinter der Linse zu parallel laufenden Strahlen werden. Betrachtet man nun Lichtstrahlen, welche zwar zueinander parallel verlaufen, auf die Linse aber mit einer gewissen Neigung zur optischen Achse treffen, so stellt man fest, dass auch diese Lichtstrahlen in einem Punkt gebündelt werden, aber nicht wie zuvor bei den achsparallelen Strahlen im Brennpunkt F (siehe Abbildung 12.12, rechts). Der pro-

12.7 Abbildungen | 227

f Brennweite

f Brennweite

F P Brennpunkt F Brennebene

Abb. 12.12: Brennpunkt F und Brennweite f einer dünnen Sammellinse.

jizierte Abstand zur Linse ist nach wie vor die Brennweite f . Man spricht von einer Brennebene, auf der nun auch der Punkt P liegt. Nehmen wir uns erneut das Beispiel der Sonne wie schon zuvor bei der Lochkamera. Jeder Punkt auf der Sonnenoberfläche, der zu uns gerichtet ist, sendet ein Lichtbündel auf unsere Linse. Alle Lichtbündel haben auf Grund der Entfernung zur Sonne nur sehr kleine Winkel zur optischen Achse und bündeln sich jeweils zu einem Punkt in der Brennebene. So entsteht nun auf der Brennebene ein ausgedehntes Bild der Sonnenscheibe. Man spricht auch von der Bildebene.

12.7 Abbildungen Generell lassen sich einige Beobachtungen beim Verhalten der Lichtbündel, welche letztlich ein Bild auf der Bildebene erzeugen, zusammenfassen. Die drei wesentlichen Gesetzmäßigkeiten lauten: 1. Der Mittelpunktstrahl tritt unabgelenkt durch die Linse. 2. Jeder achsenparallele Strahl läuft durch den Brennpunkt auf der gegenüberliegenden Linsenseite. Er heißt Brennstrahl. 3. Jeder Brennstrahl verlässt die Linse als Parallelstrahl. Anhand von Abbildung 12.13 können diese Abbildungsgesetze erläutert werden. Vor der Linse befindet sich ein Gegenstand mit der Gegenstandsgröße G. Sein Abstand zur Linse wird als Gegenstandsweite g bezeichnet. Die Linse erzeugt ein auf dem Kopf stehendes Bild des Gegenstandes. Der Abstand des Bildes der Bildgröße B zur Linse wird als Bildweite b bezeichnet. Die Bezeichnungen von Gegenstand und Bild sind dabei analog zueinander. Aus der Abbildung 12.13 und der geometrischen Anordnung der Strahlengänge ergibt sich aus der Ähnlichkeit der beiden schraffierten Dreiecke das erste Abbildungsgesetz: B b = . (12.5) G g

228 | 12 Optik

Gegenstandsweite g

Bildweite b Brennweite f

G

F’ F

B

Abb. 12.13: Bildentstehung an einer Linse.

Ähnlichkeitssatz: Zwei Dreiecke sind zueinander ähnlich, wenn sie in zwei (und somit in allen drei) Winkeln übereinstimmen. Dann stimmen sie auch in allen Verhältnissen entsprechender Seiten überein.

Das Verhältnis von GB wird auch als Seitenvergrößerung der Abbildung bezeichnet. Das zweite Abbildungsgesetz stellt eine Beziehung zwischen der Gegenstandsweite g, der Bildweite b und der Brennweite f her: 1 1 1 + = . g b f

(12.6)

Aus Gleichung 12.6 lassen sich einige interessante Spezialfälle unmittelbar ableiten: g≫f



b=f

(12.7)

g = 2f



b = 2f

(12.8)

g=f



b≫f

(12.9)

Darin findet sich auch das eingangs genannte Beispiel der Abbildung der Sonne wieder. Hier war die Gegenstandsweite g sehr groß und somit wesentlich größer als die Brennweite f . Es ergibt sich mit Gleichung 12.7, dass das Bild der Sonne in der Brennebene f der Linse entsteht. Zusammen mit Gleichung 12.5 ergibt sich auch sofort, dass die Bildgröße G dann allein durch die Brennweite f bestimmt wird.

12.7 Abbildungen | 229

12.7.1 Zerstreuungslinsen Wir gehen nur kurz auf Zerstreuungslinsen ein. Eine solche Linse ist konkav gekrümmt. Auch hier kann man sich einzelne Prismen zur Näherung vorstellen. Nun stehen die Prismen aber im Vergleich zur konvexen Sammellinse auf dem Kopf und jeder parallel zur Achse einfallender Strahl wird nach außen gebrochen und divergiert. Verlängert man diese divergierenden Strahlen aber auf der Seite der Linse, auf die die Lichtstrahlen ursprünglich treffen, so bündeln sich diese gedachten Strahlen in einem Punkt, der den negativen Abstand der Brennweite f zur Linse hat. Man spricht von einem virtuellen Brennpunkt. Analog ordnet man einer Zerstreuungslinse eine negative Brennweite −f zu. Für Zerstreuungslinsen gilt: Liegt eine Zerstreuungslinse derart in einem Strahlenkegel, so dass sich die Lichtstrahlen ohne Linse in der virtuellen Brennebene der Linse treffen würden, so verlaufen die Strahlen nach Durchgang durch die Zerstreuungslinse parallel zueinander. Abbildung 12.14 stellt diese Bedingung dar.

-f Brennweite

virtuelle Brennebene

Abb. 12.14: Strahlengang bei einer Zerstreuungslinse.

12.7.2 Abbildungsfehler Im Zusammenhang mit Medientechnik interessant sollten die Abbildungsfehler sein, welche sich durch Linsensysteme unweigerlich ergeben. Im Folgenden gehen wir auf die drei deutlichsten Fehler und ihre Ursachen ein.

230 | 12 Optik Chromatische Aberration Als chromatische Aberration bezeichnet man klassische Farbfehler. Jedes von einer einfachen Linse erzeugte Bild weist farbige Ränder auf. Dies ist unmittelbar durch den Umstand zu erklären, dass die Brechzahl und somit die Ablenkung des Lichtes von der Frequenz des Lichtes abhängt. Blaues Licht wird stärker gebrochen als rotes Licht (vergleiche Kapitel 12.5). Daher besitzen unterschiedliche Farben auch unterschiedliche Brennpunkte bzw. Brennebenen. Einfache Linsensysteme weisen dieses Phänomen grundsätzlich auf. Erst mit der Kombination unterschiedlicher Linsen kann dem entgegengewirkt werden. Im Allgemeinen kombiniert man eine Konvexlinse mit einer Konkavlinse aus unterschiedlichem Material und somit anderer Brechzahl in Abhängigkeit der Wellenlänge – einen sogenannten Achromaten – für ein Bild ohne Farbfehler. Sphärische Aberration Öffnungsfehler werden als sphärische Aberration bezeichnet. Parallelstrahlen, die in größerem Abstand zur optischen Achse auf eine Linse treffen, weisen häufig einen leicht anderen Brennpunkt als achsennahe Strahlen auf. Dieser Effekt tritt auch bei Kamerobjektiven auf, wenn die Blendenöffnung recht groß gewählt ist. Eine einfache Maßnahme gegen sphärische Aberration ist das Abblenden, wodurch die äußeren Bereiche der Linse nicht mehr beschienen werden. Allerdings geht dabei ein nennenswerter Anteil des Lichtes verloren und das Bild wird entsprechend dunkler. Alternativ hilft auch hier eine geschickte Kombination unterschiedlicher Linsen. Astigmatismus Treffen Strahlenbündel schräg auf eine Linse auf, so bündeln sie sich nicht in einem Brennpunkt hinter der Linse, sondern es entsteht durch die Verzerrung eine Brennlinie. Somit ergibt sich vor und hinter den beiden Brennebenen statt eines Kreises ein Oval, da jedes Strahlenbündel einer Ebene zur Ellipse wird und in jedem Punkt einen anderen Öffnungswinkel hat. Die Hornhautverkrümmung, die man teilweise beim menschlichen Auge beobachtet, bringt denselben Effekt hervor und kann inzwischen mit entsprechenden Optiken korrigiert werden.

12.7.3 Das Auge Das menschliche¹⁰ Auge ist ein erstaunlich komplexes System welches sich im Laufe der Evolution immer weiter spezialisiert hat. 10 Die Augen von Tieren unterscheiden sich in Aufbau und Funktionalität teilweise erheblich. Die ersten Tiere mit Linsenoptik als Auge waren Trilobiten mit sogenannten Facettenaugen vor etwa 500 Millionen Jahren.

12.7 Abbildungen | 231

H

K

L

G

bF

P J

Abb. 12.15: Das menschliche Auge.

Der Aufbau unseres Auges ist in Abbildung 12.15 schematisch dargestellt. Das auf das Auge treffende Licht passiert zunächst die Hornhaut H, dabei handelt es sich um eine gekrümmte, durchsichtige, dünne Schicht. Es folgt ein mit Flüssigkeit gefüllter Bereich, die vordere Kammer K. Dahinter steht die konvexe Linse L aus elastischem Material, gefolgt von dem durchsichtig gefüllten Glaskörper G, welcher den Großteil des Augapfels ausmacht. Vor der Linse steht die Iris J mit ihrer kreisförmigen Pupillenöffnung P. Sowohl die Linse also auch die Iris können durch Muskelkraft beeinflusst werden. Durch Stauchung der elastischen Linse wird deren Brennweite verändert und durch Schließen der Pupille wird die einfallende Lichtmenge je nach Bedarf angepasst. Sie erfüllt dieselbe Aufgabe wie die Blende bei einer Fotokamera. Gegenüber der Linse befindet sich auf der Innenseite des Glaskörpers die Netzhaut, auch Retina genannt. Abbildung 12.15 markiert ebenfalls den sogenannten „Blinden Fleck“ bF, an welchem der Sehnerv, der Auge und Gehirn verbindet, eintritt. An dieser Stelle ist die Netzhaut lichtunempfindlich, während die Netzhaut ansonsten von unzähligen lichtempfindlichen Zapfen und Stäbchen bedeckt ist, die uns das Farbsehen sowie die optische Wahrnehmung bei Dunkelheit erlauben (siehe auch Kapitel 12.5). An einem hellen Sonnentag schließt sich die Iris und die Pupille verkleinert sich, um die Netzhaut vor zu viel Sonnenstrahlung zu schützen. Insbesondere das energetischere UV-Licht, welches ebenfalls von der Linse gebündelt wird, kann die Zäpfchen und Stäbchen der Netzhaut ernsthaft und nachhaltig schädigen. Dies ist der Grund, weshalb auch bei Sonnenfinsternissen dringend davon abgeraten wird, direkt in Richtung Sonne zu schauen, da auch die Bereiche außerhalb der sichtbaren Sonnenscheibe noch UV-Strahlung aussenden. Die Gefahr einer Schädigung der Netzhaut vergrößert sich zusätzlich durch den Umstand, dass sich die Pupille auf Grund der scheinbaren Dunkelheit bei einer Sonnenfinsternis erweitert und somit noch mehr Licht ins Auge lässt. Das gleiche Problem ergibt sich

232 | 12 Optik bei Sonnenbrillen ohne hinreichenden UV-Schutz. Das dunklere Bild veranlasst das Auge dazu, die Pupille zu weiten, wodurch mehr UV-Strahlung als ganz ohne Sonnenbrille die Netzhaut erreicht.

Die Netzhaut fungiert als Projektionsfläche für die Linse, hier muss das Gegenstandsbild (siehe Kapitel 12.7) für scharfes Sehen liegen. Im Auge wird das Licht dreimal gebrochen: an der Hornhaut (welche wir als sehr dünn annehmen können, so dass nur eine einzelne Brechung stattfindet), an der Außenseite der Linse und an deren Innenseite. Die Brennweite dieses Systems beträgt im Inneren des Auges etwa 2,28 cm. Das entspannte normale Auge ist praktisch auf die Entfernung „unendlich“ fokussiert. Das bedeutet, dass parallel eintreffende Strahlen genau auf der Netzhaut ihre Brennebene haben. Ferne Objekte werden also scharf abgebildet. Normalsichtige Menschen müssen sich also nicht anstrengen, um Mond oder Sterne scharf sehen zu können. Die Brennebene näher liegender Objekte liegt dann hinter der Netzhaut. Durch Anspannung eines Muskels (Ziliarmuskel) kann die Linse jedoch verformt werden. Sie ist im Grunde ein mit durchsichtiger Flüssigkeit gefüllter Körper. Normalerweise versucht die Linse, sich in alle Richtungen gleichmäßig auszudehnen, also eine kugelförmige Gestalt einzunehmen. Wenn der Ziliarmuskel entspannt ist, liegt er relativ nahe an der Augenaußenseite. Die Fasern, welche die Linse halten, sind dann stramm gespannt, wodurch die Augenlinse in die Länge gezogen wird. Durch Anspannung des Ziliarmuskels entspannt sich die Linse also und dehnt sich in Richtung Kugelgestalt. In diesem Zustand ist die Brechkraft der Linse größer – man kann Dinge in der Nähe gut erkennen. Ein normales Auge vermag so Gegenstände bis auf eine Nähe von 15 cm scharf abzubilden. Über längere Zeit liegt das Limit eher bei 25 cm, da der Muskel ansonsten ermüdet. Weit verbreitet sind die Phänomene der Kurz- oder Weitsichtigkeit. Bei dem kurzsichtigen Auge liegt der Brennpunkt im entspannten Zustand noch vor der Netzhaut. Entweder weil der Augapfel etwas verlängert ist, oder die Linse in der Ruhelage bereits eine zu hohe Brechkraft aufweist. Damit das Auge parallel einfallende Lichtstrahlen noch auf der Netzhaut zu bündeln vermag, wird eine Korrekturbrille verwendet. Um Kurzsichtigkeit auszugleichen, werden bei den Brillengläsern dann konkave Zerstreuungslinsen verwendet. Ist ein Mensch weitsichtig, so hat das Auge die Fähigkeit, die Linsenbrechkraft zu erhöhen, verloren oder sie liegt zumindest vermindert vor. Dies wird dann durch eine Brille mit konvexen Sammellinsen ausgeglichen, welche das Nahsehen ermöglichen. Zum Fernsehen muss die Brille dann abgenommen werden. Es gibt allerdings auch Brillengläser, die Zonen unterschiedlicher Brechkraft aufweisen, so dass in der Regel der untere Bereich der Brille als Sammellinse fungiert, während der obere Bereich keine oder gar eine konkave Krümmung aufweist. Abbildung 12.16 veranschaulicht den Strahlengang mit und ohne Korrekturbrillen für diese beiden Fälle.

12.7 Abbildungen | 233

kurzsichtiges Auge

weitsichtiges Auge

kurzsichtiges Auge mit Brille

weitsichtiges Auge mit Brille

Abb. 12.16: Kurz- und Weitsichtigkeit.

12.7.4 Das Auflösungsvermögen Das Auflösungsvermögen gibt an, in welchem Abstand man zwei benachbarte Objekte oder Punkte noch voneinander trennen kann. Es beschreibt also den kleinsten Winkel – vom Auge aus gesehen – unter dem Objekte noch getrennt wahrgenommen werden. Offensichtlich ist eine Trennung nur dann möglich wenn die Bilder beider Objekte auf mindestens zwei getrennte Zapfen auf der Netzhaut fallen. Der Zapfenabstand ist mit 0,004 mm in der Mitte der Retina am kleinsten. Zwei Striche auf einem Blatt Papier werden also nur dann getrennt wahrgenommen, wenn deren Bilder auf der Netzhaut mindestens diesen Abstand haben. Für die Konfiguration des menschlichen Auges ergibt sich, dass zwei Striche, die 1 mm voneinander entfernt sind, bis zu einem Abstand von 3 m aufgelöst werden. Der kleinste Winkel beträgt also etwa 0,5–1 Bogenminute (= 1/60 Grad). Das Auflösungsvermögen des Hubble-Weltraumteleskops beträgt etwa 0,05 Bogensekunden, also etwa das 1200-fache des menschlichen Auges. Häufig liest man als Angabe der Auflösung auch den Begriff dpi für „dots per inch“, Punkte pro Zoll, oder ppi für Pixel pro Zoll. Dies gibt lediglich die Packdichte der Bildpunkte pro Zoll (2,54 cm) an. Hat ein Display beispielsweise 320 ppi, so sind bereits bei einem Abstand von mehr als 25 cm keine einzelnen Bildpunkte mehr erkennbar. Da man ohnehin

234 | 12 Optik nicht wirklich näher als 15 cm fokussieren kann, erscheinen Punktdichten von mehr als etwa 600 ppi nicht sinnvoll.

12.7.5 Die Kamera Eine Fotokamera beziehungsweise ihr Objektiv ist ein klassisches Linsensystem. In der einfachsten Form ähnelt es dem Aufbau in Abbildung 12.17. Das Objektiv erzeugt ein umgekehrtes verkleinertes Bild, welches auf einem Film oder einem CCD-Element aufgefangen wird. Ist das Motiv sehr weit entfernt, ist die Gegenstandsweite g also sehr viel größer als die Brennweite f , so entsteht das Bild in der Brennebene (siehe auch Gleichungen 12.7 bis 12.9). Wird die Gegenstandsweite g kleiner, so steigt die Bildweite b an. Es gilt: b=

f ⋅g . (g − f )

(12.10)

Das Objektiv mit seiner Linse muss also nach vorne geschoben werden. Diese Bewegung ist bei Objektiven nicht immer unmittelbar einzusehen. Die Mechanik zum Ausfahren der Linse beschränkt dabei (neben der Abbildungsqualität) die für Nahaufnahmen nutzbare Entfernung. Zu einer festen Gegenstandsebene gehört immer genau eine feste Bildebene. Also nur Objekte in einer spezifischen Entfernung können wirklich scharf abgebildet werden. Die Auflösung einer Fotografie ist aber ohnehin durch die Körnung des Filmmaterials oder die Größe der CCD-Pixel limitiert, so dass stets ein gewisser Tiefenbereich als scharf wahrgenommen wird. Je tiefer der Bereich ist, der gleichzeitig noch hinreichend scharf abgebildet werden kann, desto größer ist die Schärfentiefe (siehe auch Kapitel 12.4.1). Die Schärfentiefe bestimmt sich über das Verhältnis des abbildenden Durchmessers der Linse d zu ihrer Brennweite f . Wir nehmen an, dass für einen näher liegenden Gegenstand das Bild hinter die eigentliche Brennebene des Objektivs fällt. Den Abstand zur Brennebene bezeichnen wir als a. Ein einzelner Gegenstandspunkt erzeugt dann keinen scharfen Punkt auf dem Film, sondern einen kleinen Kreis mit Durchmesser k. Den Durchmesser der Blendenöffnung bezeichnen wir als d. Abbildung 12.17 gibt diese Situation wieder. Für eine Brennweite f gilt dann über die Betrachtung ähnlicher Dreiecke: a k = . d (a + f )

(12.11)

Wenn a im Verhältnis zu f klein ist, gilt vereinfacht: k=

a⋅d . f

(12.12)

Der Unschärfekreis wird also kleiner, wenn wir eine größere Brennweite oder kleinere Blendenöffnung wählen. Dies resultiert aus einer rein geometrischen Betrachtung. Die Schärfentiefe ist proportional zu f ⇑d.

12.7 Abbildungen | 235

Eine große Schärfentiefe reduziert aber die Helligkeit des Bildes. Die einfallende Lichtmenge wird durch die Blende begrenzt. Die Blendenöffnung ist proportional zum Quadrat des Durchmessers d. Die Helligkeit des Bildes in der Brennebene ist umgekehrt proportional zur Bildfläche b2 . Bei einer Kamera ist die Bildweite b in etwa gleich der Brennweite f , so dass die Bildhelligkeit proportional zu (d⇑f )2 ist. Sie verhält sich also genau umgekehrt wie die Schärfentiefe. Das Prinzip der erhöhten SchärBlende

Brennebene

Bildebene

+ Fotofilm

d

k f

a

Abb. 12.17: Blendenöffnung und Tiefenschärfe.

fentiefe bei sehr kleiner Blendenöffnung kommt auch bei der sogenannten Lochbrille zum Tragen (siehe Abbildung 12.18). Die Lochbrille ist kein ernstzunehmender Ersatz für echte Korrekturbrillen, demonstriert aber spielerisch das Prinzip der sogenannten stenopäischen Lücke. Die einzelnen Löcher wirken jeweils wie eine starke Lochblende. Dadurch verkleinern sich die Zerstreuungskreise auf der Netzhaut und die Schärfentiefe beim Sehen wird erhöht. Dies hat allerdings keinen besonders großen praktischen oder medizinischen Nutzen.

12.7.6 Das Teleskop Als drittes Beispiel für ein optisches Instrument nach Auge und Kamera wollen wir kurz das Teleskop vorstellen. Als erstes Teleskop gilt das Galilei-Fernrohr, das 1608 erfunden und dann ab 1610 von Galileo Galilei weiterentwickelt und verwendet wurde. Bereits einige Jahre später wurden die schärferen Kepler-Fernrohre konzipiert. Linsenteleskope wurden bis etwa 1900 immer größer und lichtstärker gebaut. In Paris und Potsdam wurden 1893/99 solche Linsenteleskope oder auch Refraktoren (von Refraktion, Brechung) mit 80/60 cm Apertur oder Öffnungsweite errichtet und der Höhenflug

236 | 12 Optik

Abb. 12.18: Das Prinzip der stenopäischen Lücke am Beispiel einer Lochbrille.

der Spektroskopie (siehe Kapitel 13.3) begann. Mit diesen Durchmessern stieß man aber auf die Grenzen des Materials bei der Herstellung präziser Linsen, die anfingen sich unter ihrer eigenen Last zu verformen. Man begann dann zunehmend Spiegelteleskope zu bauen, bei denen ein großer Hohlspiegel statt einer Linse das Licht bündelt. Die Prototypen dieser Spiegelteleskope wurden bereits um 1670 von Laurent Cassegrain und – wie könnte es anders sein – Isaac Newton entworfen. Noch heute werden beide Bauarten verwendet und man spricht von Cassegrain- oder Newtonteleskopen. Im Folgenden beschränken wir uns aber auf die beiden ersten Fernrohrtypen. Beim Galilei-Fernrohr passiert das Licht zunächst eine Sammellinse und dann eine Zerstreuungslinse. Abbildung 12.19 zeigt den Strahlengang: Das parallel einfallende Licht wird zunächst gebündelt, aber noch vor dem Brennpunkt der ersten Linse durch eine konkave Linse wieder zu einem parallel verlaufenden Lichtbündel zerstreut. Das Bild erscheint aufrecht und das Fernrohr ist insgesamt recht kurz (die Differenz der beiden Brennweiten f1 − f2 ). Da diese Bauart auch Verwendung bei den sogenannten Operngläsern fand, wird es auch teilweise als solches bezeichnet. Am Strahlengang erkennt man die Vergrößerung unmittelbar. Ein entscheidender Nachteil dieser Bauweise lag allerdings in dem sehr eingeschränkten Gesichtsfeld. Strahlen die nicht achsparallel verlaufen, werden explizit vom Auge weggestreut. Beim Kepler-Fernrohr hingegen werden zwei Sammellinsen unterschiedlicher Brennweiten auf ihrer gemeinsamen optischen Achse so ausgerichtet, dass ihre Brennpunkte aufeinander fallen. Abbildung 12.20 zeigt den Strahlengang. Das resultierende Bild steht bei diesem Bautyp auf dem Kopf, was bei astronomischen Beobachtungen nicht weiter stört (wenn es auch bei Hobbyastronomen immer wieder Verwirrung stiftet). Dieses ist auch die klassische Bauweise einfacher, kleinerer Teleskope mit wenigen Zentimetern Durchmesser. Sobald man zwei unterschiedlich starke Linsen oder Lupen zur Hand hat, kann man diese vor sich hintereinander halten und als Fernrohr einsetzen.

12.7 Abbildungen | 237

f1

f2

Brennebenen

Abb. 12.19: Strahlenverlauf im Galilei-Fernrohr.

Die Vergrößerung V des Fernrohrs ergibt sich unmittelbar aus dem Verhältnis der Brennweiten beider Linsen: f1 V= . (12.13) f2 Dabei ist f2 die geringere Brennweite der Linse unmittelbar vor dem Auge des Beobachters. In der Umsetzung ist diese in der Regel austauschbar und wird als Okular bezeichnet. Es gilt also, dass eine niedrige Brennweite des Okulars zu einer stärkeren Vergrößerung führt. Ungleich relevanter als die Vergrößerung ist für astronomische Beobachtungen aber oftmals die Lichtstärke eines Teleskops, welches sich durch den Durchmesser beziehungsweise die Öffnung des Teleskops bestimmt. Eine weitere entscheidende Größe ist das Auflösungsvermögen eines Teleskops. Der minimale Winkel ϕ zwischen zwei im Teleskop noch zu unterscheidenden Objekten hängt vom Durchmesser D der Teleskopöffnung und der Wellenlänge λ des betrachteten Lichtes ab und ist durch folgenden Zusammenhang gegeben: sin ϕ = 1, 22

λ λ 1cm ∼ 2, 54“ ⋅ ⋅ . D 100nm D

(12.14)

Dies stellt die theoretische Begrenzung durch Beugungserscheinungen dar. Bestimmt man daraus ebenfalls das maximale Auflösungsvermögen des Auges im sichtbaren Licht (ca 500 nm) und bei einer Pupillenöffnung von 0,5 cm, ergibt sich ein Grenzwinkel von etwa 25 “ (Bogensekunden), was im Bereich der maximalen Auflösung von 0,5–1 Bogenminuten liegt, die wir über die Zäpfchendichte der Netzhaut bestimmt haben. Es ist wenig überraschend, dass Netzhaut und Pupille ideal aufeinander abgestimmt sind.

238 | 12 Optik

f1

f2

Brennebenen

Abb. 12.20: Strahlenverlauf im Kepler-Fernrohr.

Abb. 12.21: Der 1899 in Potsdam in Betrieb genommene und noch funktionstüchtige „Große Refraktor“ auf dem Telegrafenberg. Das fotografische Fernrohr besitzt ein Objektiv von 80 cm Durchmesser mit einer Brennweite von etwa 12 m.

12.7 Abbildungen | 239

Abb. 12.22: Politur des 2,40 m großen Hauptspiegels des Hubble-Weltraumteleskops in 1979.

Abb. 12.23: Zeichnung des von Newton entworfenen Spiegelteleskops (ca. 1670).

13 Beugung und Interferenz Im vorangegangenen Kapitel stellten wir fest, dass das Auflösungsvermögen eines Teleskops durch Beugungserscheinungen des Lichtes begrenzt ist. Wir treffen hier also auf ein Phänomen, welches wir bereits von Wellen auf der Wasseroberfläche oder Schallwellen kennen (siehe Kapitel 8.3.6). In diesem Kapitel begegnen uns nun die Welleneigenschaften des Lichtes, während wir zuvor vor allem auf geometrische Optik eingegangen sind. Wir beschränken uns im Folgenden aber auf erfahrbare Phänomene der Wellenoptik. Vollständig analog zu den Wasserwellen lässt sich die Beugung auch bei Lichtwellen über die Interferenz von Wellen gleicher Wellenlänge beschreiben.

13.1 Interferenz Interferenz ist eine elementare Eigenschaft von Wellen, wie wir bereits gesehen haben. Ein Nachweis von Interferenz bei Licht wäre ein direkter Beweis der Wellennatur von Licht. Bei Lichtwellen spielt sich allerdings alles in anderen Größenordnungen ab. Ein einfaches Beispiel, an dem die Interferenz von Licht sichtbar wird, sind dünne, teildurchlässige Schichten, an denen Licht reflektiert wird. Man kennt die bunten Farben auf einem dünnen Ölfilm oder die farbenfrohen Schlieren auf einer Seifenblase. Wie es zu dieser Erscheinung kommt, lässt sich tatsächlich mit der Wellennatur des Lichtes erklären. Abbildung 13.1 zeigt den Verlauf der Lichtwellen in solch einem Fall. Betrachten wir zunächst Licht einer einzigen Farbe oder auch Wellenlänge. Es wird als monochromatisch bezeichnet. Diese Welle trifft nun auf die Grenzschicht von Luft und Öl und wird zum Teil entsprechend ihres Eingangswinkels reflektiert. Ein Anteil des Lichtes dringt aber in den Ölfilm ein und wird entsprechend zum Lot hin gebrochen (siehe Kapitel 12.4.3). An der Innenseite des Ölfilms wird es erneut reflektiert und gebrochen. Wir verfolgen lediglich den reflektierten Teil weiter, bis die Welle schließlich wieder die Grenzfläche zwischen Öl und Luft erreicht. Auch hier wird ein Teil reflektiert (gestrichelte Linie) und ein Teil vom Lot weg ins dünnere Medium Luft gebrochen. Der Lichtstrahl hat seine alte Richtung erlangt, da ja jeweils mit gleichen Brechungszahlen in beide Richtungen gebrochen wurde. Was sich aber entscheidend geändert hat, ist die Phase der monochromatischen Lichtwelle. Im Beispiel ist die Schichtdicke des Ölfilms gerade so ausgewählt, dass das austretende Licht gegenüber einer einfach reflektierten Welle einen Gang- oder Phasenunterschied von π hat. Es treffen also Maximum auf Minimum und umgekehrt. Das Licht interferiert destruktiv, es löscht sich aus. Diese destruktive Interferenz tritt immer genau dann auf, wenn der Phasenunterschied ein ganzes Vielfaches der halben Wellenlänge betrifft. Es gelten exakt die gleichen Bedingungen wie für mechanische Wellen (siehe Kapitel 8.2). Strahlt man weißes Licht auf einen solchen dünnen Ölfilm, so werden abhängig von der Schichthttps://doi.org/10.1515/9783110496277-021

13.1 Interferenz |

1

2

1

1+2

241

2

Abb. 13.1: Interferenz einzelner Wellenlängen an dünnen Schichten wie beispielsweise einem Ölfilm.

dicke, dem Blickwinkel und der Wellenlänge einzelne Farben ausgelöscht, so dass das weiße Licht seine Farbe entsprechend ändert. Interferiert gerade blaues Licht destruktiv, so detektiert das Auge nach wie vor grünes und rotes Licht, so dass das einst weiße Licht nun einen gelb-orangenen Farbeindruck macht. Nicht nur Seifenblasen und Ölfilme erzeugen diesen Effekt, auch im Tierreich findet man diesen eindrucksvoll. Die Schmetterlingsflügel des Großen Schillerfalters weisen sehr komplexe Oberflächenstrukturen auf. Ein Geflecht aus Netzen und Rillen endet in tannenbaumartigen Filamenten in der Größenordnung von einigen hundert Nanometern (nm) und somit im Bereich der Wellenlängen sichtbaren Lichtes. Die Äste dieser baumartigen Verstrebungen sind lichtdurchlässig und lassen den roten und gelben Anteil des Lichtes destruktiv interferieren. Übrig bleibt ein strahlend schillerndes Blau. Der grün schillernde Schmetterling „Papilio palinurus“ stellte Wissenschaftler ebenfalls lange Zeit vor ein Rätsel. Man fand heraus, dass der Schmetterling keinerlei grünes Pigment besitzt. Erst viel später erkannte man, dass die Flügelschuppen des Schmetterlings aus zahlreichen übereinanderliegenden, regelmäßig angeordneten Schichten von Chitin bestehen, die ebenfalls einzelne Farben durch Interferenz auslöschen, so dass das reine Grün übrig bleibt. Auch das Gefieder des Kolibris oder Pfaus beziehen ihre Farbenpracht aus dem Phänomen der Interferenz und sind nicht einfach farbig pigmentiert.

242 | 13 Beugung und Interferenz

13.2 Beugung Wir suchen nun nach einer Möglichkeit die Beugungserscheinungen von Wellen, wie wir sie in Kapitel 8.3.6 beobachtet haben, auch bei Licht nachzuweisen. Statt wie beim Versuch mit dem Wasser einen Spalt in der Größenordnung der Wellenlänge zu erzeugen, greifen wir zunächst auf ein optisches Gitter zurück.

13.2.1 Beugung am Gitter Ein solches Gitter kann man sich als eine Vielzahl paralleler, äquidistanter Spalte vorstellen. Solch ein Gitter lässt sich durch paralleles Einritzen einer Glasplatte erstellen. Die Furchen im Glas blockieren oder streuen das Licht und die frei gebliebenen, schmalen Streifen im Glas fungieren als Spalten. Alternativ wurden solche Gitter oft einfach in fotografischen Verfahren hergestellt, indem man ein Gittermuster mehrfach verkleinert ablichtet. Hinter dieses Gitter positionieren wir eine Sammellinse und in dessen Brennpunkt einen Projektionsschirm. Das Gitter selbst wird von Licht, das durch einen Spalt läuft, angestrahlt. Der Spalt ist so breit, dass keinerlei Beugungserscheinungen auftreten. Abbildung 13.2 zeigt den Aufbau und den Strahlengang. Zwei

3 · Δs

g

α

Δs

Abb. 13.2: Interferenz von parallelen Strahlen an einem Gitter.

Strahlen, die benachbarte Gitterspalten durchlaufen haben, werden sich in der Brennebene verstärken, wenn ihr Gangunterschied ∆s gerade ein ganzes Vielfaches ihrer Wellenlänge beträgt (∆s = m ⋅ λ mit m = 0, 1, 2, . . .). Dieser Gangunterschied ist abhängig vom Winkel α zum Bildpunkt auf dem Schirm. ∆s beträgt g ⋅ sin α, wobei g den Abstand der Spalten voneinander bezeichnet und auch Gitterkonstante genannt wird.

13.2 Beugung |

243

Die Bedingung für Lichtverstärkung lautet also: sin α = m ⋅

λ g

mit m = 0, 1, 2, . . .

(13.1)

Für jede Wellenlänge λ ergeben sich also spezifische Winkel α, unter denen Licht dieser Farbe hell auf dem Bildschirm erscheint. Tatsächlich löschen sich Wellen einer Wellenlänge unter jedem anderen Winkel, der nicht Gleichung 13.1 erfüllt, aus. Dies kann man sich leicht veranschaulichen. Man stelle sich vor, dass zwei benachbarte Strahlen einen Gangunterschied von ∆s = 1, 01 ⋅ λ haben. Diese beiden Strahlen verstärken sich dann zwar nach wie vor, aber genau 50 Spalten weiter beträgt der Gangunterschied dann 50, 5λ = 50λ + 0, 5λ und dieses Paar erfüllt nun das Kriterium für destruktive Interferenz. Für den zweiten Strahl gilt das Gleiche: Strahl 52 interferiert ebenfalls destruktiv und so weiter. Für jeden Strahl, der nicht die Bedingung für Verstärkung erfüllt, gibt es einen Partner, der zur Auslöschung führt. Was ist nun letzten Endes auf dem Schirm zu sehen? Zunächst einmal lassen wir das soeben besprochene Gitter weg. Dann erzeugt die Linse ein Bild des Spalts, durch das das Licht anfangs läuft. Der Spalt wird scharf abgebildet. Läuft das Licht jedoch durch das Gitter, so sieht man statt eines Spalts ein breites Band auf dem Bildschirm. Für jeden Winkel vom Gitter zur Linse und somit von der Linse zum Schirm gibt es eine Wellenlänge, die sich an dieser Stelle verstärkt. Und zwar gibt es genau eine Wellenlänge an jeder Stelle, die sich nicht durch Interferenz ausgelöscht hat. Wir erhalten also nebeneinander Bilder des Spalts in unterschiedlichen Farben. Wir sprechen von einem Beugungsspektrum. Anders als bei der Brechung eines Prismas nimmt die Ablenkung hier mit der Wellenlänge zu. Rotes Licht wird also stärker gebeugt als blaues. Dabei tritt jede Farbe entlang des bunten Farbspektrums auf dem Schirm mehrfach auf. Nämlich immer für das Vielfache des in Gleichung 13.1 beschriebenen Winkels α. Diese wiederkehrenden Spektren bezeichnet man als Spektren erster, zweiter und dritter Ordnung. Das Spektrum nullter Ordnung erscheint naturgemäß weiß, da die Bedingung für alle Wellenlängen gleichermaßen erfüllt ist. Spalt, Beugungsgitter und Linse ergeben also bereits einen vollwertigen Spektrografen, der das Licht in seine Farben zerlegt. Kennt man die Gitterkonstante, also den Abstand der Linien auf dem Gitter zueinander, so kann man festen Positionen am Schirm auch feste Wellenlängen zuordnen und somit Spektroskopie betreiben. Die Auflösung eines solchen Spektrografen ist vorrangig durch die Breite des Spalts, welcher abgebildet wird, bestimmt. An jeder Stelle des Schirms wird schließlich die gesamte Spaltbreite abgebildet, so dass sich Spaltbilder unterschiedlicher Wellenlänge stets überlagern. In der Praxis wägt man Auflösungsvermögen und Lichtempfindlichkeit gegeneinander ab. Durch einen besonders schmalen Spalt steht natürlich auch weniger Licht zur Verfügung. Die Farberscheinung auf CDs oder DVDs geht ebenfalls auf Interferenz am Gitter zurück. Die feinen Linien auf dem Datenträger zusammen mit der reflektierenden Beschichtung erzeugen den gleichen

244 | 13 Beugung und Interferenz Effekt. Betrachtet man das Licht einer Gaslampe in einer CD, so erkennt man einzelne Spektrallinien. Unter findigen Amateuren sind selbstgebaute CD-Spektrografen sehr beliebt.

13.3 Spektrum Nachdem wir in Kapitel 13 die Wellennatur des Lichtes experimentell bestätigen konnten und gesehen haben, wie man Licht in seine Bestandteile aufspalten kann, befassen wir uns nun mit einigen spektralen Eigenschaften von Licht. Die Spektroskopie spielt eine besonders große Rolle in der Astrophysik. Das Licht des einzelnen Punktes am Himmel, der bildlich nicht weiter aufgelöst werden kann, lässt sich nun spektral zerlegen und analysieren. Es gibt eine Reihe grundlegender Entdeckungen mit Hilfe der Spektroskopie, die es zum ersten Mal ermöglichte, Farben über das Dreifarbensehen des Menschen hinweg wahrzunehmen und zu differenzieren. Hier nur eine kleine Auswahl: – Josef Fraunhofer erfand die Spektroskopie und entdeckte 1813 die nach ihm benannten Absorptionslinien im Sonnenspektrum. – Christian Doppler postulierte 1842, dass man den Doppler-Effekt (siehe Kapitel 8.3.4) auch beim Licht der Sterne würde beobachten können, was dann auch gelang. – In Sternspektren konnten erstmals Magnetfelder auf der Sonne und hellen Sternen nachgewiesen werden. – Die Schwarzkörperstrahlung wurde entdeckt (siehe Kapitel 13.4). Abbildung 13.3 zeigt das Spektrum von Vegetation. Es verdeutlicht den kleinen Spektralbereich, den das Auge wahrnehmen kann. Das uns dominant grün erscheinende Gras ist ungleich heller im infraroten Bereich, der direkt an unser sichtbares Spektrum anschließt. Viele Tiere sind jedoch in der Lage, diesen Teil des Spektrums wahrzunehmen. Der Frequenzbereich der elektromagnetischen Wellen ist sehr groß im Verhältnis zu dem Wellenlängenbereich, auf den unser Auge anspricht. Tabelle 13.1 listet die in der Natur vorkommenden Wellenlängen auf. Radiowellen, Farben und Röntgenstrahlung sind ein und dasselbe Phänomen und unterscheiden sich ausschließlich in ihrer Wellenlänge und somit ihrer Frequenz und ihrer Energie. In Abbildung 13.4 sehen wir ein typisches Spektrum eines LED-Bildschirms. Man erkennt, dass lediglich drei Halbleitertypen verwendet werden. Die Strahlungsmaxima im Roten, Grünen und Blauen sind möglichst auf das Empfinden der Zapfen im menschlichen Auge abgestimmt, damit die abgestrahlte Leistung auch effizient genutzt wird. Das gleiche Prinzip verfolgen Energiesparlampen. Inzwischen basieren viele der Energiesparlampen ebenfalls auf Leuchtdioden, aber am gebräuchlichsten sind immer noch Lampen, die ihre empfundene Farbe aus einzelnen Strahlungsspitzen – sogenannten Emissionslinien – zusammensetzen. Dies wird durch passgenaue

Refexionsgrad in %

13.3 Spektrum | 245

60 40 20

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

Wellenlänge (Mikrometer)

blau

grün

rot

Abb. 13.3: Spektrum von Vegetation.

400

500

600

Wellenlänge (Nanometer)

Abb. 13.4: Typisches Spektrum von LCD-Bildschirmen.

700

2,0

2,2

246 | 13 Beugung und Interferenz Tab. 13.1: Frequenzbereiche elektromagnetischer Wellen. Frequenzbereich Bezeichnung Niederfrequenz Radiowellen

Terahertz Infrarot

Licht

UV-Strahlen

Frequenz

10–100 km 1–10 km

30–3 kHz 300–30 kHz

100–1000 m

3–0,3 MHz

Langwelle Mittelwelle

Mikrowellen

Wellenlänge

Kurzwelle Ultrakurzwelle Dezimeterwelle Zentimeterwelle Millimeterwelle

10–100 m 30–3 MHz 1–10 m 300–30 MHz 0,1–1 m 3–0,3 GHz 1–10 cm 30–3 Ghz 0,1–1 cm 300–30 Ghz 0,03–3 mm 10 –0,1 THz 0,05–1 mm 6–0,3 THz

Fernes Infrarot Mittleres Infrarot Nahes Infrarot Rot Orange Gelb Grün Blau Violett Nahes UV (A) Mittleres UV (B) Fernes UV (C)

Röntgenstrahlen Gammastrahlen

3–50 μm 0,8–3 μm 640–780 nm 600–640 nm 570–600 nm 490–570 nm 430–490 nm 380–430 nm 315–380 nm 280–315 nm 10–280 nm 0,01–10 nm 10 pm

100–6 THz 385–100 THz 468–384 THz 500–468 THz 526–500 THz 612–526 THz 697–612 THz 789–697 THz 952–789 THz 1,1–0,9 PHz 2,5–1 PHz 30–0,03 EHz 30 EHz

Energie Anwendung > 12 peV Funknavigation > 120 peV Induktionskochfeld > 1,2 neV Kurzwellenrundfunk > 12 neV RC-Modellbau > 120 neV Radar, Hörfunk > 1,2 μeV Mikrowelle > 12 μeV WLAN > 120 μeV Radioastronomie > 0,4 meV Körperscanner > 1,2 meV Molekülschwingungen > 25 meV Thermografie > 0,5 eV Fernbedienung 1,59–1,93 eV Wärmestrahler 1,93–2,06 eV 2,06–2,17 eV 2,17–2,53 eV 2,53–2,88 eV 2,88–3,26 eV 3,26–3,94 eV 3,94–4,43 eV 4,43–120 eV > 120 eV med. Röntgen > 120 keV Kernzerfall

Gasgemische erreicht, welche dann zum Leuchten angeregt werden (siehe Abbildung 13.5). Wie es zur Emission einzelner Wellenlängenbereiche kommt, erläutern wir in Kapitel 14. Die genaueren Verhältnisse von Rot-, Grün- und Blauanteil ergeben dann ein gefühlt wärmeres oder kälteres Licht. Es hat sich etabliert, dass Hersteller konkret eine Temperatur angeben, um den Farbton zu beschreiben. Tabelle 13.2 fasst einige dieser Farbtemperaturen zusammen: Den genauen Zusammenhang zwischen Farbe und Temperatur erläutern wir in Kapitel 13.4. Tab. 13.2: Farbtemperaturen bei Licht. Bezeichnung

Farbtemperatur

Warmweißes 2.700 bis 3.300 Kelvin Neutralweißes 3.300 bis 5.300 Kelvin Tageslichtweißes > 5.300 Kelvin

13.4 Wärmestrahlung |

247

kontinuierliches Spektrum Beispiel: Glühlampe

diskrete

Emissionslinien Beispiel:

Energiesparlampe

Abb. 13.5: Spektrum einer Energiesparlampe.

13.4 Wärmestrahlung Aus dem Alltag bekannt ist, dass warme Körper Wärmestrahlung aussenden. Das ist nicht weiter ungewöhnlich. Im Bereich der uns umgebenden Temperaturen ist diese in der Regel nicht sichtbar. Die Wellenlänge der Wärmestrahlung von der Heizung, warmem Essen oder anderen Lebewesen ist für uns nicht sichtbar. Anders sieht es allerdings bei deutlich höheren Temperaturen aus. Die Lamellen eines Toasters beginnen erst schwach rot zu leuchten und glühen schließlich orange-gelb. Bei Schweißgeräten entsteht sogar weißes Licht bis hin zu UV-Strahlung, die Schutzmasken erforderlich macht. Offenbar steigt die Strahlungsleistung mit der Temperatur deutlich an und das Spektrum der Strahlung verändert sich. Diese Strahlung auf Grund von Wärme ist auf die Bewegung der Moleküle in einem Körper zurückzuführen. Sie stoßen ungeordnet aneinander und regen dadurch ebenfalls die Atome und Elektronen zu ungerichteten Schwingungen in alle Richtungen an. Die dabei erreichten Schwingungsfrequenzen erstrecken sich über ein breites Band. Die so angeregten Ladungsträger verhalten sich wie kleine Sender und senden elektro-

248 | 13 Beugung und Interferenz magnetische Wellen in den entsprechenden Frequenzen aus. Diese Art der Strahlung wird Temperaturstrahlung genannt. Generell bezeichnet man die Strahlungsleistung eines Körpers in Relation zu seiner Oberfläche als Emissionsvermögen E. Analog dazu hat jeder Körper ein charakteristisches Absorptionsvermögen A, also das Potential, Strahlung von außen nicht zu reflektieren, sondern zu absorbieren und direkt in Wärme, also Teilchenbewegung, umzuwandeln. Absorbiert ein Körper 100 % der eintreffenden Strahlung aller Wellenlängen, bezeichnet man ihn treffenderweise als vollkommenen schwarzen Körper. Sein Absorptionsvermögen ist A = 1. Ein solcher schwarzer Körper ist natürlich eine idealisierte Darstellung. Man kann sich einen nahezu perfekten schwarzen Körper aber auch als Hohlkugel vorstellen mit einer kleinen Öffnung durch die Licht eintritt. Dieses Licht wird mehrfach an den Innenwänden teilreflektiert und absorbiert, bis es schließlich vollständig absorbiert wird, bevor es den Hohlraum durch die Öffnung wieder verlassen kann. Von außen erscheint die Öffnung in einem perfekten Schwarz, weil keine Strahlung entweicht. Erhöht man aber die Temperatur, so strahlt diese Öffnung genau wie ein solcher vollkommener schwarzer Körper ausschließlich Temperaturstrahlung ab. In der Literatur findet man daher auch die Bezeichnung „Hohlraumstrahlung“ als Synonym für Schwarzkörperstrahlung. Das Emissionsvermögen eines solchen schwarzen Körpers hängt nicht von dessen Beschaffenheit, sondern ausschließlich von seiner Temperatur ab. Dadurch ergibt sich auch für jeden schwarzen Körper genau eine Verteilung von ausgestrahlten Frequenzen, die zu seiner Temperatur passt. Abbildung 13.6 stellt diese Strahlungskurven oder auch Spektren für schwarze Körper verschiedener Temperaturen dar. Es zeigt sich, dass auch das jeweilige Strahlungsmaximum, also die Wellenlänge λmax , bei der ein schwarzer Körper am hellsten strahlt, von der Temperatur T abhängt. Dieser lineare Zusammenhang wird durch das Wien’sche Verschiebungsgesetz treffend beschrieben: λmax ⋅ T = 2898μm ⋅ K. (13.2) Liegt das Strahlungsmaximum etwa im grünen sichtbaren Licht λmax = 500 nm = 0, 5 μm, so hat der schwarze Körper eine Temperatur von 5800 K. Dieses Beispiel wurde nicht zufällig gewählt, denn 5800 K entspricht der Oberflächentemperatur der Sonne, deren Strahlungsmaximum tatsächlich beim gelben Licht liegt. Ihre Schwarzkörperstrahlung ist in Abbildung 13.6 entsprechend hervorgehoben. Es ist evolutionsbedingt auch kein Zufall, dass unser wahrnehmbarer Spektralbereich gerade im Bereich des Maximums der Sonnenstrahlung liegt. Der Leser ist vielleicht über das Beispiel der Sonne als schwarzer Körper gestolpert. Wenn etwas nicht schwarz ist, dann wohl unser Zentralstern. Tatsächlich geben alle Körper diese Temperaturstrahlung ab. Die Abstrahlung der Sonne als heißer Gasball lässt sich trotz der komplexen Prozesse, die zur Sonnenstrahlung führen, erstaunlich gut über die Schwarzkörperstrahlung beschreiben. Wir erkennen in der Ab-

13.4 Wärmestrahlung |

249

Bereich der für uns sichtbaren Strahlung effektive Oberflächentemperatur der Sonne

Spektrale Ausstrahlung [W/m2/nm]

10000 K

Körpertemperatur eines Menschen

5800 K 3000 K

1000 K 500 K 308 K

Wellenlänge [nm]

Abb. 13.6: Schwarzkörperstrahlung bei verschiedenen Temperaturen.

bildung auch, dass ein Körper von 1000 K wesentlich stärker im Roten als im Blauen strahlt und somit als rot glühend wahrgenommen wird. Bei klassischen Glühlampen beträgt die Temperatur der Glühwendel etwa 1500–3000 K. Sie emittieren also Strahlung, die auch im Bereich des sichtbaren Lichtes liegt, ein Großteil der Strahlungsleistung liegt aber im Bereich der Infrarotstrahlung, also Wärmestrahlung. Es ist sofort ersichtlich, dass dies keine sonderlich effiziente oder geeignete Methode der Lichterzeugung ist, insbesondere wenn man es mit der Emission einer Energiesparlampe vergleicht (Abbildung 13.5). Max Karl Ernst Ludwig Planck beschäftigte sich intensiv mit der Strahlung schwarzer Körper und konnte 1900 eine Formel – die später nach ihm benannte Planck’sche Strahlungsformel – präsentieren, die diese Strahlung erstmals korrekt beschrieb. Damit legte er auch den Grundstein für die moderne Quantenphysik. Das gesamte Emissionsvermögen E hängt stark von der Temperatur ab und zwar mit der vierten Potenz und wird durch das Stefan-Boltzmann-Gesetz angegeben: E = σT 4 ,

mit σ = 5, 67 ⋅ 10−8

W . m2 K−4

(13.3)

Auch der menschliche Körper sendet Temperaturstrahlung aus. Bei einer Oberflächentemperatur von etwa 308 K liegt deren Maximum grob bei 10 μm, also im mittleren Infrarot. Wärmebildkameras sind in diesem Bereich empfindlich. Abbildung 13.7 zeigt

250 | 13 Beugung und Interferenz die Infrarotaufnahme eines Hundes. Die Schattierung reicht von etwa 21 ○ C (dunkel) bis 34 ○ C (hell). Deutlich sieht man die gut durchbluteten Stellen wie Ohren, Mund oder Augen. Das Fell hingegen lässt wenig Wärmestrahlung hindurch und erfüllt damit seinen Zweck.

Abb. 13.7: Wärmebild eines Hundes.

14 Atome und Moleküle In Kapitel 13.4 haben wir gesehen, dass jeder heiße Stoff gemäß seiner Temperatur elektromagnetische Wellen abstrahlt. Eine Methode, das breite Frequenzspektrum mittels spektraler Aufspaltung sichtbar zu machen, haben wir in Kapitel 13.3 kennengelernt. Am Beispiel der Energiesparlampen haben wir allerdings auch gesehen, dass es vornehmlich in Gasen teilweise einzelne Linien im Spektrum, also diskrete angeregte Frequenzen gibt (vergleiche Kapitel 13.5). Scharfe einzelne Übergänge stammen von einzelnen Atomen. Moleküle weisen stets ganze Emissionsbanden auf. Das liegt in der Ausdehnung und räumilchen Struktur von Molekülen begründet. Zusätzlich zu diskreten Elektronen-Übergängen, bei denen Energie auf ein Elektron übertragen oder von einem Elektron abgegeben wird, können Molekülketten zusätzlich in mechanische Schwingungen und Rotation versetzt werden. Dies führt dann zu einem ganzen Band an verschiedenen Energien, welche absorbiert und emittiert werden können. Sämtliche chemischen Reaktionen sind Vorgänge in den Elektronenhüllen der Atome, Moleküle und Ionen (vgl. Kap. III.2.2).

14.1 Mikrowellenherd Bei einem Mikrowellenherd werden genau diese Zustände angeregt. Das Wassermolekül H2 O ist nicht symmetrisch. Das Molekül ist elektrisch unausgewogen. So besitzen Wassermoleküle eine positive und eine negative Seite und bilden damit einen sogenannten elektrischen Dipol. In einem elektrischen Feld – wie dem von Mikrowellen – wirken auf diese beiden Seiten unterschiedliche Kräfte und das Molekül versucht, sich (wie eine Kompassnadel im Magnetfeld) auszurichten. Bei einem ständig wechselnden Feld rotieren die Teilchen dann hin und her. Moleküle in einer Flüssigkeit sind beweglich, aber dennoch dicht gepackt und so entsteht durch die angeregte Bewegung Reibung, welche wiederum Wärme erzeugt. Daher wirken Mikrowellen am besten bei flüssigem Wasser. In Wasserdampf schwirren die Moleküle so frei umher, dass weder Reibung noch Wärme entstehen können. In festem Wassereis wiederum sind die einzelnen Moleküle zu starr gebunden und können nicht frei rotieren. Bei der Auftaustufe von Mikrowellenherden wird daher immer nur flüssiges Wasser an der Oberfläche kurzzeitig erwärmt und dann gewartet, bis dieses warme flüssige Wasser weiteres Eis um sich herum zum Schmelzen gebracht hat und so weiter. Das Prinzip der Mikrowelle macht auch deutlich, wieso man keine Metalle in die Mikrowelle legen darf. Die freien Elektronen im Metall würden sofort auf das relativ starke Mikrowellenfeld reagieren und anfangen sich zu bewegen. Dabei entstehen große Ströme und Spannungen, welche dann zu den Blitz- und Verbrennungserscheinungen führen.

https://doi.org/10.1515/9783110496277-022

252 | 14 Atome und Moleküle

14.2 Atomspektren Atome senden ein für das jeweilige Element spezifisches Spektrum aus. Im sichtbaren Licht erzeugt Natriumdampf beispielsweise die berühmten dicht beieinander liegenden D-Linien im gelben Teil des Spektrums (etwa 590 nm). Das Licht der oft an Häfen oder großen Industrieanlagen eingesetzten Natriumdampflampen erscheint daher gelblich und besteht lediglich aus elektromagnetischen Wellen dieser beiden Wellenlängen. Vornehmlich durch die Bewegung der Atome im Gas sind diese Linien nicht beliebig scharf, sondern entsprechend der Geschwindigkeiten der Atome kommt es wie beim Schall zum Doppler-Effekt, so dass ein verringerter Anteil des Lichtes auch in den Nachbarwellenlängen abgestrahlt wird. Hinzu kommt, dass jedes einzelne Atom selbst auch eine gewisse Unschärfe der Energiestufen aufweist. Ein quantenmechanischer Effekt, auf den wir in diesem Zusammenhang nicht weiter eingehen werden, zumal er deutlich geringer ausfällt als die Verbreiterung durch den Doppler-Effekt. Beim Doppler-Effekt für Schall verringert oder erhöht sich die Wellenfrequenz, je nachdem ob Sender und Empfänger sich aufeinander zu, oder voneinander weg entfernen. Dieselbe Argumentation gilt auch für elektromagnetische Wellen. Eilt der Sender dem soeben gesendeten Wellenberg hinterher, so verkürzt sich der Abstand vom zweiten Wellenberg zum vorangegangenen und die Welle wird insgesamt gestaucht. Bewegt sich eine Lichtquelle auf uns zu, sprechen wir von Blauverschiebung, bewegt sich eine Quelle von uns weg von Rotverschiebung. Im Alltag taucht dieses Phänomen selten auf, da sich Quelle oder Empfänger stets sehr viel langsamer als die Ausbreitungsgeschwindigkeit von Licht (c = 299 792 458 m/s, siehe Kapitel 3.2) bewegen. Für astronomische Objekte treten allerdings durchaus größere Geschwindigkeiten auf. Hinzu kommt, dass einzelne moderne Spektrografen spektrale Verschiebungen bei Geschwindigkeiten von wenigen cm/s messen können. Anders als beim Schall, der sich im Medium der Luft ausbreitet (siehe Gleichung 8.10), spielt es beim Doppler-Effekt von elektromagnetischen Wellen keine Rolle, ob sich Sender oder Empfänger bewegen. Hier zählt allein die Relativgeschwindigkeit. Vielleicht ein interessanter Hinweis: „Bereits“ bei einer Geschwindigkeit von etwa 50 000 km pro Sekunde erreicht uns das rote Licht einer Ampel als grünes Licht.

Atome, welche Licht in bestimmten, charakteristischen Wellenlängen aussenden, können auch Licht dieser Wellenlängen empfangen, also absorbieren. So weist das auf der Erde beobachtete Spektrum der Sonne zahlreiche dunkle dünne Linien auf, die sogenannten Fraunhofer’schen Linien (siehe Kapitel 13.3). Insgesamt beobachtete Fraunhofer (1814) über 570 Linien. Die stärksten von ihnen bezeichnete er von A bis K (daher auch die Natrium-D-Linie). Deutlich nach ihrer Entdeckung stellten Gustav Robert Kirchhoff und Robert Bunsen (1861) fest, dass jedes chemische Element mit einer spezifischen Anzahl und Wellenlänge von Spektrallinien assoziiert war. Sie erkannten, dass die Linienabsorption in der äußeren Schicht der Sonne erfolgt sein musste. Viele der Absorptionslinien werden allerdings erst in der Erdatmosphäre erzeugt. Dies gilt vor allem für die starken Absorptionslinien von Sauerstoff (O2 ).

14.3 Schalenmodell | 253

14.3 Schalenmodell Ein Atom besteht aus positiv geladenen Protonen und neutralen Neutronen im Kern und negativ geladenen Elektronen in der Atomhülle. Bereits die Vorstellung, es handele sich um kugelförmige, verklumpte Kernteilchen und am besten noch rote kleine umherflitzende Elektronen, ist eine reine Modellvorstellung. Dieses Modell ist durchaus geeignet, einen Großteil der Eigenschaften zu erklären, aber es hat nicht den Anspruch ihre wahre Natur wiederzugeben. Der damals erst 28-jährige Niels Bohr revolutionierte 1913 mit seinem Bohr’schen Atommodell die Vorstellung vom Aufbau der Welt: Elektronen kreisen um Atomkerne und können von einer Umlaufbahn in die andere springen. Es war das letzte Atommodell, das auch Nichtphysikern noch vermittelbar sein sollte. Das Größenverhältnis von der Atomhülle zum Kern des Atoms entspricht in etwa 100 000 zu 1. Wäre ein Atom so groß wie ein Fußballstadion, könnte man sich den Atomkern wie eine Walnuss vorstellen, die auf dem Mittelpunkt liegt. Der typische Radius eines Atoms liegt bei etwa 1. Bei einem neutralen Atom hängt die Anzahl der Elektronen in der Hülle von der Anzahl der Protonen im Kern ab. Es befinden sich dann genauso viele negativ geladene Elektronen in der Atomhülle wie positiv geladene Protonen im Atomkern. Da die Anzahl der Protonen und Elektronen identisch ist, gibt die Ordnungszahl (Kernladungszahl eines Atoms) im Periodensystem neben der Anzahl der Protonen als auch die Anzahl der Elektronen an. Die Masse der Elektronen trägt nur unwesentlich zur Gesamtmasse des Atoms bei, da Protonen und Neutronen jeweils fast 2000-mal so schwer sind wie ein Elektron. Die Elektronen bewegen sich nicht beliebig um den Atomkern. Durch die positiv geladenen Protonen im Inneren des Atoms (Atomkern) werden die Elektronen, die eine negative Ladung haben, angezogen. Je näher sich ein Elektron um den Kern bewegt, desto stärker ist diese Anziehung. Dabei fällt auf, dass einige Elektronen stärker angezogen werden als andere. Das bedeutet, dass die Elektronen unterschiedlich weit vom Kern entfernt sind. Man spricht bei diesen unterschiedlichen Bahnen auch von Orbitalen oder Schalen. Dabei handelt es sich um eine Modellvorstellung, mit der sich aber die Atomspektren in erster Näherung gut beschreiben lassen. Abbildung 14.1 zeigt ein solches Schalenmodell für ein Calcium-Atom. Die Schalen werden stets von innen nach außen gezählt und auch so von den Elektronen aufgefüllt. Die innerste Schale hat die energetisch günstigste Lage. Die Elektronen in den äußeren Schalen sind am schwächsten an den Kern gebunden. Ohne auf die Besetzungsregeln an dieser Stelle genauer einzugehen (vgl. Kap. III.2.2.2), betrachten wir die vierte und beim Calcium zugleich äußerste Schale. Sie umfasst zwei Elektronen, die Außenelektronen. Dies sind die Valenzelektronen, die besonders leicht vom Atom gelöst werden können. Sie bestimmen das gesamte chemische Verhalten des Atoms maßgeblich. Valenzelektronen haben wir bereits kurz in Kapitel 9.3.3 kennengelernt.

254 | 14 Atome und Moleküle

Valenzelektronen 4. Schale 3. 2. 1. 20 Protonen

Abb. 14.1: Einfaches Schalenmodell am Beispiel eines Calcium-Atoms.

Jede Schale oder auch Orbit steht für eine bestimmte Energie der Elektronen. Solange es auf der Bahn bleibt, nimmt es keine Energie auf und gibt keine Energie ab (nur innerhalb dieser Modellvorstellung). Wenn ein Atom also angeregt wird (durch Strahlung oder Stöße), dann bedeutet dies, dass ein oder mehrere Elektronen eine höhere Bahn annehmen. Sie speichern quasi diese Energie als potentielle Energie, die sie wieder in Form von Strahlung abgeben, wenn sie erneut in einen niedrigeren Energiezustand fallen. Wichtig dabei ist, dass es sich beim Wechsel von einer Bahn auf die nächsthöhere um diskrete Energiesprünge handelt. Zwischenzustände gibt es nicht. Es ist also eine ganz spezifische Energie, die benötigt wird, um ein Elektron von der untersten Bahn auf die nächsthöhere zu heben. Diese Energie hängt vom Atom selbst ab und ist somit charakteristisch für das jeweilige Element. Eine spezifische Energie bedeutet aber auch eine spezifische Frequenz oder Wellenlänge. Spricht man von Licht in einzelnen Energiepaketen, verwendet man die Vorstellung, dass Licht nicht nur als Welle, sondern auch als Teilchen agiert. Man spricht vom Welle-Teilchen-Dualismus, um den es jahrhundertelang Streit in der Wissenschaft gab. Das gedachte Lichtteilchen wird als Photon bezeichnet. Anschaulich gesprochen sind Photonen das, woraus elektromagnetische Strahlung besteht. Daher wird gelegentlich auch die Bezeichnung Lichtquant oder Lichtteilchen verwendet. Ein solches Photon trägt die Energie: Ephoton = h ⋅ f =

h⋅c λ

(14.1)

14.3 Schalenmodell | 255

mit dem Planck’schen Wirkungsquantum h, der Frequenz des Lichtes f beziehungsweise der Wellenlänge λ und der Lichtgeschwindigkeit c. Das Planck’sche Wirkungsquantum h ist bei jeder harmonischen Schwingung das konstante Verhältnis des kleinstmöglichen Energieumsatzes zur Schwingungsfrequenz. Spricht man von einem Quantensprung, meint man vielleicht etwas besonders Großes, in Wirklichkeit ist es aber der physikalisch kleinstmögliche diskrete Energiesprung. Seit Mai 2019 ist dieser Wert auf h = 6, 62607015 ⋅ 10−34 Js festgelegt. Im Atommodell kann nur Licht einer bestimmten Wellenlänge einen gewählten Bahnwechsel bei Elektronen hervorrufen. Bei weniger (geringere Frequenz, größere Wellenlänge), aber auch bei zu viel Energie (höhere Frequenz, kleinere Wellenlänge) kann das Atom die Strahlung nicht absorbieren. Da Elektronen nach diversen Auswahlregeln verschiedene Sprünge auf und von verschiedenen Bahnen ausführen können, absorbieren manche Elemente das Licht in vielen diskreten Wellenlängen. Ebenso emittieren Atome Licht in genau diesen Wellenlängen, wenn ein Atom in einen energetisch niedrigeren Zustand wechselt. Es wird von Strahlung angeregt und regt sich auch wieder ab, indem es Strahlung abgibt. Diesen Effekt machen sich klassische Fernsehgeräte mit Kathodenstrahlröhre (CRT, siehe Abbildung 14.2) zu Nutze. Auf der Schirminnenseite befindet sich ein Leuchtstoff der durch Elektronenbeschuss angeregt wird und die aufgenommene Energie schließlich wieder in Form von Strahlung im sichtbaren Licht abgibt. Bei Anzeigen, Displays und Bildschirmen handelt sich um Kathodolumineszenz. Erfolgt bereits die Anregung durch (meist kurzweilliges) Licht, handelt es sich um Fluores-

Abb. 14.2: Kathodenstrahlröhre mit Leuchtschirm.

256 | 14 Atome und Moleküle zenz bei der die spontane Emission von Licht kurz nach der Anregung des Materials stattfindet. Bei der Phosphoreszenz kommt es zu einem Nachleuchten, welches bis hin zu Stunden dauern kann und bekannt ist von allerlei Spielzeug welches im Dunkeln (nach)leuchtet. Mit dem genannten Atommodell lassen sich alle Absorptionslinien beispielsweise im Sonnenspektrum, aber auch die Emissionslinien von Gas- und Energiesparlampen erklären. Ist die Energie des einfallenden Lichtes groß genug, um ein Elektron ganz vom Atom zu lösen, so spricht man davon, dass das Atom ionisiert wird. Jede Energie oberhalb der Ionisationsenergie führt dazu, dass die überschüssige Energie direkt als Impuls an das Elektron weitergegeben wird. Es handelt sich dann nicht mehr um diskrete Energiesprünge oberhalb dieser Grenze.

14.4 Quantenmechanik Das Bohr’sche Atommodell beschreibt bereits einen Umstand, der mit der klassischen Physik im Widerspruch zu stehen scheint: die Elektronen in einem Atom können nicht beliebige Energiezustände einnehmen. Statt dessen handelt es sich um spezifische Energien bzw. diskrete Bahnen die die Elektronen in diesem Modell annehmen. Der berühmte Quantensprung wurde bereits in Kapitel 14.3 erwähnt. Die Energie selbst erscheint also gestückelt oder auch quantisiert. Die Arbeit von Max Planck gilt allgemein als Beginn der Quantentheorie. Konkret führte Planck im Jahr 1900 die Atomistik der Energie ein, als er das Strahlungsgesetz für die Schwarzkörperstrahlung der physikalischen Gesellschaft in Berlin vorstellte. Er führte die Schwarzkörperstrahlung auf harmonische Oszillatoren die nur diskrete Werte annehmen können zurück. Die Quantenmechanik ist ein modernes Kapitel der Physik mit weitreichenden Konsequenzen für nahezu jedes Teilgebiet innerhalb der Physik. Dabei trägt sie vor allem zu einem tieferen Verständnis vieler Phänomene bei. Im einfachen Experiment oder bei der reinen Beschreibung des Verhaltens makroskopischer Körper tritt sie in der Regel nicht auf, so dass sie auch in diesem Lehrbuch separat Erwähnung findet. Im Zentrum der Quantenmechanik steht die Idee, auch Teilchen als Welle zu beschreiben. Ganz analog zum Welle-Teilchen-Dualismus bei dem man dem Licht auch Teilcheneigenschaften zusprach. So weisen beispielsweise auch Elektronen Beugungseigenschaften auf, wie wir sie für Licht in Kapitel 13 kennengelernt haben. Mathematisch erstmals sauber beschrieben wurden diese Zustände durch die Schrödingergleichung welche 1926 von Erwin Schrödinger aufgestellt wurde. In der Schrödingergleichung ist der Zustand eines Systems vollständig durch eine Wellenfunktion repräsentiert. Elektronen haben keinen festen Ort mehr, sondern lediglich eine Aufenthaltswahrscheinlichkeit entsprechend dem Quadrat ihrer Wellenfunktion.

14.4 Quantenmechanik | 257

Für Atome gilt, dass sich Elektronen unter Berücksichtigung des Pauli-Prinzips¹¹ auf verschiedene Orbitale verteilen. Dieses Orbitalmodell für Atome beschreibt die Struktur der Atomhülle in erster Näherung. Da man nunmehr lediglich von Aufenthaltswahrscheinlichkeiten für Elektronen spricht, beschreibt ein solches Orbital üblicher Weise das Volumen in dem sich das Elektron mit 90%iger Wahrscheinlichkeit aufhält (vergleiche Abbildung 14.3).

1s

2s

2px

2py

2pz

Abb. 14.3: Orbitale der ersten und zweiten Elektronenschale beim Wasserstoffatom. Oben als Punktwolke, unten als Oberfläche innerhalb derer sich das Elektron mit 90%iger Wahrscheinlichkeit aufhält.

11 Das von 1925 von Wolfgang Pauli aufgestellte Prinzip besagt, dass je zwei Elektronen in einem Atom nicht in allen Parametern bzw. den sogenannten Quantenzahlen übereinstimmen können.

15 Was bleibt? An dieser Stelle hat der Leser eine Reise quer durch die Physik hinter sich. Die Hoffnung des Autors ist, dass sich dabei ein gewisses Gefühl für die wissenschaftliche Methode entwickelt hat und dass grundlegende Prinzipien und Zusammenhänge vermittelt werden konnten. Vielleicht nimmt man das ein oder andere Naturphänomen wie Gewitter, Mondfinsternisse oder Regenbögen ein wenig anders wahr oder erinnert sich bei der nächsten roten Ampel aus LED-Lichtern an Halbleiter und Lichtwellen. Die Physik kann uns helfen, eigene Horizonte zu erweitern und uns nicht auf unsere subjektive Sichtweise bei der Wahrnehmung zu beschränken. Getreu dem Motto „es ist nicht alles grün, was grün erscheint“ im Zusammenhang mit Schmetterlingsflügeln oder dem Reflexionsspektrum von Gras (siehe Kapitel 12.5) lehrt uns die Physik auch zu erkennen, was wir nicht wissen, und die richtigen Fragen zu stellen. Welche Informationen wir einem Experiment oder einer Beobachtung entnehmen können, wird unmittelbar durch das verwendete Messverfahren und die dazu passende Messtechnik bestimmt. Viele Fortschritte im wissenschaftlichen Verständnis basieren auf Entwicklungen und Neuerungen in eben dieser Technik. Seien es Teleskope, welche mehr Licht zu sammeln vermögen als unsere Augen und uns somit einen tieferen Blick ins Universum erlauben, oder präzisere Thermometer, Waagen und Antennen. In diesem Band wurden große und auch wichtige Bereiche der Physik nur kurz behandelt oder auch ganz außer Acht gelassen. Zum einen, um zumindest für das „Wesentliche“ Platz zu schaffen, und zum anderen, um einen roten Faden durch die angesprochenen Themen zu führen. Dabei wurden vor allem Bereiche behandelt, welche die Medientechnik unmittelbar betreffen und damit für dieses Lehrbuch per definitionem „das Wesentliche“ sind. Bis einschließlich Kapitel 4 befassten wir uns mit Beobachtungsgrößen, Messdaten und erhaschten einen winzigen Blick auf den wissenschaftlich Umgang mit Zahlen. In Zeiten moderner Instrumente und „Big Data“ auf allen Gebieten spielt die statistische Analyse von enormen Datenmengen eine zunehmend wichtige Rolle. In Anbetracht von mehreren Gigabyte bis Terabyte an Daten pro Beobachtung oder Experimentdurchlauf sollte auch das Datenmanagement selbst nicht vernachlässigt werden. Zur Ausbildung des Physikers gehört daher ein gutes Grundgerüst im Umgang mit Fehlerfortpflanzung, Modellierung von Daten und statistischer Auswertung. Unsere Abhandlung der Mechanik (Kapitel 5) beschränkte sich auf die Grundkräfte und praxisnahe Anwendungsbeispiele, dabei ist das Gebiet der klassischen Mechanik so weit gestreut, dass die Theoretische Mechanik ein eigenständiges Feld der Physik ist. In diesem Band legten wir den Schwerpunkt insbesondere auf ein zusammenhängendes Gesamtverständnis der Phänomene, welche unmittelbar im Alltag wahrnehmbar, messbar und somit relevant für die Medientechnik sind.

https://doi.org/10.1515/9783110496277-023

15 Was bleibt? | 259

In Kapitel 14 lernten wir das Bohr’sche Atommodell mit festen Bahnen für die Elektronen kennen. Das klare Bild von Elektronenbahnen wurde in der Physik etwa 1925 abgelöst. Ort und Energie können nicht zugleich exakte Werte annehmen. Man rechnete nun mit Aufenthaltswahrscheinlichkeiten statt fester Bahnen und Richtungen. Einen kleinen Ausblick in die Quantenmechanik lieferte Kapitel 14.4.

16 Wie geht es weiter? Das Ihnen vorliegende Lehrbuch hat den Anspruch die für die Medientechnik relevanten Prinzipien und Gesetze in einen Zusammenhang zu bringen und in ihrer Bedeutung greifbar zu machen. Auf einen Großteil der Entwicklung der Physik nach 1920, die immer weniger intuitiv verständlich ist und zunehmend tieferes Grundwissen erfordert, konnte daher im Rahmen dieser Lehrbuchreihe leider nicht eingegangen werden. Für all diejenigen, welche sich nach diesem Kapitel weiter mit der Physik beschäftigen und tiefer in die Materie einarbeiten möchte, empfehle ich eine Auswahl an geeigneter Literatur. Einen guten Einstieg bietet das Lehrbuch Douglas C. Giancoli: Physik: Lehr- und Übungsbuch, Pearson Studium, 2009, welches in etwa den Stoff der ersten zwei Semester der Experimentalphysik behandelt. Unsere Abhandlung der Mechanik (Kapitel 5) beschränkte sich auf die Grundkräfte und praxisnahe Anwendungsbeispiele, dabei ist das Gebiet der klassischen Mechanik so weit gestreut, dass die Theoretische Mechanik ein eigenständiges Feld der Physik ist. An dieser Stelle kann exemplarisch auf zwei Lehrbücher verwiesen werden: Friedhelm Kuypers: Klassische Mechanik, Wiley-VCH, 2016 und mit der speziellen Philosophie einer Aussage je Satz und einem Satz je Zeile: Achim Feldmeier: Theoretische Mechanik: Analysis der Bewegung – eine physikalisch-mathematische Einführung, Springer Spektrum, 2013. Etwas praxisnaher und nun schon über viele Jahre hinweg ein Favorit unter jungen Physikstudenten ist die Lehrbuchreihe von Wolfgang Demtröder: Experimentalphysik Band 1-4, Springer Verlag. mit zahlreichen Abbildungen und Übungen. Eine Einführung in die experimentellen und theoretischen Grundlagen der Quantenphysik, speziell im Zusammenspiel mit der modernen Atomphysik bietet: Hermann Haken & Hans Christoph Wolf: Atom- und Quantenphysik, Springer-Lehrbuch, Heidelberg 1993. Zur Vertiefung der meisten der behandelten Themen aus der Perspektive der Theoretischen Physik eignet sich die gesamte oben genannte Lehrbuchreihe von Wolfgang Nolting im Springer-Verlag. Ein weiteres „modernes“ Feld ist seit 1905 die Spezielle Relativitätstheorie von Albert Einstein und schließlich 1915 seine Allgemeine Relativitätstheorie, welche die Gravitation einschließt und die Newton’sche Betrachtungsweise der Gravitation in der Wissenschaft ablöste. Erst in diesem Jahrtausend (2015) gelang die erfolgreiche direkte Messung von Gravitationswellen, eine der vielen aufregenden Vorhersagen der Allgemeinen Relativitätstheorie. Interessiert man sich jenseits des Studiums für Einsteins Erbe, empfehle ich eines der zahlreichen Sachbücher dazu. Die richtige Balance zwischen erforderlichem Vorwissen und inhaltlicher Tiefe findet beispielsweise Thomas Bührke: Einführung in die allgemeine und spezielle Relativitätstheorie, Anaconda Verlag, 2015. https://doi.org/10.1515/9783110496277-024

16 Wie geht es weiter? |

261

Einen guten Überblick über die Physik des letzten Jahrhunderts bietet Prof. Dr. David J. Griffiths: Einführung in die Physik des 20. Jahrhunderts: Relativitätstheorie, Quantenmechanik, Elementarteilchenphysik und Kosmologie, Pearson Studium, 2015 und bildet einen gewissen Schulterschluss zum vorliegenden Band. Für einen Einstieg in das ebenfalls spannende Gebiet der Teilchenphysik, welches sich über den Atomaufbau hinaus mit Radioaktivität, Elementarteilchen und Teilchenbeschleunigern befasst, empfehle ich ausdrücklich den 4. Band der bereits oben erwähnten Demtröder-Reihe: Wolfgang Demtröder: Experimentalphysik Band 4: Kern-, Teilchen- und Astrophysik, Springer Verlag. Ein Feld welches sich nicht nur auf die Physik beschränkt, sondern im Grunde für alle Bereiche von Bedeutung ist, bildet die Statistik. Wer sich von Grund auf in alles einlesen möchte, ohne sich dabei zu nah an der Physik selbst zu orientieren, dem sei folgendes Werk empfohlen: Joachim Hartung: Statistik, Lehr- und Handbuch der angewandten Statistik, Oldenbourg Verlag, München 1999. Einen eher philosophischen Zugang zur Statistik legt ein englischsprachiges Buch an den Tag, welches ohne Formeln in das Konzept der Wahrscheinlichkeit und Statistik einführt: Richard von Mises: Probability, Statistics and Truth, Dover Verlag, New York 1981. Für das gelegentliche Nachschlagen einfacher Zusammenhänge und Formeln gibt es zahlreiche Werke. Eine gesunde Mischung aus Hintergrundinformation und Übersichtlichkeit liefert: Peter Kurzweil: Physik Formelsammlung, Springer Vieweg, 2017. In kurzer Form und leicht verständlich führt das Buch Geschichte der Physik durch die Jahrhunderte: Anne Rooney: Geschichte der Physik: Von den Naturphilosophen bis zum großen Rätsel der dunklen Materie, Tosa, 2016. Ebenfalls empfehlenswert ist: Karoly Simonyi: Kulturgeschichte der Physik, Europa-Lehrmittel, 2001. Dieses Werk geht sehr viel ausführlicher auf die Physikgeschichte – in wechselseitiger Verbindung mit der Entwicklung des mathematischen und philosophischen Gedankenguts – von den frühen Anfängen bis zu den heutigen Tagen ein. Abschließend empfiehlt der Autor, seines Zeichens Astrophysiker, ein Standardwerk für ambitionierte Interessierte: Peter Schneider: Einführung in die Extragalaktische Astronomie und Kosmologie, Springer, 2006. Es behandelt unser Universum jenseits unseres Sonnensystems und unserer Milchstraße.

17 Anhang Konstanten Hier finden sich einige der wichtigsten verwendeten physikalischen Konstanten und Größen. c μ0 ϵ0 e G kB me mn mp m p ⇑m e a0 L⊙ M⊙ R⊙ M⊕ R⊕

= 299 792 458 m/s = 4π ⋅ 10−7 Vs/A/m = 1/(μ0 c2 ) = 1, 6021766208 ⋅ 10−19 C = 6, 67408 ⋅ 10−11 m3 /kg/s2 = 1, 38064852 ⋅ 10−23 J/K = 9, 10938356 ⋅ 10−31 kg = 1, 674927471 ⋅ 10−27 kg = 1, 672621898 ⋅ 10−27 kg ≈ 1836 = 0, 529177249 ⋅ 10−10 m ≈ 4 ⋅ 1033 erg/s ≈ 2 ⋅ 1030 kg ≈ 7 ⋅ 105 km ≈ 6 ⋅ 1024 kg = 3 ⋅ 10−6 M⊙ ≈ 6 371 km = 1/110 R⊙

1 erg 1 Jahr

= 6 ⋅ 1011 eV ≈ π ⋅ 107 Sekunden

Lichtgeschwindigkeit im Vakuum Induktionskonstante Dielektrizitätskonstante Elementarladung Gravitationskonstante Boltzmann-Konstante Elektronenmasse Neutronenmasse Protonenmasse Massenverhältnis Proto zu Eletron Bohr’sche Radius Sonnenleuchtkraft Sonnenmasse Sonnenradius Erdmasse Erdradius

https://doi.org/10.1515/9783110496277-025

Literatur Demtröder, W. (1997): Experimentalphysik, Band 1, Mechanik und Wärme, New York u.a., Springer. Demtröder, W. (1997): Experimentalphysik, Band 2, Elektrizität und Optik, New York u.a., Springer. Demtröder, W. (1997): Experimentalphysik, Band 3, Atome, Moleküle und Festkörper, New York u.a., Springer. Demtröder, W. (1997): Experimentalphysik, Band 4, Kern-, Teilchen- und Astrophysik, New York u.a., Springer. Gerthsen, C. und Vogel, H. (1997): Physik, New York u.a., Springer. Griffiths, D.J. (2015): Einführung in die Physik des 20. Jahrhunderts, Pearson Studium. Haken, H. und Wolf, H.C. (1993): Atom- und Quantenphysik, New York u.a., Springer. Kuchling, H. (2014): Taschenbuch der Physik, Carl Hanser Verlag. Lüders, K. und Pohl, R.O. (2004): Einführung in die Physik, New York u.a., Springer. Pohl, M. (2013): Physik für alle, Weinheim, Wiley-VCH. Stuart, H. und Klages, G. (1994): Physik, New York u.a., Springer.

https://doi.org/10.1515/9783110496277-026

|

Teil III: Chemie für Medienwissenschaftler (Ingo Klöckl)

1 Die Chemie der Medien – eine Annäherung Der Versuch, die Grundlagen der ganzen Chemie in einem Band von 450 Seiten darzustellen, ist verwegen. In diesem Band dann noch die Grundlagen der Physik und der Mathematik aufzunehmen, ohne dass deswegen der Umfang sich vergrößere, gleicht dem Versuch des Komponisten der Oper „Ariadne“, diese zusammen mit einem lustigen Stück aufzuführen, und zwar so, dass sie darum nicht länger dauere. Ebenso wie in „Ariadne“ der Tanzmeister strikte Kürzungen der Oper vorschlägt, um den Zeitrahmen zu halten, werden wir uns daher allein auf die Gebiete der Chemie konzentrieren, die beim Aufbau von Medienapparaten eine Rolle spielen oder zum Verständnis ihrer Wirkungsweise notwendig sind, und auch hier nur auf die grundlegendsten Informationen. Diese Informationen sollen Sie in die Lage versetzen, weiterführende Literatur oder Quellen annähernd zu verstehen.

1.1 Eine kurze Geschichte der Chemie Die Chemie als Wissenschaft von den stofflichen Veränderungen ist eine uralte, vieltausendjährige Wissenschaft, die sich in Phasen kulturellen Wachstums stets vergrößerte. Gründend auf dem metallurgischen Wissen der Schmiede und Schmelzer der Kupfer-, Bronze- und Eisenzeit, verband sie sich mit frühägyptischen Priesterzeremonien, wurde von den Römern praktisch genutzt, vermengte sich mit Gedankengut des östlichen Mittelmeerraums und des vorderen Orients, ging durch die Hände der Syrer und Araber, verband sich mit kabbalistischen Denkmustern spanischer Juden, erfuhr unter den Alchemisten die sonderbarsten mystischen Ausprägungen und mauserte sich im 18. Jhd. zur Wissenschaft im heutigen Sinne. Im Laufe dieser Geschichte nahm sie vieles auf, ließ manches weg und spiegelte stets die kulturellen Veränderungen der Zeit wider. Ihre Anfänge sind schwer zu definieren, jedoch waren schon im Chalkolithikum (der Kupfersteinzeit) metallurgische Kenntnisse erforderlich. Diese frühe Chemie war handwerklich und fragte nicht nach der Natur der stofflichen Veränderung, sondern nach dem Ergebnis, einem Kupferbarren oder einer Bronzeaxt. Die Eisengewinnung erwies sich als schwierig, Eisen musste in der Frühzeit aus Eisenmeteoriten gewonnen werden, bevor zwischen 1750 und 1500 v. u. Z. die Hethiter die Technik der Eisengewinnung entwickelten und militärische Macht daraus ziehen konnten. Im Streben nach Pigmenten zur Ausmalung ihrer Gräber, nach Glas, Gold, Eisen, Zinn und anderen Materialien bewiesen die Ägypter vor 4000 Jahren eine erstaunliche Beherrschung chemischer Prozeduren, etwa in der Herstellung des Ägyptischblau, eines Pigments, das genaue Kontrolle der Reaktionsbedingungen und der Ausgangsstoffe erforderte. Bis zum Ende des römischen Imperiums stand die praktische Anwendung im Vordergrund, dem großen Erfahrungswissen stand keine Theorie der https://doi.org/10.1515/9783110496277-027

268 | 1 Die Chemie der Medien – eine Annäherung beobachteten und angewandten Prozesse zur Seite, auch keine schriftlichen Aufzeichnungen. Zu den Leistungen des Altertums zählen u.a. – Die Färbekunst und die synthetische Gewinnung organischer Farbmittel wie Indigo, Krapp und Karminrot mit handwerklichen Mitteln. – Die Technologie der Malerpigmente und die Gewinnung synthetischer Bleiverbindungen (Blei(II)oxid als gelbes Massicot und roter Litharge, Blei(III,IV)oxid als orangerote Mennige, basisches Bleicarbonat als Bleiweiß) und synthetischer Kupferverbindungen (Kupferacetat als grüner Grünspan, Calciumkupfersilikat als blaues Ägyptischblau). Damit verbunden sind Kenntnisse der Mineralogie, da viele natürliche Pigmente aus dem Mineralreich stammen (Zinnober, Ocker, Auripigment, Malachit, Ultramarin). – Die Weiterentwicklung der Metallurgie (sechs bekannte Metalle: nubisches Gold, Silber, zyprisches Kupfer, Zinn, Eisen, Blei; Kupferverbindungen als Goldlot, Amalgamierung zur Feuervergoldung, Zinn-Blei-Lote). – Die Technologie der Glasherstellung aus Quarzsand und Soda, seit 3500 v. u. Z. in Mesopotamien bekannt, in Form farbigen Glases seit 1500 v. u. Z. in Ägypten (Färbung durch Kobalt- und Kupferverbindungen). Eine Ausnahmestellung im Altertum hatten die Griechen inne, die mit zahlreichen Ausprägungen einer Naturphilosophie wesentliche Beiträge zur Theorie der Chemie lieferten. Erste Theorien werden fassbar in den Spekulativen Naturphilosophien der Vorsokratiker um 600–350 v. u. Z.. Über diese vor-aristotelische Naturphilosophie ist nur wenig Verlässliches bekannt und findet sich in schriftlicher Form meist erst als Anmerkung in den Schriften Platons oder Aristoteles‘, also weitaus später. Im Unterschied zur modernen Naturwissenschaft lehnen die Vorsokratiker das Experiment als Erkenntnisquelle ab, da es in das beobachtete System eingreife (ein Gedanke, der der modernen Physik nicht fremd ist). Ihre Philosophien sind in alle Richtungen offen, sodass sich oft genug zu einer Theorie eine entgegengesetzt ausgerichtete findet. Einige Beispiele mögen die vorsokratischen Theorien beleuchten: – Thales von Milet (624–546 v. u. Z.) sieht Wasser als Urstoff aller Dinge (festes EisWasser-Dampf). – Anaximander (511–546 v. u. Z.) nimmt einen Urstoff mit den Eigenschaftspaaren warm-kalt und trocken-feucht an. – Anaximedes (584–525 v. u. Z.) postuliert die Luft als Urmaterie, in verdichteter Form als Wasser, in verdünnter als Feuer auftretend. – Phytagoras von Samos (570–510 v. u. Z.) baut auf Musik, Proportionen und Harmonien. Das Wesen der Dinge ist die Zahl, sie besitzen eine Form, die vom dreidimensionalen Körper bis zum dimensionslosen Punkt aufgelöst werden kann. – Heraklit von Ephesos (540–480 v. u. Z.) sieht den Grund für Veränderungen, das Werden und Vergehen aller Dinge in einem Urfeuer. – Empedokles von Agrigent (495–435 v. u. Z.) vereinigt die Schulen von Milet, Phytagoras und Heraklit. Er nimmt die unveränderlichen vier Elemente Feuer, Was-

1.1 Eine kurze Geschichte der Chemie |



269

ser, Erde und Luft an. Die sichtbaren Körper entstehen durch unterschiedliche Mischungen dieser Elemente. Leukipp (500–440 v. u. Z.) und Demokrit von Abdera sind Atomisten. Sie glauben an kleinste unteilbare Teilchen, sog. Atome. Die Atome sind in Gestalt, Größe und Anordnung verschieden und existieren in einem Vakuum in ständiger, zufälliger Bewegung. Die sichtbaren Körper entstehen und verändern sich durch die Verbindungen der Atome.

Die Vorsokratiker theoretisierten bereits über Stoffe und Reaktionen (Veränderungen von Stoffen) und überdachten Begriffe wie Element, Atom und Vakuum, die ihrer Zeit weit voraus waren. Ihre Elemente repräsentierten phänomenologisch fassbare Qualitäten, die wir heute als Aggregatzustände bezeichnen (fest, flüssig, gasförmig). Das 4. Jhd. v. u. Z. ist die Zeit der Naturphilosophien der Sokratiker. In dieser Blütezeit herrscht ein hohes Bildungsniveau (als Bildungseinrichtungen existieren die Akademeia des Platon 428–348 v. u. Z., das Gymnasion des Diogenes 399–323 v. u. Z. und das Lykeion des Aristoteles 384–322 v. u. Z.), die Religion engt das Denken nicht ein und befördert die Philosophie, die die Welt zu verstehen sucht. Da zwei von ihnen, Platon und Aristoteles, das Weltbild Europas bis ins Mittelalter hinein beeinflussten, seien ihre Überlegungen kurz vorgestellt: – Platon (427–348 v. u. Z.) reflektiert über Wahrnehmung und Objektivität. Er postuliert, alles Sichtbare sei nicht Realität, sondern ein verzerrtes Abbild idealer Urformen. Die Beobachtung der Natur sei nicht erforderlich. Er verschmilzt Empedokles, Pythagoras und Demokrit. Grundstoff sind die regelmäßigen platonischen Körper (Polyeder) aus Polygonen, die die Elemente (der Tetraeder das Feuer, der Würfel die Erde, der Oktaeder die Luft, der Ikosaeder das Wasser und der Dodekaeder den Äther) verkörpern, sich durch Zerfall in Körper mit dreieckigen Begrenzungsflächen zerlegen und neu zusammensetzen, d. h. ineinander überführen lassen. Der Dodekaeder kann nicht in Körper mit Dreieckflächen zerlegt werden und ist daher der himmlischen unveränderlichen Sphäre zugeordnet. Diese geometrisch geprägten Vorstellungen halten sich als Modell des Sonnensystems bis in die Zeit Keplers. – Aristoteles beobachtet im Gegensatz zu Platon und erkennt beobachtete Körper und Stoffe als Realität an. Er akzeptiert auch die Ergebnisse einer Beobachtung als Realität und nutzt die Natur als Erkenntnisquelle, Naturbeobachtung wird durch ihn zum Instrument der Forschung. Problematisch ist das Experiment, weil es eine Einmischung in die zu beobachtende Natur ist. Auch er steht somit der modernen Wissenschaft (Quantenphysik, Ethnologie, ...) nahe. Aristoteles akzeptiert die zufälligen Bewegungen und das Vakuum der Atomisten nicht, sondern sieht eine duale Struktur der Stoffe als Grundlage, den Hylemorphismus: alle Körper bestehen aus Materie oder Stoff (hyle) mit Möglichkeiten, und aus Form oder Gestalt (morphe) mit der Realisierung einer Möglichkeit. Jedes Objekt besitzt eine eigene Natur und verhält sich ihr entsprechend. Er übernimmt das System der Elemente

270 | 1 Die Chemie der Medien – eine Annäherung des Empedokles, die Elemente sind Abarten einer prima materia mit den Qualitäten warm, kalt, trocken und feucht, die in einer bestimmten Beziehung zueinander stehen (vgl. Abb. 1.1).

Abb. 1.1: Die vier Elemente (Feuer, Erde, Wasser, Luft) und die vier Qualitäten (trocken, kalt, feucht, warm) des Aristoteles in einer freien antikisierenden Darstellung nach (Röker 2013).

Die Elemente sind nicht identisch mit den gleichnamigen Stoffen, die aber einen hohen Anteil der gleichnamigen Elemente enthalten. Elemente werden als Prinzipien, Stoffe als Mischungen betrachtet, z. B. enthält der Stoff Wasser viel vom Prinzip Wasser. Auch Blei enthält wegen seines niedrigen Schmelzpunktes einen hohen Anteil des Prinzips Wasser, während das hochschmelzende Eisen weniger davon enthält. Bei Aristoteles können Elemente ineinander überführt oder transmutiert werden. Besonders einfach ist eine Transmutation, wenn nur eine Qualität geändert werden muss. So kann ein Stoff mit den Qualitäten kalt und trocken einfach in einen solchen mit den Qualitäten kalt und feucht transmutiert werden. Stoffe haben je nach ihrer elementaren Zusammensetzung einen natürlichen Platz in einem Weltbild aus konzentrischen Schalen oder Sphären, in deren Zentrum die Erde liegt und an deren äusseren Rändern die Planeten und schließlich Fixsterne liegen. Praktisch kann damit erklärt werden, dass Stoffe wie Steine oder Erde, die viel des Prinzips Erde enthalten, zu Boden fallen, während solche mit hohem Anteil am Prinzip Feuer, wie Feuer oder Luft, in die Höhe steigen (vgl. Abb. 1.2). Im ersten christlichen Jahrtausend wurden theoretische Aspekte der stofflichen Veränderungen wichtig. Das christliche, heute eher fremdartige Gedankengebäude sah die Welt platonisch, als Ganzes, nicht aufgeteilt in Spezialdisziplinen. Die Welt spiegelte die ideale göttliche Welt wider, war selber aber fehlerbehaftet. Dementsprechend sah man keinen Widerspruch zwischen theoretischen Aussagen und abweichenden praktischen Beobachtungen, denn in der fehleranfälligen realen Welt waren Abwei-

1.1 Eine kurze Geschichte der Chemie | 271

Abb. 1.2: Der zwiebelartige aristotelische Kosmos mit einem Kern aus Erde, den konzentrischen Sphären von Wasser, Luft und Feuer sowie den Sphären der Planeten (zu denen Mond und Sonne gezählt wurden) und schließlich die Sphäre der Fixsterne in einer antikisierenden Darstellung nach (Röker 2013).

chungen von der Theorie zu erwarten. Ein Beispiel sind mittelalterliche Rezepte zur Herstellung blauer Farbmittel, von denen viele prinzipiell nicht in der Lage sind, das gewünschte Produkt zu liefern. Dennoch wurden sie überliefert, denn in einer idealen Welt würden sie zum Erfolg führen. Während sich in der Spätantike Christentum und antikes Wissen mischen und das christliche Weltbild auf Basis der Sokratiker geformt wird, geben erste schriftliche Quellen im 2. Jhd. das archaische Gedankengut wieder, das auf dem Wissen der Metallurgen der Frühzeit und Antike basiert und sich mit Gedankengut des östlichen Mittelmeerraums, Ägyptens und den griechischen Naturphilosophien vermischte. Metalle wurden als quasi biologisch im Schoß der Erde wachsend betrachtet. Die Urgründe der Alchemie standen also im Einklang mit der Natur und entwickelten parallel zu den jeweiligen Gesellschaften ihre eigenen mystischen Riten und Metaphern. Die frühen Vorstellungen mündeten in der Vorstellung vom Großen Werk, in dem sich, veranlasst vom Alchemisten, die Geschichte der Welt in mineralisch-chemischer Form wiederholt. Im 3. und 4. Jhd. entstehen die Schriften des Zosimos, Kommentatoren der Spätantike schaffen im 4. bis 7. Jhd. das alchemistische Basiswerk, das über die Nestorianer nach Syrien und über Arabien und Spanien nach Europa gelangt. Es entsteht die Textsammlung des Ur-Alchemisten Hermes Trismegistos, die zur Grundlage der „hermetischen Wissenschaft“ wird, aber unklar, sagenhaft und sprachlich blumig ist. Jedoch zeigt sich bereits die enge Verbindung von Chemie und Natur in den Parallelen, die das Werk zwischen Mikro- und Makrokosmos zieht. Im spätislamischen Spanien gelangen jüdisch-kabbalistische Vorstellungen in die Alchemie, etwa die Zahlenmystik und die Vorstellung göttlicher Sphären. Ab dem 13. Jhd. entsteht eine eigene abendländische alchemistische Literatur. Vor allem die Franziskaner zeigen sich, wahrscheinlich durch ihre auf Naturanschauung beruhende Lyrik, besonders anfällig für die auf der Natur basierende Alchemie-Chemie. Der Franziskaner Roger Bacon führt die moderne experimentelle Arbeitsweise ein und schreibt sein Hauptwerk opus maius. Der Alchemist Geber (wahrscheinlich der Franziskaner Paulus von Tarent) konzentriert sich auf die praktisch-experimentelle Seite der Alchemie-Chemie.

272 | 1 Die Chemie der Medien – eine Annäherung Im 14. Jhd. wird die Alchemie allgegenwärtig und praktizierend wie kontemplativ hauptsächlich von Mönchen getragen. Überhaupt bewahren die Mönche in Klöstern große Teile des antiken und spätantiken Wissens, da sie genötigt sind, in ihren abgeschiedenen Klöstern sämtliche wissenschaftlich-technischen Fähigkeiten zum Bauen und Ausstatten der Klöster zu beherrschen. Hierzu zählen die Glas- und Metallverarbeitung, das Versilbern/Verzinnen, Gussverfahren, Malerei, Buchmalerei und Färberei sowie Tintenherstellung. Die Alchemie wird nun auch in der Literatur rezipiert, aber eher negativ gesehen. Sie erhält durch die Nutzung von Salpeter als Schießpulvergrundlage militärische Bedeutung und wird zum Machtfaktor. In Verbindung mit Salpeter steht auch das Lustfeuerwerk und die Kühlung von Getränken (Limonaden) bzw. dem Gefrieren zu Speiseeis im 17. Jhd., beides zeitgemäße Attribute fürstlicher Macht. Überhaupt gelangt die Alchemie unter den Fürsten des 16. und 17. Jhd. zu großer Beliebtheit, u.a. auch durch die Versprechungen von Reichtum und Unsterblichkeit durch den lapis philosophorum, den Stein der Weisen und durch fahrende angebliche Goldmacher, die auf den antiken Transmutationstheorien aufbauen. Während die Alchemie nun immer mystischere Züge annimmt und mit Geheimgesellschaften wie den Rosenkreuzern, Freimaurern und vielen anderen verbunden ist, bilden sich im 18. Jhd. die empirischen Grundlagen wissenschaftlicher Theorien heraus. Im Zeitalter der Aufklärung und des Empirismus ersteht die Chemie mit dem Aufkommen von genauen physikalischen Messinstrumenten wie Waage, Thermometer, Barometer und Uhren zunächst als experimentelle Wissenschaft neu, die misst, kontrolliert, berechnet und nachprüft. Nach freien Experimenten mit Gasen wie Kohlendioxid, Stickstoff, Sauerstoff und Wasserstoff durch Stephen Hales, Henry Cavendish, Joseph Priestley, Felice Fontana und Alessandro Graf von Volta führt Antoine Laurent de Lavoisier die Waage zur quantitativen Analyse ein und untersucht Reaktionen und Stoffe quantitativsystematisch. Zahlreiche Fakten werden gesammelt. Das 19. Jhd. ist das Jahrhundert der chemischen Theorien. Das chemische Wissen wird immer systematischer gewonnen und – bedingt durch theoretische Überlegungen und ihre Überprüfung durch das Experiment – auch immer schneller und zielgerichteter. Zusammenhänge zwischen Reaktionen und Stoffen werden gesucht und in Form von Reaktionstypen und Stoffgruppen gefunden und theoretisch untermauert. Zahlreiche Elemente werden entdeckt, nun häufiger durch systematische Suche oder die Untersuchung von Resten anderer Reaktionen, die unerwartet verbleiben. Auch die Organik nimmt jetzt ihren eigentlichen Aufschwung, ist aber weitaus unverstandener als die Anorganik. Die Einführung physikalischer Methoden, z. B. der Spektroskopie, verbessert die Qualität der Analysen und erhöht das Entwicklungstempo weiter. Aus der Fülle der Namen seien nur Humphry Davy, John Dalton, Jöns Jakob Berzelius, Amadeo Avogadro, Justus Liebig, Friedrich Wöhler, Gustav Robert Kirchhoff, Robert Wilhelm Bunsen genannt. Eine wesentliche Erfolgsgrundlage wird die chemische Zeichensprache sein. Sie wird 1813 von Jöns Jakob Berzelius eingeführt, der Elemente unter Verwendung des

1.2 Überblick über das Kapitel | 273

Anfangsbuchstabens ihres Namens abkürzt und Mengenverhältnisse durch Indizes verdeutlicht. Die Verbindung der Praktischen Chemie mit ihren zahlreichen wirtschaftlichen, technischen und militärischen Anwendungen in den Jahrhunderten der industriellen und sozialen Revolutionen beschleunigte den Fortschritt in allen Tätigkeitsfeldern der Chemie. Teerchemie/Farben, Sprengstoffe, Agrarchemie, Medizin/Pharmakologie, Materialien zur industriellen Anwendung sind nur einige davon. Große Erfolge feiert die Chemie mit der Analyse und Synthese von Naturstoffen, die zu den kompliziertesten Molekülen unserer Welt gehören (Vitamin B12), und mit der (damals umstrittenen) Einführung des Periodensystems als Ordnungsgrundlage. Mit dem Blick auf das 20. Jhd. vollbringt die Chemie eine theoretisch bedeutsame Tat, indem sie Modelle zum Atomaufbau liefert und dabei die Bestandteile des Atomkerns (Neutronen, Protonen) entdeckt. Immer bessere theoretische Modelle und Berechnungsmöglichkeiten untermauern die Modelle, so dass die Theoretische Chemie es ermöglicht, dass heute Reaktionen oft zunächst berechnet und simuliert werden können, bevor sie in der Praxis getestet werden.

1.2 Überblick über das Kapitel Wie werden wir nun „Ariadne“ zusammen mit dem lustigen Stück auf die Bühne bringen? Wir werden das Periodensystem der Elemente untersuchen und haben dabei Medienapparate wie Videoinstallationen, Theater und Kino, Lichtkunst sowie Computer im Auge. Wir zerlegen diese Apparate in ihre Komponenten und gelangen zu den Werkstoffen, vor allem Metalle, Glas, Kunst- und Klebstoffe und Farbstoffe. Wir bedienen uns also eines „Reverse Engineering“-Ansatzes und kommen in der Tradition der antiken Chemiker von der Phänomenologie her und arbeiten uns zur notwendigen Theorie vor. Dabei werden wir zwei wichtige Teilgebiete der Chemie, die anorganische und die organische Chemie, in ihren Grundzügen kennenlernen. Um ein Verständnis für die genannten Werkstoffe und Funktionsmaterialien zu erlangen, werden wir als Grundlage zunächst in die Anorganische Chemie eintauchen und das Periodensystem der Elemente und wichtige Bindungskräfte kennenlernen. Wichtige Werkstoffe werden in Form von Glas, Keramik, Metallen und Halbleitern vorgestellt. Es folgt eine Einführung in die Grundlagen der organischen Chemie, um weitere Werkstoffe (Kunststoffe und Klebstoffe) kennenzulernen und mit dem Thema Farbe und Fotographie zum Ende zu kommen. Unser Anliegen kann hier nicht sein, sowohl eine Einführung als auch eine Vertiefung in alle notwendigen Disziplinen der Chemie zu geben. Ein Kapitel mit Literaturhinweisen zu Vertiefungen und Ergänzungen des hier dargebotenen findet sich am Schluss.

2 Anorganische Chemie und Grundlagen Die Anorganische Chemie befasst sich mit der Chemie aller Elemente des Periodensystems, speziell ihrer Darstellung im Labormaßstab und großtechnisch, ihrer Reaktivität und ihren Eigenschaften sowie ihrer praktischen Anwendung. Die Anorganik ist ein altes Gebiet, da schon weit vor der Antike im Chalkolithikum metallurgische Prozesse durchgeführt wurden und seit der Antike eine möglichst gute Kenntnis von Metallen und ihrer Gewinnung, Prüfung und Verarbeitung Geld und Macht bedeutete. Wir können in diesem Buch nicht generelle chemische Prinzipien wiederholen, obschon dies für ein tieferes Verständnis vieler Medienapparate nötig ist, sondern werden stattdessen wesentliche Merkmale herausstellen und es dem interessierten Leser anheimstellen, die zahlreichen Lehrbücher der allgemeinen und anorganischen Chemie (siehe Anhang) zu konsultieren.

2.1 Nutzen und Einflussbereich Anorganisches Wissen ist für Medienwissenschaftler von großem Interesse, da viele wichtige Werkstoffe und Bestandteile von Medienapparaten (teilweise) anorganischer Natur sind, etwa: – Pigmente für Maler- und Druckfarben sowie Spezialfarben wie Fluoreszenzleuchtstoffe für Bildschirme, zu Beleuchtungszwecken und zum Markieren von Banknoten und Produkten, – Bau- und Konstruktionsmaterialien wie Porzellan, Metalle und Legierungen (Draht) sowie Halbleiter, – Glas für optische Zwecke (z. B. Linsen, Filter), – Keramik für Isolatoren und elektronische Bauelemente wie Kondensatoren, – Katalysatoren für die Groß- und Industrielle Chemie (Polymere, Petrochemie) und – elektrochemische Materialien für Halbleiter, LEDs und andere elektronische Bauelemente.

2.2 Das Periodensystem und die Elektronenstruktur Eine der großen Leistungen der theoretischen Chemie war die Entwicklung des Periodischen Systems der Elemente (Periodensystem oder PSE) durch Lothar Meyer und Dmitri Mendelejew. Diese tabellarische Anordnung der Elemente strukturiert die Menge der Elemente entdeckungsgeschichtlich zunächst phänomenologisch nach ihren chemischen Eigenschaften, spiegelt aber gleichzeitig die Struktur der Elektronenhülle wider, die später auch theoretisch erfasst wurde.

https://doi.org/10.1515/9783110496277-028

2.2 Das Periodensystem und die Elektronenstruktur | 275

Wie Sie an der Abbildung sehen können, erfolgt die Angabe der Gruppe eines Elements (also der Spalten des PSE) gemäß der neuen IUPAC-Notation mit arabischen Ziffern (oben), nach der älteren IUPAC-Notation mit römischen Ziffern (Mitte) oder nach dem älteren System des Chemical Abstracts Service mit römischen Ziffern (unten). Man spricht z. B. von der Gruppe 16, VIB oder VIa. Die Angabe der Periode (der Zeilen des PSE) erfolgt durch Zahlen oder Buchstaben, beginnend mit K. Die Gruppen 1, 2, 13–18 werden als Hauptgruppen bezeichnet, die Gruppen 3–12 als Nebengruppen („d-Block-Elemente“), die Elemente ab Lanthan La bzw. Actinium Ac als Lanthaniden bzw. Actiniden („f-Block-Elemente“).

2.2.1 Struktur: Gruppen und Perioden Gruppen und Perioden sind grundlegende Merkmale des PSE zur Diskussion von chemischen Eigenschaften der Elemente, da sie unmittelbar den Aufbau der Elektronenhülle widerspiegeln. In erster Linie werden die chemischen Eigenschaften eines Elementes von seiner Zugehörigkeit zu einer bestimmten Gruppe bestimmt. Entdeckungsgeschichtlich wird die Bedeutung der Gruppen daran deutlich, dass sie sehr früh Eigennamen erhielten, die ihre spezifische Reaktivität beschreiben: – Gruppe 1 ist die Gruppe der Alkalimetalle, also der Metalle, die in Lösung alkalisch reagieren, da ihre Hydroxide oder Carbonate als Lauge wirken. Ein Beispiel ist Natrium Na, das Natriumhydroxid NaOH bildet, dessen wässrige Lösung die

276 | 2 Anorganische Chemie und Grundlagen











Natronlauge ist. Von Na leitet sich auch Natriumcarbonat ab, dessen Lösung die Sodalauge ist und das als natürliche Soda schon im Altertum bekannt war. Gruppe 2 ist die Gruppe der Erdalkalimetalle, die alkalische Lösungen bilden und somit den benachbarten Alkalimetallen ähneln, aber wie die ebenso benachbarten Erden wenig löslich sind. Die Elemente dieser Gruppe, vor allem Magnesium, Calcium und Barium, treten in den Massengesteinen der Erde, im Kalk und Dolomit, in großer Menge auf. Gruppe 3 ist die Gruppe der Erden, die als metallischer Bestandteil der früher so genannten „Erden“ auftreten, für die die sehr häufig auftretende schwerlösliche Tonerde (Aluminiumoxid Al(OH)3 ) stellvertretend ist. Gruppe 16 ist die Gruppe der Chalkogene, der „Erzbildner“, da sie in Form von Oxiden (Sauerstoffverbindungen), Sulfiden (Schwefelverbindungen) oder Telluriden (Tellurverbindungen) wesentliche Bestandteile von Erzen sind. Gruppe 17 ist die Gruppe der Halogene, der „Salzbildner“, benannt nach der Einsicht, dass die früh bekannten einfachen Salze binäre Verbindungen eines Elements der niedrigen Gruppen der Alkali- oder Erdalkalimetalle und eines Halogens sind, etwa Natriumchlorid NaCl (Kochsalz). Gruppe 18 ist die Gruppe der Edelgase, benannt nach der Reaktionsträgheit der Edelgase im Gegensatz zu den nicht-edlen, teilweise sehr reaktiven Elementen wie den Halogenen oder den Chalkogenen.

Während sich die chemischen Eigenschaften von Gruppe zu Gruppe sprunghaft und charakteristisch ändern, fassen die Perioden sich langsam ändernde Eigenschaften zusammen. In den frühen Perioden kommen die Gruppeneigenschaften klar zum Ausdruck, während bei den späten Perioden, insbesondere ab Periode 6, weitere Effekte wirksam werden. Die Elemente dieser Perioden besitzen größere Atomradien, die chemisch wichtigen Außenelektronen sind viel weiter vom Atomkern entfernt und werden daher weniger vom Atomkern beeinflusst. Dagegen beeinflusst die hohe Zahl der positiv geladenen Protonen die Elektronen in Kernnähe und beschleunigt sie auf Geschwindigkeiten nahe der Lichtgeschwindigkeit, sodass die Elektronen einen relativistischen Massezuwachs und typische Energieverschiebungen erfahren. Zusätzlich besitzen ihre Elektronen teilweise hohe Bahndrehimpulse, die mit dem Elektronenspin wechselwirken. Zusammengenommen beeinflussen der relativistische Effekt und die Spin-Bahn-Kopplung die Energielage der Elektronenschalen und führen zu komplizierten, für die Gruppe atypischen Mustern in den Eigenschaften. Ab Periode 4 werden d-Orbitale befüllt, die bestimmte chemische Bindungen (Komplexbindungen) verursachen. Sie sind u.a. verantwortlich für die Bildung von Komplexverbindungen und spielen eine große Rolle für die Farbigkeit bestimmter Pigmenttypen. Ab Periode 6 werden mit den f-Orbitalen innere Orbitale, also energetisch niedriger liegende Energieniveaus, gefüllt. Dies ändert an der Konfiguration der Außenelek-

2.2 Das Periodensystem und die Elektronenstruktur | 277

tronen nichts, sodass die chemischen Eigenschaften der Lanthaniden und Actiniden fast identisch sind, was ihre Entdeckung und Trennung äußerst schwierig gestaltete.

2.2.2 Elektronische Struktur der Elemente Die merkwürdige Anordnung der Elemente, die im PSE zum Ausdruck kommt, wird durch die Struktur ihrer Elektronenhülle bestimmt, also der Verteilung der Elektronen des Atoms auf bestimmte Energielagen. Für viele chemische Fragestellungen ist die Beschreibung der Energieverhältnisse der Elektronenhülle ausreichend, wenn vier sog. Quantenzahlen benutzt werden: – Die Hauptquantenzahl n (n =1, 2, 3, . . . ) charakterisiert die Schalen, in denen sich Elektronen befinden können, und korrespondiert zu den Perioden. Je größer n, desto ausgedehnter ist der Aufenthaltsraum des betreffenden Elektrons, d. h. desto weiter ist es vom Atomkern entfernt und desto geringer ist die elektrostatische Wirkung des Kerns auf das Elektron. – Die Nebenquantenzahl l (l=0, 1, 2, . . . , n-1) charakterisiert den Bahndrehimpuls eines Elektrons innerhalb der Schale, also die Form des Orbitals. Sie wird durch die Buchstaben s, p, d oder f ausgedrückt, man spricht dann von s-, p-, d- oder fOrbitalen (g-Orbitale werden erst bei den noch nicht hergestellten Elementen 121 oder später besetzt). l spiegelt sich direkt im PSE wider: die Hauptgruppenelemente der Gruppen 1 und 2 sind s-Block-Elemente, ihre Außenelektronen besitzen l=0. Die Gruppen 13–18 sind p-Block-Elemente, deren Außenelektronen l=1 aufweisen. Die Nebengruppenelemente der Gruppen 3–12 bilden den d-Block mit l=2, und die Lanthaniden und Actiniden den f-Block mit l=3. Da die Form eines Orbitals bestimmt, in welchen Raumregionen Atome eine Bindung eingehen können, ist l sehr wichtig für die Beschreibung der Bindungsverhältnisse zwischen Atomen, d. h. für die Molekülbildung, und für die Reaktivität eines Atoms. – Zu einer Nebenquantenzahl gibt es mehrere Orbitale. Die magnetische Quantenzahl m l (m l = -l, -(l-1), ..., l-1, l) kennzeichnet diese individuellen Orbitale mit gleichem Wert von l. Sie ist verantwortlich, dass es ein s-Orbital (l=0, m l =0), drei pOrbitale (l=1, m l =-1,0,1), fünf d-Orbitale (l=2, m l =-2,-1,0,1,2) und sieben f-Orbitale (l=3, m l =-3,-2,-1,0,1,2,3) gibt. – Die Spinquantenzahl m s (m s = − 12 , + 21 ) charakterisiert die Eigendrehung eines Elektrons und kann zwei verschiedene Werte annehmen. Sie erlaubt die Besetzung eines Orbitals mit je zwei Elektronen, sodass es in jeder Periode 2 s-, 6 p-, 10 d- und 14 f-Elemente gibt, womit der Aufbau des Periodensystems geklärt ist.

278 | 2 Anorganische Chemie und Grundlagen 2.2.3 Ausblick: Das PSE der Zukunft In den letzten vierzig Jahren konnten dem Periodensystem durch den Einsatz von Kernreaktionen an Beschleunigeranlagen wie dem CERN in Genf oder der GSI in Darmstadt sowie Anlagen in den USA und Russland zahlreiche Elemente hinzugefügt werden, die allesamt radioaktiv sind und aufgrund ihrer sehr kurzen Halbwertszeiten von Sekunden oder gar Millisekunden in der Natur nicht auftreten. Die Nukleare Astrophysik, ein Teilbereich zwischen Chemie und Physik, befasst sich mit der Umwandlung von Elementen und erklärt mit der Theorie der stellaren Nukleosynthese die Synthese von Elementen im Inneren von Sternen im r- oder s-Prozess und beantwortet damit die Frage nach der Herkunft der bekannten Elemente auf der Erde. Aufgrund dieser Anstrengungen kennen wir nun das Element mit der höchsten bekannten Ordnungszahl von 118, das Halogen Oganesson, das die siebte Periode abschließt. Das nächstschwere Element mit der Ordnungszahl 119 wäre demnach das erste Element der 8. Periode mit einem 8s1 -Valenzelektron. Spannend würde es beim Element mit der Ordnungszahl 121: hier würde nach der einfachen Theorie ein völlig neuer Orbitaltyp mit Elektronen besetzt, nämlich das g-Orbital (l=4) mit 9 Varianten (m l =-4,. . . ,4), sodass der hypothetische g-Block 18 Elemente umfassen würde. Ob die für g-Elemente vorhergesagten Eigenschaften zutreffen, ist eine spannende und noch offene Frage. Durch die starken relativistischen Effekte und die starke SpinBahn-Kopplung ist es jedoch wahrscheinlich, dass die bisherige strenge Ordnung des PSE einer komplizierten Feinstruktur weicht und g-Orbitale erst später gefüllt werden, ja sich die Gruppenstruktur generell nicht mehr als brauchbare Ordnungsstruktur der schwersten Elemente erweist. Aber gibt es denn eine Periode Acht überhaupt? Kann es irgendwann das schon von Hans Dominik in seinem Roman Atomgewicht 500 beschworene Element geben? Prinzipiell ja, denn die Quantenzahlen lassen sich rein mathematisch erhöhen. Praktisch begrenzend wirkt aber die immer weiter sinkende Stabilität der Atomkerne schwerer Elemente. Einige Rechnungen lassen vermuten, dass ab Ordnungszahlen 137 oder 173 keine stabilen Atomkerne mehr möglich sind, auch keine kurzlebigen. Aussagen darüber werden von der Kernchemie gegeben, die die Prinzipien der Stabilität von Atomkernen erforscht. Eine ihrer Theorien, die durch die jüngsten Entdeckungen gestützt wird, besagt, dass schwere Kerne, wie wir sie jetzt gefunden haben, überhaupt nur noch durch Schaleneffekte stabilisiert werden, wie sie in ähnlicher Art auch in der Elektronenhülle vorhanden sind. d. h. es gibt neben Elektronen- auch Protonen- und Neutronenschalen. Die jüngsten Elemente wie Flerovium-285 ( 285 114Fv mit 114 Protonen und 171 Neutronen und einer Halbwertszeit von etwa 5 Sekunden) liegen aufgrund dieser Schalenstabilisierung bereits in der früher als Insel der Stabilität gedachten Zone relativ stabiler Elemente in einem Meer der Instabilität, d. h. der Kerne mit extrem kurzen Zerfallszeiten.

2.3 Sekundäre und Van-der-Waals-Wechselwirkungen | 279

2.3 Sekundäre und Van-der-Waals-Wechselwirkungen Für Medienapparate sind nicht nur die aus der Schule bekannten starken metallischen, ionischen oder kovalenten Bindungen von Bedeutung, vielmehr rufen auch schwächere ungerichtete sekundäre Wechselwirkungen viele Anwendungsphänomene hervor. Die Tabelle gibt einen Eindruck der möglichen Bindungsarten und ihrer relativen Stärke. Die Bindungsarten werden im folgenden Text näher erläutert. Tab. 2.1: Bindungsarten und ihre relative Stärke. Es bedeuten μ Dipolmoment, ε Dielektrizitätskonstante, α Polarisierbarkeit, e Ladung, I Ionisierungsenergie, a Abstand der Partner Bindungsart/ Bindungskraft Van-der-Waals-Kräfte Dispersions- oder London-Wechselwirkung zwischen atomaren Dipolen in polaren und unpolaren Molekülen, z. B. in PE oder PET

Bindungsart Abstands(kJ/mol) abhängigkeit

5–40

a2 I a7

20–60

μ2 a4

2–10

αμ2 a7

Richt- oder Keesomkräfte zwischen permanenten Dipolen in polaren Molekülen, z. B. in PAN oder PET Induktions- oder Debyekräfte zwischen permanenten und induzierten Dipolen in polaren Molekülen Wasserstoffbrücken zwischen OH/NH und O/N, z. B. in Cellulose, PA, EL Coulomb- oder Ion-Ion-Wechselwirkung zwischen Ionen, z. B. in Keratin oder Salzkristallen

25–50 600–1000

Ion-Dipol-Kräfte zwischen Ionen und Dipolen Ionen-Induktionskräfte zwischen Ionen und polarisierbaren Atomen Kovalente Bindung

e2 εa2

eμ εa3

60–700

Warum ist es wichtig, über Bindungsarten Bescheid zu wissen? Aus der anwendungsnahen Perspektive des Medienwissenschaftlers heraus betrachtet entscheidet die Stärke oder Schwäche der mikroskopischen Bindungen über wichtige makroskopische Eigenschaften von Stoffen. Die starke ionische Bindung eines Salzkristalls macht ihn hart, aber spröde und erlaubt es, ihn leicht in Wasser aufzulösen. Die starke nichtionische kovalente Bindung eines Reaktivfarbstoffs an Stoff dagegen verhindert effizient, dass sich der Farbstoff durch Waschen selbst mit heißem Wasser vom Stoff lösen lässt. Van-der-Waals- und hydrophobe Bindungen führen zu oft starken Adhäsionsef-

280 | 2 Anorganische Chemie und Grundlagen fekten zwischen Molekülen und sind Triebkräfte zur Bildung supramolekularer¹ Strukturen, die ihrerseits makroskopische Eigenschaften wie Farbe, Härte oder Löslichkeit bestimmen. Insbesondere die Van-der-Waals-Wechselwirkung tritt bei allen Molekülen auf, wird aber mit steigendem Abstand rasch kleiner und fällt daher häufig nicht ins Gewicht. Sie tritt bei engem Teilchenkontakt auf und ist Anlass der Adhäsionseffekte. Denken Sie an feine Pulver (Farbstoffe, auch Mehl oder feines Kunststoffgranulat), die umso williger Klümpchen bilden, je feiner sie sind. Die Klümpchen können ebenso leicht zerstört werden, wie sie entstehen, die Bindung ist also nicht stark. Auch die Haftung von Farbstoffen auf Textilien, die Festigkeit von Klebungen, die Filmbildung von Acrylfarben oder die Haftung von Geckos auf Wänden ist auf diese Wechselwirkungen zurückzuführen, die umso stärker ist, je enger der Kontakt und je größer die beteiligten Oberflächen. Unter dem Begriff der Van-der-Waals-Wechselwirkung fassen wir drei sehr ähnliche Wechselwirkungen zusammen, wobei oft nicht klar zwischen diesen Kräften unterschieden wird (was häufig auch nicht nötig ist): – Die Dispersionswechselwirkung oder London-Kraft zwischen zwei elektrisch neutralen Molekülen, in denen durch die Elektronenbewegung Ladungsfluktuationen und damit temporäre Dipole entstehen, die sich gegenseitig anziehen. Die London-Kraft ist im allgemeinen die dominierende der drei Komponenten der Van der Waals-Wechselwirkung. – Die Keesom-, Richt- oder Dipol-Dipol-Wechselwirkung zwischen zwei permanenten Dipolen in asymmetrischen polaren Molekülen, die sich gegenseitig anziehen. Permanente Dipole entstehen durch unterschiedliche Elektronegativitäten der beteiligten Atome und daraus folgend unterschiedlichen Ladungsdichten im Molekül. Beispiele sind sauerstoff- oder stickstoffhaltige Verbindungen mit Hydroxylund Aminogruppen, Carbonylgruppen oder Nitrilen. Ein Beispiel dieser Wechselwirkung mit besonderer Stärke sind Wasserstoffbrückenbindungen zwischen einem elektronegativen Atom (z. B. Sauerstoff einer Carbonylgruppe -CO-) und einem locker gebundenen (aciden) Wasserstoffatom (z. B. Wasserstoff einer Aminogruppe N-H). – Die Debye- oder Induktionswechselwirkung zwischen einem primären permanenten Dipol und einem polarisierbaren Molekül, also einem induzierten Dipol. Ein primärer (permanenter oder temporärer) Dipol A induziert durch sein elektrisches Feld in dem polarisierbaren Molekül eine Ladungstrennung und ein Dipolmoment B. Die beiden Dipole A und B wechselwirken anschließend miteinander.

1 Supramolekulare Strukturen beschreiben den Aufbau von Strukturen, die aus mehreren oder vielen unabhängigen Molekülen bestehen, die aber in einem festen Zusammenhang zueinander stehen. Beispiele sind die Quartärstrukturen von Proteinen oder der Aufbau von Festkörpern aus individuellen Molekülen, die in bestimmtem Raster angeordnet sind.

3 Glas und Keramik 3.1 Glas Gläser, wohl seit 3400 Jahren v.u.Z. in Ägypten bekannt, sind im weiteren Sinne unterkühlte oder amorph² erstarrte Schmelzen, also Schmelzen, die nicht kristallisiert sind. Durch die Abkühlung unter den Schmelzpunkt wurden die Atombewegungen eingefroren, auch wenn die Atome die energetisch günstigste Lage im Kristallverband noch nicht einnehmen konnten. Gläser besitzen eine Nahordnung, d. h. die unmittelbare Umgebung eines jeden Atoms ist durch die (kovalenten) Bindungsverhältnisse eindeutig festgelegt, aber sie besitzen im Gegensatz zu Kristallen keine Fernordnung. Welche Atome in einem gewissen Abstand vorliegen, ist über die chemische Zusammensetzung nur statistisch bestimmt, während in Kristallen das zugrundeliegende Kristallgitter eindeutig festlegt, welche Atome in welchem Abstand anzutreffen sein werden. Gläser sind metastabil und gehen schneller oder langsamer in den stabilen kristallinen Zustand über. Sie bilden dabei mikroskopisch kleine Kriställchen, sie entglasen. Die Kriställchen sind Zentren der Lichtstreuung und führen dazu, dass entglasende Gläser allmählich Licht streuen und damit trübe werden. Dieser Vorgang ist bei allen alten Gläsern beobachtbar. Eine längere Erwärmung unter den Erweichungspunkt führt zu einer gezielten Entglasung, da durch die Wärme die Beweglichkeit der Atome erhöht wird. Gläser können aus vielen Elementoxiden sowie einigen Elementsulfiden gebildet werden, insbesondere aus sauren Elementoxiden der Typen A2 O3 (Beispiele Boroxid, B2 O3 , Aluminiumoxid Al2 O3 , Arsen(III)oxid As2 O3 , Antimon(III)oxid Sb2 O3 ), AO2 (Beispiele Siliziumdioxid SiO2 , Germaniumdioxid GeO2 ) und A2 O5 (Beispiele Phosphor(V)oxid P2 O5 , Arsen(V)oxid As2 O5 ). Die Reaktionsprodukte von Netzwerkbildnern (z. B. SiO2 , B2 O3 , Al2 O3 , P2 O5 ) mit Trennstellenbildnern (z. B. Natriumoxid Na2 O, Kaliumoxid K2 O, Magnesiumoxid MgO, Calciumoxid CaO, Blei(II)oxid PbO, Zinkoxid ZnO) stellen Gläser im engeren Sinne dar. In den meistverwendeten technischen Gläsern ist SiO2 der wesentliche Netzwerkbildner, d. h. das Glas ist ein dreidimensionales Netzwerk aus SiO4 -Tetraedern, die über alle Ecken miteinander verknüpft sind. Im Quarzkristall bilden diese SiO4 -Tetraeder ein regelmäßiges dreidimensionales Netzwerk, wie das erste Formelbild der Abb. 3.1 zeigt (in diesem und den nächsten beiden Formelbildern ist Silizium nur mit drei Bindungen gezeigt, die vierte weist jeweils räumlich aus der Papierebene hinaus und ist mit den beiden nächsten Si-OLagen verbunden). Im reinen Quarzglas werden die idealen Positionen eines Kristalls 2 Als amorph wird ein ungeordneter Zustand bezeichnet, in dem – anders als in einem Kristall – die chemische Umgebung eines Atoms nicht bestimmt ist. In Kristallen liegen die Atome dagegen in einer festen Ordnung vor. https://doi.org/10.1515/9783110496277-029

282 | 3 Glas und Keramik durch das Einfrieren der Atombewegungen bei der Abkühlung nicht erreicht, die im Kristall regelmäßige Anordnung der Atome wird durch Aufweitung oder Verengung der Ringstrukturen verzerrt, wie das zweite Formelbild zeigt.

Abb. 3.1: Dreimal Siliziumdioxid SiO2 . Links: kristalliner Quarz mit einer regelmäßigen Anordnung der Si-O-Tetraeder. Mitte: Quarzglas mit einer unregelmäßigen Anordnung der Si-O-Tetraeder, die zu weiten Si-O-Maschen und niedrigerem Schmelzpunkt führt. Rechts: Kalk-Natron-Glas mit stark aufgebrochenen Si-O-Maschen, die zu niedrigem Schmelzpunkt führen. Der Maschenbruch wird durch Kationen wie Ca2+ oder Na+ verursacht. In allen drei Formeln ist nur eine Ebene gezeigt, jedes Si-Atom besitzt eine vierte Bindung, die nach oben oder unten gerichtet ist.

In Gläsern wie dem Kalk-Natron-Glas, also in allen Haushalts- und den meisten geräteüblichen Gläsern, werden Trennstellenbildner zugemischt. Diese Zumischung führt zur Spaltung von Si-O-Si-Brücken. Durch die Brückenspaltung wird die Beweglichkeit der Atome erhöht und die regelmäßige Atomanordnung weiter gestört. Die Spaltung der Si-O-Si-Brücken erfolgt durch Oxidionen O2 – aus den Trennstellenbildnern und führt zu anionischen oxidischen Brückenköpfen, die durch die Kationen der Trennstellenbildner abgesättigt werden:

3.1 Glas

| 283

Der erhöhte Anteil ionischer anstelle kovalenter Bindungen erklärt, warum Gläser mit hohem Anteil eines Trennstellenbildners unbeständiger gegen Wasser und ionische Reagenzien sind. Der Verlust der Kristallinität und eines gewissen Anteils kovalenter Bindungen senkt den Schmelzpunkt der Gläser, je höher der Anteil des Trennstellenbildners ist. Die Bildung einer ionischen Brücke aus zwei- und mehrwertigen Kationen wie Ca++ erklärt, warum calciumhaltige Gläser höherschmelzend sind als z. B. natriumhaltige, die über keine ionischen Brücken verfügen.

3.1.1 Glassorten Heutige moderne Gläser werden aus Quarzsand (SiO2 ), Soda (Natriumkarbonat Na2 CO3 ) oder Natriumsulfat (Na2 SO4 ), Pottasche (Kaliumkarbonat K2 CO3 ), Kalk (Calciumkarbonat CaCO3 ), Mennige (Blei(II,III)oxid Pb3 O4 ), Borax (Natriumtetraborat Na2 B4 O7 ), Kaolinit (Al2 (OH)4 [Si2 O5 ]) und Feldspat (MI [AlSi3 O8 ]) hergestellt, je nach Mischungsverhältnissen erhalten Sie unterschiedliche Gläser, wie einige Beispiele zeigen. Normalglas, Kalk-Natron-Glas Kalk-Natron-Glas mit der idealisierten Zusammensetzung Na2 O ⋅ CaO ⋅ 6 SiO2 wird aus Quarzsand, Kalk und Soda hergestellt. Dieses Glas stellt das normale Flaschen-, Fenster-, Spiegel- und Gebrauchsglas dar und wird auch für Glaskolben einfacher Lampensysteme wie Glühlampen oder Leuchtstoffröhren verwendet. Kali-Kalk-Glas (böhmisches Kristallglas, Kronglas) Kali-Kalk-Glas mit der Zusammensetzung K2 O ⋅ CaO ⋅ 8 SiO2 ist schwerer schmelzbar als normales Kalk-Natron-Glas und ist durch seinen höheren SiO2 -Anteil widerstandsfähiger gegenüber Wasser. Es wird als böhmisches Kristallglas für dekorative Zwecke, als Kronglas mit niedriger Dispersion für optische Zwecke und allgemein für chemische Geräte verwendet. Ein Zusatz von Lanthan erhöht die Lichtbrechung bei gleichbleibend niedriger Dispersion. Duran-Glas (Jenaer Glas, Pyrex, Silex, Borosilikatglas) Der Ersatz von Silizium durch Bor und Aluminium erhöht die Widerstandsfähigkeit des Glases gegenüber Wasser, Säuren, Laugen und Temperaturdifferenzen beträchtlich. Bor- und Aluminiumanteile verringern den Wärmeausdehnungskoeffizient, sodass Boro- und Alumosilikatgläser beständiger gegenüber raschen Temperaturwechseln sind. Duranglas wird für chemische Geräte und im Haushalt verwendet, Pyrexglas für thermisch stark belastete Hochdrucklampen.

284 | 3 Glas und Keramik Quarzglas Quarzglas aus fast reinem SiO2 ist schwer schmelzbar und spannungsfest. Es wird für thermisch stark belastete Bauelemente eingesetzt, wie z. B. Glaskolben für Hochleistungs-Glühlampen, Halogenlampen und Hochdrucklampen, ferner im Apparatebau und im Labor.

3.1.2 Glaskeramik (Zerodur, Pyroflam) Stark aluminiumreiche Silikate, sog. Alumosilikate, bilden einen Übergang zwischen Keramik und Tonwaren einerseits und silikatischen Gläsern andererseits. Zu ihnen gehören Cordierit 2 MgO ⋅ 2 Al2 O3 ⋅ 5 SiO2 und Hochspodumen Li2 O ⋅ Al2 O3 ⋅ 4 SiO2 . Ihre Eigenschaften sind Porenfreiheit, Dichtheit und hervorragende Beständigkeit gegenüber Temperaturwechseln, was sie geeignet macht für astronomische Spiegel, Haushaltsgeschirr zum Kochen und Braten (Zerodur, Pyroflam) und als Belag für Kochfelder. Glaskeramiken entstehen aus Gläsern passender Zusammensetzung durch nachträgliche Wärmebehandlung, wodurch sich Mikrokristalle bilden.

3.1.3 Vergütung von Glas, Antireflexbeschichtung, Lambda-Schicht, IRC, dielektrische Spiegel Optische Systeme wie Linsen oder Objektive leiden prinzipiell unter dem Phänomen der Reflexion, d. h. ein einfallender Lichtstrahl wird an der Grenze zweier optisch verschiedener Medien zu einem Bruchteil R reflektiert, für den nach Fresnel gilt: R=(

n2 − n0 2 ) . n2 + n0

n0 ist der Brechungsindex des optisch dünnen Mediums (oft Luft), n2 der Brechungsindex des optisch dichten Mediums (bei optischen Systemen meist Glas oder Kunststoff). Das Phänomen ist in der Praxis ärgerlich, weil durch die Reflexion entweder störende Bildinformationen in das optische System gelangen, oder die durchgehende Lichtmenge um R verringert wird. Antireflexbeschichtungen, auch Vergütungen oder Entspiegelungen bzw. technisch Lambda-Viertel-Schichten genannt, verhindern die Reflexion und erhöhen die Transmission des Systems, indem die Reflexion mit dem einlaufenden Licht in eine destruktive Interferenz gebracht wird, d. h. der einlaufende Lichtstrahl löscht den reflektierten idealerweise vollständig aus. Erreicht werden kann dies durch Beschichtung von Glas (des dichten Mediums) mit einer dünnen dielektrischen Schicht der Brechzahl n1 , die die Eigenschaft hat, Strahlung bestimmter Wellenlänge zu reflektieren. Welche Wellenlänge λ betroffen ist,

3.1 Glas

| 285

hängt von der Dicke d der Schicht ab. Für vollständige destruktive Interferenz muss gelten ⌋︂ n1 = n0 n2 , d=

λ . 4n1

In diesem Falle wird die Strahlung der Wellenlänge λ von der Lambda-Schicht durchgelassen, und der neue Reflexionsgrad R′ = (

n2 n0 − n21 ) n2 n0 + n21

2

ist theoretisch Null, in der Praxis aber messbar, da kein Material mit genau dem gewünschten Brechungsindex n1 verfügbar sein wird. Gilt für die Dicke dagegen die Beziehung λ d= 2n1 so erfolgt Reflexion der Strahlung an der Lambda-Schicht. Dieses Verhalten kann neben der Antireflexbeschichtung zur Produktion spezieller Spiegel dienen, die für bestimmte Wellenlängen transparent sind, andere aber spiegeln: – IRC (infrared coatings), die als Reflektoren in leistungsstarken Halogenlampen gezielt den unsichtbaren, aber heißen IR-Anteil der erzeugten Strahlung zur Leuchtwendel zurückspiegeln und deren Temperatur weiter erhöhen. – Kaltlichtspiegel, die als Reflektoren von Halogenlampen nur den kühlen sichtbaren Anteil des erzeugten Lichtes in Vorwärtsrichtung abstrahlen (reflektieren), den unsichtbaren Anteil an IR-Strahlung aber in Richtung der Lampenrückseite durchlassen. Auf diese Weise wird die Wärmebelastung des angestrahlten Objekts erheblich reduziert. – Dielektrische Spiegel, die als Reflektoren in Hochleistungs-LEDs das Licht sammeln, das zur Grundplatte der LED abgestrahlt wird, und es in Vorwärtsrichtung umlenken. Statt klassischer metallischer Spiegel werden Stapel aus Silizium- und Titandioxid-Schichten SiO2 /TiO2 verwendet, die summarisch mit einer Gesamtbrechzahl n1 in obige Gleichungen eingehen. Solche Spiegel konnten die Effizienz von LEDs stark erhöhen und zur Entwicklung der Hochleistungs-LEDs für Beleuchtungszwecke beitragen. Die für diese Anwendungen nötigen Brechzahlen werden i. A. nur von wenigen Materialien erreicht. Als aufdampfbare dielektrische Materialien kommen z. B. Magnesiumfluorid MgF2 , Siliziumdioxid/Niobiumoxid SiO2 /Nb2 O5 oder Stapel von Siliziumdioxid/Titandioxid SiO2 /TiO2 -Schichten in Frage.

286 | 3 Glas und Keramik 3.1.4 Trübglas, Emaille, Farbglas, Farbfilter Trübglas oder Milchglas, das für die Glaskolben oder Schirme mancher Lampen verwendet wird, um diffuses Licht zu erhalten, entsteht durch Zusatz eines Trübungsmittels zur Glasmasse, das eine andere Brechzahl als das Glas besitzt. Es wird in Form kleiner fester Teilchen im Glas eingelagert und führt aufgrund der Differenz in den Brechzahlen an den Grenzflächen zwischen Trübungsmittel und Glas zu hoher Lichtstreuung. Als Trübungsmittel kommen Calciumphosphat Ca3 (PO4 )2 , Zinndioxid SnO2 oder Kryolith (Natrium-hexafluoroaluminat) Na3 AlF6 in Frage. Ein als Dekor oder Schutzüberzug geeignetes Trübglas ist die Emaille, zu deren Herstellung ein feingemahlenes Alkali-Borsäure-Tonerde-Glas auf Metall (meist Eisen) aufgeschmolzen wird. Durch die hohen Temperaturen wird eine dichte porenfreie Glasur auf dem Metall erhalten. Trübungsmittel sind Titandioxid TiO2 oder Zirkoniumdioxid ZrO2 . Die Färbung von Glas kann durch Zusatz von Metallionen (Ionenfärbung durch Ligandenfeldübergänge in d- oder f-Block-Metallen) oder feinverteilten Metallen (Anlauffärbung mit Metallkolloiden) erfolgen. Da die Farbe von Ligandenfeldübergängen stark von der chemischen Umgebung, also von der Zusammensetzung eines Glases abhängt, können allgemeine Regeln zur erzielten Farbe nur ungefähr gegeben werden, die folgende Tabelle liefert grobe Anhaltspunkte. Grundlage der Farbigkeit ist die Tatsache, dass d- und f-Orbitale, die im Atom energiegleich sind, in bestimmten Verbindungen unterschiedliche Energie annehmen, sodass Elektronenübergänge zwischen ihnen möglich sind. Wird die Verbindung mit Licht bestrahlt, werden bestimmte Frequenzen für den Elektronenübergang entnommen und fehlen dann, sodass die Verbindung farbig erscheint. Die Anlauffärbung ist ein physikalisches Phänomen, bei ihr hängt die Farbe von der Größe der Metallteilchen ab. Grundlage ist die Absorption von Licht bestimmter Wellenlängen durch eine kollektive Elektronenschwingung im leitenden Metallkörnchen einer bestimmten Größe. Der Zusammenhang zwischen Teilchengröße und Schwingungsfrequenz (Farbe) ist durch eine Resonanzbedingung gegeben, die Elektronenschwingungen „müssen vollständig in die Metallteilchen hineinpassen“ und entnehmen dem eingestrahlten Licht dann Energie bestimmter Frequenz. Ein bekanntes historisches Beispiel einer Anlauffärbung von Glas ist das von Kunckel gefundene Goldrubinglas, das in einem tiefen Rot erstrahlt (siehe Exponate im Zwinger zu Dresden). Da im Barock die genaue Kontrolle der Größe der Metallteilchen und damit der Farbe nicht möglich und der Mechanismus insgesamt nicht verstanden war, konnte die Färbung jedoch nicht reproduziert werden, was den Wert des Glases enorm steigerte. Die erforderliche Menge der Metallverbindung beträgt zwischen einigen Gramm und einigen Kilogramm je 100 kg Glasmasse.

3.2 Keramische Werkstoffe | 287

Tab. 3.1: Einige zur Glasfärbung eingesetzte Metallverbindungen und die erzielten Färbungen in Kalk-Natron-Glas Metallverbindung Erzielte Glasfärbung Metallverbindung Erzielte Glasfärbung (in Kalk-Natron-Glas) (in Kalk-Natron-Glas) NiO Mn2 O3 CoO FeO Cr2 O3 , CuO

Violett Blauviolett Blau Blaugrün Grün

Fe2 O3 , MnO2 Ag2 O UO2 Cu2 O

Braun Gelb Orange Rot

3.2 Keramische Werkstoffe Als Keramik werden Erzeugnisse aus anorganischen Rohstoffen bezeichnet, die unter Wasserzugabe geformt und anschließend bei hohen Temperaturen zwischen 600 und 1500 °C zu harten Produkten gebrannt werden. Bei sehr hohen Temperaturen kommt es zur Sinterung³, d. h. zur Schließung der Poren des Materials, sodass die Produkte wasserundurchlässig werden. Heute kennen wir zahlreiche traditionelle und moderne keramische Massen. Eine mögliche Unterteilung unterscheidet Tonkeramik, Oxidkeramik und Nichtoxidkeramik.

3.2.1 Tonkeramik Zur Tonkeramik zählen die schon seit der Frühzeit bekannten Töpferwaren (Geschirr, Ziegel, Dachziegel, Porzellan und Steingut). Sie basiert auf Tonen, die bei 1000–1500 °C gebrannt werden und die wesentlich aus den Tonmineralen Kaolinit Al2 (OH)4 [Si2 O5 ] (weiß) und Illit (K, H3 O)y {Al2 (OH)2 [Si4 – y Aly O10 ]} (je nach Eisengehalt gelb bis braun) bestehen. Tonkeramik kann unterteilt werden in – Gelbe bis braune Töpferware (Steingut und Steinzeug) aus Ton, einem Gemisch aus Kaolinit, Illit, Quarz, Glimmer und Humus. Die Farbe kommt von Eisenspuren. Die Brenntemperaturen für Steingut liegen bei unter 1100 bis 1300 °C, die für Steinzeug bei bis zu 1500 °C. Ein Spezialfall von Steinzeug ist das weiße Porzellan aus Kaolin oder Porzellanerde, fast reinem Kaolinit. Die Brenntemperaturen liegen bei 1200–1500 °C. – Ziegel aus Lehm, einem Gemisch aus Ton und Sand. Brenntemperaturen liegen unterhalb etwa 1180 °C.

3 Festkörperreaktion, die bei großer Hitze abläuft, aber nicht zum Schmelzen der Reaktanden führt. Die pulverförmigen Reaktanden werden dabei zusammengebacken.

288 | 3 Glas und Keramik Medienapparate auf Basis tonkeramischer Massen kennen wir aus der Frühzeit, etwa in Form altorientalischer Steintafeln. Heute werden tonkeramische Massen als Isolatoren in der Hochspannungstechnik verwendet, z. B. zur Isolierung der stromführenden Leiter von Freileitungen gegen den Mast oder Träger.

3.2.2 Oxidkeramik Der Begriff Oxidkeramik umfasst keramische Massen auf Basis von Metalloxiden wie Berylliumoxid BeO, Magnesiumoxid MgO, Aluminiumoxid Al2 O3 , Zirkoniumdioxid ZrO2 , Uran(IV)oxid UO2 , Thoriumdioxid ThO2 , Yttriumoxid Y2 O3 oder Titandioxid TiO2 . Viele von ihnen spielen eine Rolle im Kraftwerks- oder Ingenieursbereich (Kernbrennstäbe, Konstruktionsmaterial). Die Al2 O3 -Keramik ist als hochfeuerfestes durchsichtiges Material für Brennerrohre ein wesentlicher Bestandteil von HochdruckMetalldampflampen. Oxidkeramische Massen wie Bariumtitanat BaTiO3 oder Ferrit MII Fe2 O4 spielen als Werkstoffe zur Herstellung elektrischer und magnetischer Systeme eine große Rolle, etwa beim Bau von Kondensatoren.

3.2.3 Nichtoxidkeramik Zur Nichtoxidkeramik werden fortschrittliche keramische Massen aus Verbindungen der Nicht- oder Halbmetalle Silizium, Bor, Stickstoff, Kohlenstoff gerechnet, etwa Siliziumnitrid Si3 N4 , Siliziumcarbid SiC, Borcarbid B4 C oder Bornitrid BN. Diese Massen zeichnen sich durch außerordentliche Härte und Widerstandsfähigkeit aus, weswegen sie als Schleifmittel, Bremsbeläge und Beläge für Trennscheiben eingesetzt werden.

3.2.4 Dielektrika Keramische Werkstoffe leiten aufgrund ihrer guten elektrischen Isolationseigenschaften zur Gruppe der Dielektrika und Isolatoren über. Sowohl Dielektrika als auch Isolatoren zeichnen sich durch hohen spezifischen Widerstand bzw. geringe elektrische Leitfähigkeit aus. Ein Werkstoff wird als Dielektrikum bzw. Isolator angesehen, wenn sein spezifischer Widerstand ρ größer als etwa 1010 Ω cm ist. Die folgende Tabelle enthält einige elektrische Eigenschaften von Stoffen, die für die Elektroindustrie wichtig sind, darunter viele oxidkeramische Werkstoffe.

3.2 Keramische Werkstoffe | 289

Tab. 3.2: Elektrische Eigenschaften von Stoffen, die für die Elektroindustrie wichtig sind. Material

Relative Verwendung Dielektrizitätskonstante ϵ r

Luft Al2 O3 (Aluminiumoxid-Keramik) PVDF-Folie PET-Folie PS-Folie PE-Folie PP-Folie Siliziumdioxid (Quarzkristall) Zirkon-Zinn-Titanat (Zr, Sn)TiO4 Tantal(V)oxid Ta2 O5 Bariumtitanat BaTiO3 Barium-Titan-Zirkon-ZinnMischoxid BaO ⋅ TiO2 ⋅ ZrO2 ⋅ SnO2 (ferroelektrische Keramik)

1 9 6,4 3,3–4 2,5 2,3 2,2 4 10–200 26 >200 10 000

Aluminium-Elektrolytkondensator MKT-Folienkondensator Styroflex- oder MKS-Folienkondensator MKP-Folienkondensator Keramikkondensator Tantal-Elektrolytkondensator

Alle genannten Materialien sind durch ihren hohen spezifischen Widerstand elektrisch isolierend. Ob sie auch als Dielektrikum geeignet sind, hängt von ihrer relativen Dielektrizitätskonstante ϵ r ab, die eine Materialkonstante darstellt. Sie beschreibt das Ausmaß, in dem das Material von einem äußeren elektrischen Feld E polarisiert wird. Die Polarisation P kann als Verschiebung der Ladungsschwerpunkte bezogen auf das Volumen beschrieben werden: P=

∑ m ∑ Q∆l = V V

Darin sind m die Dipolmomente, Q die Ladungen und ∆l die räumlichen Verschiebungen der Ladungsschwerpunkte im Volumen V. Die Polarisation macht sich bemerkbar, indem sie die elektrische Flussdichte (dielektrische Verschiebung) D eines elektrischen Feldes E verstärkt, wenn ein Dielektrikum in das Feld eingebracht wird: D = ϵ0 E + P = ϵ0 ϵ r E Je größer D gegenüber E ist, desto größer die Polarisation des Dielektrikums und seine relative Dielektrizitätskonstante ϵ r . Je nach Art des Materials basiert P, also die Ladungsverschiebung, auf unterschiedlichen Mechanismen: – Auf der Verschiebung von Elektronen der Elektronenschale gegenüber dem Atomkern. Die erreichbaren relativen Dielektrizitätskonstanten sind gering, z. B. gilt ϵ r = 2 für PTFE. – Auf der Verschiebung von Ionen zueinander. Die höheren Ladungen führen zu höheren relativen Dielektrizitätskonstanten, z. B. ϵ r = 9 für Aluminiumoxid Al2 O3 .

290 | 3 Glas und Keramik – –

Auf der Ausrichtung permanenter Dipole. Hiermit werden hohe Dielektrizitätskonstanten erreicht, z. B. ϵ r = 80 für Wasser H2 O. Auf Ladungstrennung, womit die höchsten relativen Dielektrizitätskonstanten erreicht werden, z. B. gilt in Oxidkeramiken wie dotiertem Bariumtitanat BaTiO3 ϵ r = 100 000!

Warum ist die relative Dielektrizitätskonstante für Medienwissenschaftler überhaupt wichtig? In der Elektronik ist sie eine wesentliche Kennzahl beim Bau effizienter Kondensatoren, die bei möglichst geringen Abmessungen möglichst hohe Kapazitäten besitzen sollen. ϵ r geht wie folgt in die Kapazitätsberechnung eines (Platten-)Kondensators ein: ϵ0 ϵ r A C= d Für eine hohe Kapazität C eines Kondensators sind also eine hohe relative Dielektrizitätskonstante ϵ r , große Plattenflächen A sowie ein geringer Plattenabstand notwendig. ϵ r kann als Materialkonstante nur über die Wahl eines geeigneten Dielektrikums beeinflusst werden, während der Plattenabstand zwar frei wählbar ist, aber durch die Spannungsfestigkeit des Dielektrikums eingeschränkt wird. Typische Dielektrika von Keramikkondensatoren sind Zirkonium-Zinn-Titanat (Zr, Sn)TiO4 mit ϵ r von 10 bis 200. Moderne Oxidkeramiken wie Bariumtitanat BaTiO3 weisen hohe ϵ r -Werte zwischen 200 und 16 000 auf. Im Vergleich dazu besitzen preiswerte Aluminium-Elektrolytkondensatoren mit Aluminiumoxid-Dielektrika nur mäßige Werte von ϵ r = 9, dies kann aber durch geringen Preis und große Bauformen wettgemacht werden. Dennoch hielten für Spezialanwendungen in der modernen Miniaturelektronik hochwertigere teure Materialien Einzug: Die sehr kleinen Tantal- oder Niobium-Elektrolytkondensatoren zeigen mit ϵ r = 26 für Tantal(V)oxid Ta2 O5 oder ϵ r = 42 für Niobium(V)oxid Nb2 O5 vergleichsweise hohe Werte, die die geringe Baugröße bei gleicher Kapazität erklären. Sehr vorteilhaft ist die hohe Spannungsfestigkeit der Tantal- und Niobiumoxide. Sie erlaubt es, die Dicke des Dielektrikums zu verringern und damit die Kapazität stark zu erhöhen. Ein Nachteil dieser Werkstoffe ist, dass Tantal und Niobium aus dem umstrittenen Mineral Coltan (Columbit, Niobit oder Tantalit) (Fe, Mn)(Ta, Nb)2 O6 gewonnen werden (Kap. 4.7). Neben anorganischen Dielektrika werden auch preiswerte Kunststoffe in Kondensatoren verbaut. Sie werden entweder als dielektrische Folie zwischen Metallfolien eingebaut oder mit Aluminium oder Zink metallisiert. Es gibt – MKT-Kondensatoren: Polyethylenterephthalat-Folie (PET), – MKP-Kondensatoren: Polypropylen-Folie (PP), – Styroflex- oder MKS-Kondensatoren: Polystyrol-Folie (PS). Für die Anwendung spielt wiederum die Spannungsfestigkeit der Kunststofffolie eine große Rolle.

4 Metalle Metalle sind eine technisch wichtige Gruppe von Elementen und damit auch für Medienwissenschaftler von Interesse. Es gibt eine große Anzahl metallischer Elemente, wie ein Blick auf das PSE zeigt (Metalle: hellblau markiert):

4.1 Metalle als Stars – Arbeitspferde, Hight-Tech-Metalle und Seltene Erden Die Bedeutung von Metallen ist in ihren spezifischen Eigenschaften begründet: – Härte bei gleichzeitiger Verformbarkeit und Bearbeitbarkeit, – Stromleitfähigkeit, – Wärmeleitfähigkeit, – besondere optische Eigenschaften. Wir geben Beispiele für diese Eigenschaften und ihre Anwendung in Form einer Übersicht über unscheinbare und spektakuläre Metalle und solche, die heute in aller Munde sind. Zu Beginn jedoch einige Informationen zur Notation.

https://doi.org/10.1515/9783110496277-030

292 | 4 Metalle

4.2 Notationskonventionen Bei der heutigen Anwendug von Metallen in Hochtechnologiezweigen haben wir es kaum noch mit reinen Elementmetallen zu tun. Stattdessen werden Legierungen oder Metallkombinationen eingesetzt. Speziell in der Halbleitertechnologie haben wir es mit Basismaterialien zu tun, denen geringe Mengen anderer Elemente zugesetzt wurden, um die elektronischen Eigenschaften zu beeinflussen (sog. Dotierung). Eine mögliche Notation für eine solche Dotierung zeigt das Beispiel eines gelben Fluoreszenzleuchtstoffs für weiße LEDs: Y3 Al5 O12 :Ce3+ Dies drückt aus, dass als Basismaterial Y3 Al5 O12 vorliegt, dem geringe Mengen Ce3+ Kationen zugesetzt wurden. Auch in der Geologie, Mineralogie oder Metallurgie ist es fast immer erforderlich, variable Zusammensetzungen von Erzen, Mineralen und Legierungen kenntlich zu machen. Die Formel des Muscovits, eines Glimmers, drückt aus, dass sich Hydroxidionen OH – und Fluoridionen F – gegenseitig ersetzen können und kein bestimmter Mengenanteil einer Spezies vorliegt: KAl2 [(OH, F)2 |AlSi3 O10 ] Ein für die Elektronik wichtiges Beispiel ist Coltan (Columbit-Tantalit), ein Erz zur Gewinnung von Niobium und Tantal. Seine Formel (Fe, Mn)(Nb, Ta)2 O6 drückt aus, dass sich im Erz Niobium Nb und Tantal Ta wechselseitig ersetzen können, ebenso Eisen Fe und Mangan Mn. Die Klammersetzung schließt dagegen einen Ersatz von Fe durch Nb oder Ta oder von Nb durch Fe oder Mn aus. Wesentlich bei allen Ersetzungen ist die Erhaltung der Ladungsneutralität im Ganzen (bzw. die Erhaltung der Gesamtladung bei ionischen Verbindungen). Ein Halbleitermaterial für rote, gelbe und grüne LEDs zeigt, dass sich die Ersetzung eines Elements durch ein anderes auch quantifizieren lässt. Die Formeln Ga(As, P) oder GaAs1 – x Px

4.3 Metalle als Konstruktionswerkstoffe | 293

sind äquivalent, aber die zweite zeigt über den stöchiometrischen⁴ Parameter x, dass – wenn Phosphor P im Anteil x vorliegt – nur noch ein Anteil (1-x) an Arsen As vorhanden sein darf, um die Ladungsneutralität zu erhalten. Oft wird diese Formel von einer Angabe über die Größe von x begleitet, etwa 0,1 Au > Al > alle anderen Metalle sinkt. Bei Cu, Ag und Au ist die hohe Leitfähigkeit auf das einzelne s-Elektron der äußersten Schale zurückzuführen (Elektronenkonfiguration Cu: [Ar] 3d10 4s1 , Ag: [Kr] 4d10 5s1 , Au: [Xe] 4f 1 4 5d10 6s1 ), das aufgrund seiner großen Entfernung und der losen Bindung an den Kern eine hohe Beweglichkeit besitzt. Kupfer wird daher für Leiterbahnen auf Leiterplatten, Kabel und Litzen verwendet, Aluminium, Kupfer und Gold als Kontaktierung in Integrierten Schaltkreisen (ICs), Aluminium als Stromleiter in der Energiewirtschaft, also für Frei- und Überlandleitungen. Im Bereich der Kontaktierung (Kontaktleisten, Pfostenstecker, Federleisten etc.) werden keine reinen Metalle verwendet, da hier Haltbarkeit und Resistenz gegenüber Beanspruchung im Vordergrund stehen. Es werden Legierungen eingesetzt, die über größere Härte als die Reinmetalle verfügen. Typisch sind Cu-Sn- und Cu-ZnLegierungen (Bronze bzw. Messing). Bronzen werden teilweise vergoldet (Pfostenstecker), Messing wird aufgrund seiner höheren Härte für stark beanspruchte häufig wechselnde Buchsen, Stecker und Kontakte verwendet.

298 | 4 Metalle 4.5.2 Exkurs: Chemie der Elektronik – Ätzen von Leiterplatten Die Herstellung elektronischer Leiterplatten gibt uns die Möglichkeit, den Typ der Redoxreaktionen⁵ praxisnah als wichtigen Teil der Angewandten Chemie zu beleuchten. Leiterplatten bestehen aus einem Basismaterial (heute meist Epoxidharze, siehe Kap, 7.5.3 und 7.7), das mit einer dünnen Kupferfolie (Kupferkaschierung) belegt ist. Zum Erzeugen der Leiterbahnen müssen Teile des Kupfers weggeätzt werden. Die Ätzung der Kupferoberfläche mit dem Ziel, die Kupferkaschierung bis auf die gewünschten Leiterbahnzüge zu entfernen, wird industriell mit zwei Ätzsystemen durchgeführt: – sauer mit Kupfer(II)chlorid CuCl2 /Salzsäure HCl und schwefelsaurem Wasserstoffperoxid H2 O2 zur Reoxidation (Wiederaufbereitung des gebrauchten CuCl2 ), – basisch mit ammoniakalischem Kupfer(II)chlorid CuCl2 /NH4 OH oder (seltener) Kupfer(II)sulfat CuSO4 /NH4 OH. Die saure Ätzung verläuft in zwei Schritten:

Im ersten Schritt wird metallisches Kupfer Cu mit der Oxidationsstufe 0 mit Hilfe von Kupfer(II)chlorid aufgelöst, d. h. es geht als einwertiges Cu+ -Ion in Lösung (Oxidationsstufe +I). Die zugrundeliegende Reaktion Cu + Cu2+ ÐÐ→ 2 Cu+ ist eine Konproportionierung, d. h. eine Reaktion, bei der ein Element, das in verschiedenen Oxidationsstufen vorliegt (hier: 0 und +2), eine gleiche, dazwischenliegende (hier: +1) annimmt. In einem zweiten Schritt wird das zunächst entstandene Kupfer(I)chlorid mit Hilfe von Wasserstoffperoxid H2 O2 zum Kupfer(II)chlorid zurückoxidiert, also das primäre Ätzund Oxidationsmittel durch das sekundäre Oxidationsmittel H2 O2 zurückgebildet. Im Ganzen wird Kupfer oxidiert, Wasserstoffperoxid reduziert. Bei der ammoniakalischen Ätzung wird Kupfer(II)chlorid in ammoniakalischer Lösung zugegeben und sofort durch die Ammoniumionen zum Kupfer(II)tetraminKomplex umgesetzt, der mit Kupfer reagiert:

5 Reaktionen, die über die Abgabe bzw. Aufnahme von Elektronen miteinander gekoppelt sind.

4.5 Elektrische Eigenschaften von Metallen | 299

Auch diesem System liegt die Konproportionierungsreaktion Cu + Cu2+ ÐÐ→ 2 Cu+ zugrunde. Die Weiteroxidation des primär entstehenden Cu+ zu Cu2+ erfolgt einfach durch Luftsauerstoff. Der Sauerstoff wird dabei reduziert (Oxidationsstufen 0 nach II) Vor einigen Jahrzehnten war es unter Hobbyelektronikern beliebt, die Leiterplatten selber zu ätzen. Zu dieser Zeit wurde häufig Eisen(III)chlorid FeCl3 eingesetzt, was nicht nur eine stark korrosive Wirkung auf viele Metalle hatte, sondern stets zu hässlichen braunen Flecken führte. Die Redoxreaktion mit Kupfer ist folgende:

Begleitet wird die Oxidation des Kupfers zu löslichem Kupfer(II)chlorid von einer Reduktion des Eisen(III)chlorids zu Eisen(II)chlorid (Oxidationsstufen +III nach +II). Was lernen wir dabei? Redoxreaktionen sind technisch wichtig zum oxidativen Auflösen von Metallen (Oxidationsstufe 0, fest nach +x, löslich) und werden stets von einer Reduktion des Oxidations- oder Ätzmittels begleitet.

4.5.3 Lot, Weichlot, Elektroniklot Niedrigschmelzende Metalllegierungen werden als Lot zum Verbinden fester metallischer Werkstücke verwendet. Das geschmolzene Lot verbindet nach dem Erstarren die beiden Werkstücke fest miteinander. Im Falle von Elektroniklot sind die Werkstücke typischerweise der Anschlussdraht eines elektronischen Bauteils und die Leiterbahn einer Leiterplatte, und eine notwendige Bedingung ist, dass durch die Lötstelle eine leitende Verbindung entsteht. Mit Schmelzpunkten unter 400 °C gehört Elektroniklot zu den Weichloten im Gegensatz zu den Hartloten der Blechnerei. Älteres Elektroniklot aus der Zeit vor der RoHS-Umweltschutzrichtlinie besteht im wesentlichen aus einer Zinn-Blei-Legierung mit Verunreinigungen oder möglichen Zusätzen von Bismut, Antimon, Silber, Arsen, Eisen, Aluminium, Cadmium, Zink oder Kupfer. Die Eigenschaften ändern sich nur geringfügig mit der genauen Zusammensetzung, sodass Toleranzen für die Hauptbestandteile von 1 % akzeptabel sind und in industriellen Lötbädern Verunreinigungen bis zu 1 % in Kauf genommen werden können.⁶ Die Tabelle 4.3 zeigt die Zusammensetzung typischer bleihaltiger Elektroniklote. Eine Notation wie Sn60Pb40 bedeutet eine Legierung aus 60 Gew.-% Sn und 40 Gew.-% Pb.

6 Einige der genannten Metalle erhöhen aber im niedrigen Prozentbereich die Festigkeit des Lots und werden als gewollter Bestandteil hinzugefügt, etwa Bismut im Lot Sn52Pb45Sb3 oder Silber.

300 | 4 Metalle Tab. 4.2: Zusammensetzung typischer bleihaltiger Elektronik-Lote. Bezeichnung

Sn Pb Sonstige Bestandteile Fp. (Gew.-%) (Gew.-%) (Gew.-%) (°C)

Sn99,95 Sn62Pb36Ag2 Sn60Pb40 Sn48Pb39Bi3 Sn35Pb65 Pb97Ag3 Pb99,99

99,95 62 60 48 35 0 0

0 36 40 39 65 97 99,99

– 2 (Ag) – 3 (Bi) – 3 (Ag) –

232 178–190 183–189 178–202 183–245 295–320 327

Bei den Loten wird die Eigenschaft fester Körper ausgenutzt, als Mischung einen niedrigeren Schmelzpunkt zu haben als jede Komponente allein. Dies wird am Beispiel des Elektroniklots Sn62Pb38 deutlich, dessen niedrigster Schmelzpunkt von 183–189 °C bei einem Mischungsverhältnis von 60–62 Gew.-% Zinn und 38–50 Gew.% Blei erreicht wird, während reines Zinn bei 232 °C schmilzt und reines Blei bei 327 °C. Der Punkt des niedrigsten Schmelzpunkts wird Eutektikum genannt. Bei diesem niedrigen Schmelzpunkt, der ungefähr der Zusammensetzung Sn3 Pb entspricht, kann Elektroniklot bereits bei niedrigen Temperaturen verarbeitet werden, die die elektronischen Bauteile oder Träger nicht gefährden. (Interessant ist, dass eine solche Lotzusammensetzung bereits zur Römerzeit zum Verlöten der bleiernen Wasserleitungsrohre verwendet wurde.)

4.5.4 Bleifreies Löten, RoHS 2006 wurden im Zuge der RoHS-Richtlinie (Restriction of Hazardous Substances) zahlreiche gefährliche Stoffe im industriellen Umfeld quasi verboten bzw. ihr Gebrauch stark eingeschränkt durch die Grenzwerte von max. 0,1 Gew-% für Blei, Quecksilber, Chrom(VI), PBB (polybromierte Biphenyle), PBDE (polybromierte Diphenylether) und max. 0,01 Gew-% für Kadmium. Die RoHS-Richtlinie betraf auch bleihaltiges Lot. Forderungen für bleifreie Ersatzlote waren ein Schmelzpunkt nahe dem des Sn-Pb-Eutektikums, eutektische Mischung, maximal drei Legierungsbestandteile, patentfrei und gleichermassen verlässlich. Die Ersatzlote verzichten auf den Bleianteil und bestehen im wesentlichen aus Zinn mit Zusätzen von Silber und Kupfer im Prozentbereich (SnAgCu- oder SACFamilie mit einem Schmelzpunkt des SnAgCu-Eutektikums von 217 °C). Damit einher geht eine Erhöhung des Schmelzpunktes von etwa 40 °C, was sich erheblich auf die Prozessführung ausgewirkt hat (höhere Wärmebelastung der elektronischen Bauteile, höhere Korrosionsraten der Werkzeuge durch das chemisch aktive Zinn usw.). Ein

4.5 Elektrische Eigenschaften von Metallen |

301

Tab. 4.3: Zusammensetzung typischer moderner bleifreier Elektronik-Lote. Bezeichnung

Sn Ag Cu Fp. (Gew.-%) (Gew.-%) (Gew.-%) (°C)

Sn96,5Ag3,0Cu0,5 (SAC305) Sn96,5Ag3,5 Sn99,3Cu0,7 Sn95Ag3,8Cu0,7 (SAC387) SnCu0.7Ag1.0NiGe

96,5 96,5 99,3 95 98,3

3,0 3,5 – 3,8 1,0

0,5 – 0,7 0,7 0,7

217 221 227 217 217–219

Abb. 4.1: Spektrum einer Glühlampe. Das Spektrum entspricht einem Schwarzen Strahler relativ geringer Glühtemperatur und daraus folgendem Strahlungsmaximum im Infraroten. Der breite Peak ist noch teilweise im roten Spektralbereich zu sehen.

allgemein verwendbares bleifreies Lot ist SAC305. Die Tabelle 4.3 zeigt die Zusammensetzung typischer moderner bleifreier Elektroniklote.

4.5.5 Licht durch Widerstand – Glühlampen und Halogenglühlampen Bei diesen Lampenbauformen wird die Tatsache ausgenutzt, daß ein stromdurchflossener Draht mit hohem elektrischen Widerstand sich bis zur Glühtemperatur erhitzt und dabei als Schwarzer Strahler einen Teil der zugeführten Energie als Licht aussendet. Durch die breite Spektralverteilung (siehe Abbildung) geht bei glühenden Körpern der größte Teil der zugeführten elektrischen Energie als Hitze verloren (die Ausbeute an sichtbarem Licht beträgt um 5 %), das Licht ist rot- bis gelbstichig. Die Lichtausbeute und der Weißgrad können nur durch signifikant höhere Glühtemperaturen erhöht werden. Dennoch ist der Stromverbrauch bezogen auf die erreichte Lichtleistung sehr hoch, was zum EU-weiten Verbot von Glühlampen in jüngster Zeit geführt hat.

302 | 4 Metalle Glühlampen Glühlampen realisieren den Schwarzen Strahler durch einen leitenden Faden aus Metall, der von einem hohen Strom durchflossen wird und sich durch seinen hohen elektrischen Widerstand auf Glühtemperatur erhitzt. Das heute für Glühfäden verwendete Wolfram-Metall gehört zusammen mit Osmium Os und Tantal Ta zu den hochschmelzenden Metallen mit Schmelzpunkten oberhalb von 3000 °C. Die frühere Verwendung von Osmium (und Tantal) zusammen mit Wolfram wird im Markennamen OSRAM deutlich, der um 1900 kreiert wurde. Als Produktionsproblem stellt sich die Gewinnung des spröden und hochschmelzenden Wolframs und die Herstellung von Wolframdrähten (Kap.4.7), da Schmelzprozesse durch den hohen Schmelzpunkt nicht möglich sind und aufwendige Sinterverfahren⁷, also Feststoffverfahren, verwendet werden müssen. 4.5.5.1 Halogenglühlampe Halogenglühlampen sind Glühlampen, denen ein Halogen zum Füllgas beigemengt ist. Sie werden bei hohen Temperaturen um 3200 °C betrieben, um Lichtausbeute und Farbtemperatur zu erhöhen, d. h. sie besitzen kühleres und weißeres Licht als normale Glühlampen. Die höhere Glühtemperatur führt zu einer höheren Abdampfung des Wolframs vom Glühdraht. Zur Minderung dieses Verlustes wird ein Halogen zugesetzt, das einen Kreislauf in Gang setzt: zunächst bindet es dampfförmiges Wolfram als Halogenid und verhindert so die Ablagerung von Wolfram-Metall am Glaskolben und dessen Schwärzung, was die Lichtausbeute weiter erhöht. Wird das Wolframhalogenid zum heißen Draht zurückgeführt, dissoziiert es in Halogen und Wolfram, welches sich wieder an der Glühwendel anlagert:

Als Halogenzusatz werden Bromwasserstoff HBr, Brommethan CH3 Br oder Dibrommethan CH2 Br2 verwendet. Die hohen Betriebstemperaturen stellen eine Reihe von Anforderungen an die verwendeten Materialien und damit an die Chemie als Teil der angewandten Materialwissenschaft.

7 Sinterverfahren sind Festkörperreaktionen, d.h. die Reaktionspartner liegen in fester Form (nicht als Lösung) vor und reagieren bei großer Hitze durch Diffusionsvorgänge im (erweichten) Feststoff.

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) |

303

Konstruktion: Glas und Stromzuführung Auch Halogenlampen geben einen Großteil der zugeführten Energie als InfrarotStrahlung ab. Um diese teilweise nutzbar zu machen, wird der Glaskolben mit einem IRC (infrared coating) versehen, einem Stapel dünner dielektrischer Schichten aus Siliziumdioxid SiO2 und Niob(V)oxid Nb2 O5 , der die Eigenschaft hat, Strahlung bestimmter Wellenlänge zu reflektieren (Kap. 3.1.3). Zweck der IRC-Beschichtung im Brenner einer Halogenlampe ist die Rückreflexion der Infrarot-Strahlung auf die Glühwendel, um deren Temperatur und Lichtausbeute zu steigern, während das sichtbare Licht nach außen passieren kann. Bei leistungsstärkeren Lampen muss aufgrund der hohen Temperaturen anstelle des Kalknatronglases das höherschmelzende Quarzglas (Schmelzpunkt 1700 °C) eingesetzt werden. Ein kritischer Punkt ist die Einschmelzung der Stromzuführung. Da Metalle höhere Wärmeausdehnungen als Quarzglas haben, würde die Stromdurchführung beim Aufheizen der Lampe reißen. Es wird daher eine dünne Molybdänfolie eingequetscht, bei kühleren Lampen unter etwa 100 W werden Molybdänstifte in Hartglas eingeschmolzen. Konstruktion: Reflektoren, Kaltlichtspiegel Durch die hohe Wärmebelastung im Strahlkegel von Halogen-Punktstrahlern ist es notwendig, Kaltlichtspiegel auf die Reflektoren aufzubringen. Diese dielektrischen Beschichtungen auf IRC-Basis (Kap. 3.1.3) reflektieren das sichtbare („kalte“) Licht zu annähernd 100 % in Strahlrichtung, während die („heiße“) Infrarot-Strahlung durch den Reflektor zum Lampensockel hin entweicht. Ein solcher Kaltlichtspiegel führt zu erheblich niedrigerer Temperatur im Strahlkegel als ein Metallspiegel, der auch die Infrarot-Strahlung nach vorne fokussiert.

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) Das nächste Kapitel stellt historische und aktuelle Möglichkeiten der chemischen Erzeugung von Strom mit Hilfe von Metallen vor. Die Stromerzeugung auf physikalischem Wege, etwa über Dampf- oder Gasturbinen oder über Atom- und Wasserkraftwerke, kann hohe Kapazitäten, Ströme und Spannungen liefern, ist aber in der Regel groß, teuer und ortsgebunden. Der Siegeszug moderner Elektronik hängt daher eng mit der Verfügbarkeit portabler elektrischer Energie in Form von Batterien und Akkumulatoren zusammen, die immer leistungsstärker, kleiner, günstiger und gleichzeitig sicherer werden müssen. Entdeckung und Entwicklung von Stromquellen auf chemischer Basis fallen mit der Entdeckung des elektrischen Stroms zusammen. Technischer sprechen wir bei ihnen von elektrochemischen Speichern, Elementen oder Zellen. Elektrochemische

304 | 4 Metalle Speicher in Form von Batterien und Akkumulatoren bestehen aus einer elektrochemischen Kette, in der ein aktives Anodenmaterial⁸ als Minuspol der Stromquelle über einen ionenleitenden Elektrolyten⁹ und ggf. einen porösen, ionendurchlässigen Separator (Diaphragma) chemisch mit einem aktiven Kathodenmaterial¹⁰ verbunden ist. Über den Separator können Ionen ausgetauscht werden, während er gleichzeitig die Vermischung der chemischen Lösungen auf beiden Seiten verhindert.

Abb. 4.2: Schematische Darstellung einer elektrochemischen Kette, bestehend aus einem Anodenmaterial (elektronenliefernd, Minuspol), einem ionendurchlässigen Separator, einem elektronenleitenden Elektrolyten und einem elektronenaufnehmenden Kathodenmaterial.

An der Anode findet eine Oxidation des aktiven Materials statt (anodische Oxidation):

Die bei der Oxidation freiwerdenden Elektronen fließen als elektrischer Strom über einen äußeren Laststromkreis zur Kathode, wo sie das aktive Kathodenmaterial reduzieren (kathodische Reduktion):

8 Als Anode wird in der Elektrochemie eine Elektrode bezeichnet, an der eine Oxidationsreaktion stattfindet und die dabei Elektronen in den äußeren Stromkreis abgibt. 9 Eine fest, flüssige oder gasförmige Verbindung, die ionenleitend ist oder die bewegliche Ionen enthält. 10 Als Kathode wird in der Elektrochemie eine Elektrode bezeichnet, an der eine Reduktionsreaktion stattfindet und die dabei Elektronen vom äußeren Stromkreis aufnimmt.

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) |

305

m und o sind die Oxidationsstufen des Anodenmaterials An bzw. Kathodenmaterials Kat vor der Entladungsreaktion, n die Zahl der abgegebenen und p die Zahl der aufgenommenen Elektronen. Die beiden gezeigten Reaktionen sind die Reaktionen der Halbzellen, d. h. der isolierten, voneinander unabhängigen Anoden- bzw. Kathodenreaktion. In der elektrochemischen Zelle finden beide Reaktionen gleichzeitig statt, sodass hier die Zahl der abgegebenen Elektronen der Zahl der aufgenommenen Elektronen entsprechen muss:

Elektrochemische Speicher können verkürzt dargestellt werden, indem die anodische und die kathodische Halbreaktion durch doppelte Schrägstriche voneinander getrennt werden: An m ⇑An(m+n) ⇑⇑Kat o ⇑Kat(o−p) Die Triebkraft der Reaktion ist das unterschiedliche Oxidations- bzw. Reduktionspotential der Anoden- bzw. Kathodenmaterialien. Dies wird ausgedrückt durch die Stellung der Materialien in der elektrochemischen Spannungsreihe. Das Vermögen von Stoffen, Elektronen abzugeben bzw. aufzunehmen, wird als Spannung gegenüber einem willkürlich gewählten Nullpotenzial angegeben. Als Bezugspunkt dient die Reaktion einer Normal-Wasserstoff-Elektrode:

Die Tabelle 4.4 enthält für elektrochemische Speicher wichtige Anoden- und Kathodenmaterialien mit ihren Reaktionen in saurer Lösung. Auch einige alkalische Systeme haben Bedeutung für elektrochemische Speicher (vgl. Tabelle 4.5). Sie erkennen die hohe Bedeutung verschiedener Metalle für die Herstellung elektrochemischer Speicher. Über die praktische Anwendung in Batterien hinaus ist die Bedeutung der Elektrochemie für die Entwicklung der Chemie groß. Die Verfügbarkeit von Stromquellen ermöglichte um 1800 die elektrolytische Abscheidung von Metallen und 1807 die Reindarstellung der Metalle Natrium, Kalium, Calcium, Strontium und Barium durch Humphry Davy. Wieder sind Redoxreaktionen (vgl. Kap. 4.5.2) wesentlich für technische Anwendungen der Chemie. Die anodische Oxidation ist ein Musterbeispiel einer Oxidation, also einer Reaktion, bei der Elektronen freiwerden. Wiederum ist die Oxidation

306 | 4 Metalle Tab. 4.4: Anoden- und Kathodenmaterialien, die für elektrochemische Speicher wichtig sind. Die Tabelle enthält die im sauren Milieu ablaufenden elektrochemischen Reaktionen und die dabei gegenüber einer Normalelektrode aufgebaute Spannung (Redoxpotential). Anodenmaterial

Spezifische Ladung (Ah/kg)

RedoxKathodenpotential material (saure Lösung) (V)

Spezifische Ladung (Ah/Kg)

Pb++ + 2 H2 O ÐÐ→ 224 PbO2 + 4 H+ + 2 e – Chromsäure O2 MnO2 NO + 2 H2 O ÐÐ→ NO3 – + 4 H+ + 3 e – Hg ÐÐ→ Hg++ + 2 e – Ag ÐÐ→ Ag+ + e – LiCoO2 137 Cu ÐÐ→ Cu++ + 2 e – H2 ÐÐ→ 2 H+ + 2 e – Pb ÐÐ→ Pb++ + 2 e – Sn ÐÐ→ Sn++ + 2 e – Cd ÐÐ→ Cd++ + 2 e – Fe ÐÐ→ Fe++ + 2 e – Zn ÐÐ→ Zn++ + 2 e – Mn ÐÐ→ Mn++ + 2 e – Na ÐÐ→ Na+ + e – LiC6 K ÐÐ→ K+ + e – Li ÐÐ→ Li+ + e-

259 477 820 1168 372 3862

Redoxpotential (saure Lösung) (V) 1,698 1,38 1,23 1,23 0,959 0,86 0,799 0,8 0,340

0,000 -0,359 -0,137 -0,403 -0,440 -0,763 -1,180 -2,713 -2,9 -2,925 -3,040

Tab. 4.5: Anoden- und Kathodenmaterialien, die für elektrochemische Speicher wichtig sind. Die Tabelle enthält die im alkalischen Milieu ablaufenden elektrochemischen Reaktionen und die dabei gegenüber einer Normalelektrode aufgebaute Spannung (Redoxpotential). Anodenmaterial

RedoxKathodenpotential material (alkalische Lösung (V)

Redoxpotential (alkalische Lösung (V)

2 Ag + 2 OH – ÐÐ→ Ag2 O + H2 O + 2 e – 0,342 Cd + 2 OH – ÐÐ→ -0,824 Cd(OH)2 + 2 e –

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) |

307

zwangsweise mit einer Reduktion verbunden, da die abgegebenen Elektronen von einem Reaktionspartner aufgenommen werden müssen.

4.6.1 Primäre Batteriesysteme Es gibt zwei Arten elektrochemischer Speicher, deren Abgrenzung fließend ist: – primäre Zellen, die nicht oder nur bedingt wiederaufladbar sind, und – sekundäre Zellen, die wiederaufladbar sind (sog. Akkumulatoren oder kurz Akkus). Bis in die Gegenwart, bis zu modernen Zink-Kohle- bzw. Alkali-Mangan-Batterien hin, beruhten alle Primärelemente seit Beginn des 19. Jhd. auf Zink als Anodenmetall. Der Grund dieser anhaltenden Beliebtheit von Zink liegt in seiner hohen spezifischen Ladung und seinem stark negativen Redoxpotential. Als Nachteil von Zink-Zellen ist zu nennen, dass eine Wiederaufladung kaum möglich ist, da sich das bei der Wiederaufladung bildende Zink nicht gleichmäßig an der Elektrode abscheidet, sondern irregulär aufwächst und damit Teile des aktiven Materials verloren gehen bzw. durch feinste metallische Verästelungen leitende und kurzschlussfähige Verbindungen entstehen können. Volta’sche Säule (Zink-Luft-Element) Ein sehr frühes und bekanntes elektrochemisches Element ist die Volta’sche Säule, die um 1800 entwickelt wurde. Sie besteht aus einem Stapel von Zink- und Kupferplatten, die durch Karton oder Baumwolle voneinander getrennt sind und durch Kochsalzlösung als Elektrolyt ionenleitend verbunden sind. Diese Anordnung liefert eine Spannung von 1,1 V und beruht auf der Reduktion von Cu++ -Ionen durch Zink. Die Kupferionen entstehen aus Kupfer durch Oxidation mit Luftsauerstoff: 2 Cu + O2 ÐÐ→ 2 CuO Abwandlungen der Säule arbeiten mit den Metallpaaren Zinn-Silber, Zinn-Messing und Zink-Silber. Die Probleme dieser Säule waren – eine Nebenreaktion bei Mangel an Cu++ oder O2 (kathodische Reduktion von Wasser zu Wasserstoff) nach der Gleichung 2 H+ + 2 e – ÐÐ→ H2 , wodurch die Spannung der Zelle auf 0,76 V absinkt (Redoxpotential von Zink gegenüber der Wasserstoffelektrode), – der unregelmäßige Lochfraß an den Zinkblechen, – die langsame Bildung von CuO zur Nachlieferung der für die kathodische Reduktion benötigten Cu++ -Ionen.

308 | 4 Metalle Volta’sche Säule (alkalisch) Die Reaktionen in der Volta’schen Säule unter alkalischen Bedingungen sind folgende: Anode Zn0 + 2 OH – ÐÐ→ ZnII (OH)2 + 2 e – (Oxidationsstufe Zn: 0 nach II, -0,76 V) Kathode CuII O + H2 O + 2 e – ÐÐ→ Cu0 + 2 OH – (Oxidationsstufe Cu: II nach 0, -0,34 V) Summe Zn + CuO + H2 O ÐÐ→ Zn(OH)2 + Cu 1,1 V

In der verkürzten Darstellung stellt sich die Volta’sche Säule folgendermaßen dar: Zn / Zn++ // Cu++ / Cu. Volta’sche Säule (sauer) Reaktionen: Anode Zn0 ÐÐ→ Zn++ + 2 e – (Oxidationsstufe Zn: 0 nach II, -0,76 V) Kathode Cu++ + 2 e – ÐÐ→ Cu0 (Oxidationsstufe Cu: II nach 0, -0,34 V) Summe Zn + Cu++ ÐÐ→ Zn++ + Cu 1,1 V

Zink-Kohle-Zellen (Leclanché-Element, Zink-Kohle-Batterien) Die erste Zelle von großer technischer Bedeutung war um 1860 das LeclanchéElement, das mit Zinkanoden und Mangandioxid-Kathoden die hohe Zellenspannung von 1,5 V liefert. Als Zink-Kohle-Batterie ist es noch heute bekannt und erhältlich. Aufbau des originalen Leclanché-Elements Das originale Leclanché-Element besitzt einen Zinkbecher als Anode sowie einen Kohlestift in einem Braunstein/Graphit-Gemisch als Kathode. Der Elektrolyt ist eine saure Lösung von Ammoniumchlorid NH4 Cl. Die ablaufenden Reaktionen sind: Zn0 + 2 NH4 Cl ÐÐ→ ZnII (NH3 )2 Cl2 (Oxidationsstufe Zn: 0 nach II) + 2 H+ + 2 e – Kathode MnIV O2 + H+ + e – ÐÐ→ MnIII OOH (Oxidationsstufe Mn: IV nach III) Summe 4 Zn + 8 MnO2 + 8 NH4 Cl ÐÐ→ 1,5 V 4 Zn(NH3 )2 Cl2 + 8 MnOOH Anode

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) |

309

Das Zink wurde mit Quecksilber amalgamiert¹¹, um eine homogene Auflösung des Zinkbleches zu erreichen, da ein punktueller Lochfraß im Zinkbecher zum Auslaufen der Batterie führen würde. Ein Problem des Elements ist bei schneller oder tiefer Entladung die Bildung einer konzentrierten ZnCl2 -Lösung an der Anode. Sie nimmt durch das Konzentrationsgefälle aus dem Elektrolyten Wasser auf, wodurch der osmotische Druck im Anodenraum steigt und die Zelle auslaufgefährdet ist. Eine Verbesserung brachte die Entwicklung der „Trockenbatterie“ um 1896, in der der Elektrolyt mit Weizenstärke geliert ist. Aufbau der modernen Zink-Kohle-Batterie Aufgebaut nach dem gleichen elektrochemischen Prinzip, vermeidet die moderne Zink-Kohle-Batterie einige Nachteile des originalen Leclanché-Elements. Sie besteht aus einem Stahlbecher mit Zinkpulver als Anode, einem Graphit/Braunstein-Gemisch als Kathode und einem Elektrolyten aus Zinkchlorid-Lösung. Anode Zn0 + 2 Cl – ÐÐ→ ZnII Cl2 + 2 e – (Oxidationsstufe Zn: 0 nach II) Kathode MnIV O2 + H+ + e – ÐÐ→ MnIII OOH (Oxidationsstufe Mn: IV nach III) Summe 4 Zn + 8 MnO2 + ZnCl2 + 9 H2 O 1,5 V ÐÐ→ ZnCl2 x 4 ZnO x 5 H2 O + 8 MnOOH

Durch den vertauschten Aufbau von Anode und Kathode (die Zinkanode befindet sich nun im Inneren des Stahlbechers) hat das Auflösen der Zinkanode keine Bildung von Löchern im Becher und damit kein Auslaufen zur Folge. Im ZinkchloridElektrolyten laufen andere Zellreaktionen ab, die zur Bildung eines Zink-Doppelsalzes führen. Dies bindet Wasser als Kristallwasser und verhindert ebenfalls das Auslaufen, die Zelle trocknet bei der Entladung aus. Weiterhin kann durch Verwendung von reinem Zinkpulver als Anode auf die Amalgamierung mit Quecksilber verzichtet werden. Die Zugabe einer kleinen Menge Quecksilber war zunächst nötig, um die Nebenreaktion Zn + H2 O ÐÐ→ ZnO + H2 zu unterdrücken, die gasförmigen Wasserstoff liefert und die Zinkanode auflöst. Die Reaktion ist durch das negative Redoxpotential von Zink gegenüber Wasserstoff möglich, d. h. Zink kann Wasserstoffkationen reduzieren. Quecksilber und andere Schwermetalle können dies durch die sog. „WasserstoffÜberspannung“ verhindern. Wie wir heute wissen, verläuft die Reaktion aber bei hochreinem Zink nur langsam, sodass bei hochreinen Werkstoffen auf die Amalgamierung verzichtet werden kann.

11 Ein Amalgam ist eine Legierung von Quecksilber mit anderen Metallen.

310 | 4 Metalle Aufbau der Alkali-Mangan-Batterie Die Alkali-Mangan-Batterie ähnelt chemisch der Zink-Kohle-Batterie stark, nutzt aber verdünnte Kalilauge KOH als Elektrolyt. Ein Zinkstift dient als Anode, ein auslaufsicherer Stahlbecher mit Braunstein/Graphit-Gemisch als Kathode, ein Kunststoffvlies als Separator. Die Reaktionen dieser Zelle sind folgende: Anode

Zu Beginn (viel Kalilauge verfügbar): (Oxidationsstufe Zn: 0 nach II) Zn0 + 4 OH – ÐÐ→ [ZnII (OH)4 ]2 – + 2 e – [Zn(OH)4 ]2 – ÐÐ→ ZnO + 2 OH – + H2 O Am Ende (wenig Kalilauge verfügbar): Zn0 + 2 OH – ÐÐ→ ZnII (OH)2 + 2 e – Zn(OH)2 ÐÐ→ ZnO + H2 O Kathode MnIV O2 + H2 O + e – ÐÐ→ MnIII OOH + OH – (Oxidationsstufe Mn: IV nach III) Summe (Beginn) Zn + 2 MnO2 + 2 H2 O + 2 OH – 1,5 V ÐÐ→ [Zn(OH)4 ]2 – + 2 MnOOH

Auch bei diesem Aufbau verhindert die Platzierung der sich auflösenden Zinkanode im Inneren des Stahlbechers sowie das Verbrauchen von Wasser bei der Entladung ein Auslaufen der Zelle. Durch den im Kern gleichen Aufbau haben auch AlkaliMangan-Batterien eine Klemmenspannung von 1,5 V.

4.6.2 Sekundäre Batteriesysteme Zusammen mit den Primärbatterien entwickelten sich nach ihrer Entdeckung im 19. Jhd. auch die Sekundärzellen oder Akkumulatoren rasch weiter, sogar noch bevor in nennenswertem Umfang geeignete Generatoren zu ihrer Aufladung zur Verfügung standen. Bei der Entladung arbeiten Sekundärzellen wie Primärbatterien und liefern Strom. Bei der Ladung wird eine externe Stromquelle angelegt, die chemischen Reaktionen der Entladung laufen umgekehrt ab und bauen das chemische Reservoir an aktivem Anoden- und Kathodenmaterial wieder auf. Sekundäre Batteriesysteme sind wichtiger Bestandteil der heute weit verbreiteten transportablen Elektroniksysteme (Smartphones, Laptops), aber auch – und dann in sehr großer Ausführung – im Bereich der Energieversorgung als Pufferspeicher zum Lastausgleich, für Reserveleistung und Notstrom und in schadstoffarmen Fahrzeugen („Elektroautos“). Blei-Akkumulator Das älteste wiederaufladbare elektrochemische System ist der Blei-Akkumulator, der um 1860 von Gaston Planté entwickelt wurde. Er wird trotz seines Gehaltes an giftigem Blei noch heute häufig verwendet, da er ein sehr günstiges Betriebsverhalten zeigt, d.

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) | 311

h. sich unkompliziert und ohne aufwendige elektronische Laderegelung laden lässt. Durch die Möglichkeit der permanenten Nachladung kann er einfach als Pufferenergiequelle verwendet werden, indem er parallel zur Stromquelle geschaltet wird. Die aktiven Materialien des Blei-Akkumulators sind Blei Pb und Blei(IV)oxid PbO2 in verdünnter Schwefelsäure als Elektrolyt. Bei der Entladung eines geladenen Akkumulators spielen sich folgende Konproportionierungsreaktionen ab: Pb0 + SO4 – ÐÐ→ PbII SO4 (Oxidationsstufe Pb: 0 nach II) + 2 e– Kathode PbIV O2 + H2 SO4 + 2 H+ + 2 e – (Oxidationsstufe Pb: IV nach II) ÐÐ→ PbII SO4 + 2 H2 O Summe (Beginn) Pb + PbO2 + 2 H2 SO4 2,048 V ÐÐ→ 2 PbSO4 + 2 H2 O Anode

Die hohe Zellspannung wird derzeit nur noch von Lithium-Batterien übertroffen. Blei-Akkumulatoren altern durch Bildung von Bleisulfat PbSO4 auf den Elektroden, das nichtleitend ist und den Innenwiderstand der Zelle erhöht sowie dem Reservoir des aktiven Materials Blei entzieht. Lithium-Ionen-Batterie Erst ab den 1970er Jahren wurde das allgegenwärtige Zink als Anodenmetall durch ein neues Metall abgelöst bzw. ergänzt. Lithium besitzt ein noch deutlich negativeres Redoxpotential und eine erheblich höhere spezifische Ladung als Zink. Der Einsatz dieses potenten Metalls in Batterien bedeutet eine wesentliche technologische Neuerung auf dem Gebiet der elektrochemischen Speicher, die interessante Möglichkeiten bietet, aber auch neue Probleme stellte, die es erst zu lösen galt und noch gilt. Eines ist das hohe Reduktionsvermögen von Lithium. Durch das stark negative Redoxpotential (-3 V) können keine wässrigen Elektrolyten eingesetzt werden, da die H+ Ionen eines wässrigen Elektrolyten vom Lithium zu Wasserstoffgas reduziert würden, d. h. der Elektrolyt würde sich zersetzen. Die stattdessen eingesetzten organischen Lösungsmittel müssen jedoch ebenfalls frei von Feuchtigkeit sein, was die Herstellung von Lithiumzellen erschwert. Die hohe Energiedichte von Lithium ist zudem im Falle größerer Mengen von anodischem Lithiummetall, das als Folie aufgewickelt ist, sicherheitskritisch. Im Falle von inneren oder äußeren Kurzschlüssen fließen hohe Ströme, die mit einer starken Wärmeentwicklung verbunden sind. Die Lithiumanoden und Kunststoffseparatoren können dann schmelzen, sodass große Mengen Lithium explosionsartig mit dem Kathodenmaterial reagieren und die Batterie zu einer feuerspeienden Bombe machen können.

312 | 4 Metalle Der Einsatz von Lithium in Sekundärbatterien stieß auf weitere große Schwierigkeiten. Beim Laden, also der Rückreduktion von Lithiumkationen zu metallischem Lithium, wächst das Lithium nicht gleichmässig auf die Elektrode auf, sondern in Form von nadelförmigen Lithiumkristallen und langen verzweigten Dendriten¹², die durch den Separator stechen und den Elektrolyt zur Kathode hin kurzschließen können. Die dabei auftretenden hohen Ströme setzen große Wärmemengen frei und führen zu einer lokalen Überhitzung, die den meist hochentzündlichen Elektrolyten in Brand setzen kann. Schmilzt die Lithiumanode (Schmelzpunkt Lithium: 180 °C) und der Kunststoff-Separator, ist eine unkontrollierte großflächige explosive Reaktion des ganzen Lithiumvorrats mit der Kathodenmasse die Folge. Auch beim Überladen kann eine Überhitzung mit den genannten Folgen auftreten. Heutzutage sind auf dem Gebiet der Sekundärbatterien für Konsumerelektronik Lithiumionen-Batterien Stand der Technik. Sie vermeiden die kritische Abscheidung von metallischem Lithium an der Anode beim Laden, indem schichtartig aufgebaute Kohlenstoffverbindungen, z. B. Lithium-Graphit-Verbindungen, als Anode verwendet werden. Zwischen den Kohlenstoffschichten lassen sich viele (Nicht-)Metallionen reversibel einlagern, u.a. Lithiumkationen. Lithiumgraphit bildet eine überwiegend ionische Verbindung, die sich ungefähr als Li+ Graphit− LiC6 beschreiben lässt. Beim Entladen gibt diese Einlagerungsverbindung Elektronen und Lithiumionen ab, die in den Elektrolyten abwandern. Die Kathodenmasse nimmt Lithiumionen auf. Beim Laden werden Lithiumionen wieder als Lithiumgraphit eingelagert. Es tritt also niemals metallisches Lithium in Erscheinung. Die Lithiumionen-Batterie ersetzte aufgrund ihrer Energiedichte im Bereich tragbarer Consumerelektronik (Mobiltelefone, Laptops) nach ihrer kommerziellen Einführung 1991 innerhalb eines Jahrzehnts alle anderen Batterietypen. Aufbau der modernen Lithiumionen-Batterie Der Grundaufbau einer Lithiumionen-Batterie sieht an Anode und Kathode ein kristallines Wirtsgitter mit Schichtstruktur vor, in dem Lithiumkationen reversibel ein- und ausgelagert werden. Die Reaktionen beim Entladen einer Lithiumionen-Batterien sind folgende: Lix + C6 – ÐÐ→ x Li+ + x e – + C6 (Oxidationsstufe Graphit C6 : -I nach 0) Li1 – x CoIV O2 + x Li+ + x e – (Oxidationsstufe Co: IV nach III) ÐÐ→ Li+ Cox III Co1 – x IV O2 Summe (Beginn) Lix C6 + Li1 – x CoO2 ÐÐ→ 3,6 V C6 + LiCox III Co1 – x IV O2

Anode Kathode

12 Baum- oder strauchartig verzweigter Kristall.

4.6 Metalle für elektrochemische Speicher (Batterien, Akkumulatoren) | 313

Bei der anodischen Oxidation von Lithiumgraphit lösen sich Lithiumkationen aus dem Graphitgitter der Anode und wandern durch den ionenleitenden Elektrolyten zur Kathode, wo sie in das Gitter von Cobalt(IV)oxid CoO2 eingebaut werden. Gleichzeitig werden einige Cobalt(IV)-Kationen des Kathodenmaterials zu Cobalt(III)-Kationen reduziert. Mit eingelagertem Lithium liegen dann Verbindungen wie LiCoIII x CoIV 1 – x O2 vor. Beim Aufladen der Batterie werden die Lithiumkationen aus dem Cobaltoxidgitter freigesetzt und wandern zurück zur Anode, wo sie im Graphitgitter eingelagert werden. Die Zellspannung hängt von den verwendeten Elektrodenmaterialien ab und beträgt im Beispiel 3,6 V. Sie wird zum einen von den Redoxpaaren (multivalente Metallkationen¹³) der Kathode bestimmt, also von den Paaren MIV /MIII (z. B. Co, Ni, Mn, Fe) oder MIII /MII (z. B. Ni, Fe), oft mit mehrerern Plateaus. Typische Redoxpaare sind Co4+ /Co3+ , V5+ /V3+ , Mo6+ /Mo5+ oder Mn4+ /Mn3+ , die erreichbaren Spannungen gegenüber der Normalelektrode liegen zwischen 3,6 und 5,2 V. Zum anderen variiert auch die Spannung der Anodenmaterialien zwischen 0,1 und 1,4 V gegenüber der Normalelektrode. Die kommerziell üblichen Materialien nach dem Stand der Technik sind: – Für die Kathoden: Lithium-Cobalt-Oxid (LCO, 3,9 V) LiCoO2 . Alternativen für die teure und giftige Cobaltverbindung existieren, sind aber stets Kompromisslösungen. In Frage kommen Lithium-Mangan-Spinell (LMO, 4,1 V) LiMn2 O4 , LithiumNickel-Cobalt-Mangan-Oxid (MNC oder NMC, 3,7 V) LiNi1/3 Co1/3 Mn1/3 O2 , LithiumNickel-Cobalt-Aluminium-Oxid (NCA, 3,7 V) LiNi0,8 Co0,15 Al0,05 O2 , Lithium-NickelOxid (LNO, 3,6–3,8 V) LiNiO2 oder Lithium-Eisen-Phosphat (LFP, 3,45 V) LiFePO4 . – Für die Anoden: Natur- oder Synthesegraphit, abgekürzt C6. Alternativen für den empfindlichen Lithiumgraphit sind kaum vorhanden, Lithiumtitanat (LTO) Li4 Ti5 O12 führt zu einer um 1,4 V verminderten Zellspannung und kommt damit selten in Frage. – Die pulverförmigen Elektroden werden mit einem Bindemittel am Stromableiter (Aluminiumfolie) befestigt, üblicherweise mit Poly(vinylidenfluorid) PVDF, gelöst in N-Methyl-Pyrrolidon, oder Carboxymethylcellulose/Styrol-ButadienKautschuk (CMC+SBR). Ein Zusatz von Ruß erhöht die elektrische Leitfähigkeit des Elektrodenpulvers. – Als Elektrolyt dient ein aprotisches Lösungsmittel (Ethylencarbonat EC, Propylencarbonat PC, Dimethylcarbonat DMC), das durch Zusatz eines Leitsalzes (Lithiumhexafluorophosphat LiPF6 , Lithiumtetrafluoroborat LiBF4 ) ionenleitend für Lithiumionen ist.

13 Multivalente Metallkationen sind Metallkationen, die in mehreren Oxidationsstufen auftreten können, z.B. Eisen als Eisen(II) und Eisen(III).

314 | 4 Metalle Fast alle eingesetzten Materialien sind empfindlich gegenüber Verunreinigungen, Sauerstoff oder Feuchtigkeit, reizend, toxisch oder brennbar. Elektrolyte und Leitsalze Die in Lithiumionenbatterien verwendeten Elektrolyte müssen eine hohe Leitfähigkeit für Lithiumionen aufweisen und aprotisch sein, d. h. sie dürfen keine aktiven (sauren) Wasserstoffatome H+ aufweisen, da diese unter Wasserstoffentwicklung mit Lithium reagieren, d. h. zu Wasserstoffgas reduziert werden. Typische kommerziell eingesetzte Elektrolyte bestehen aus einer Mischung organischer Lösungsmittel und einem Leitsalz. Häufig verwendet werden Gemische aus Ethylencarbonat und Dimethylcarbonat, Diethylcarbonat oder Ethylmethylcarbonat

Leitsalze vermitteln die eigentliche Beweglichkeit der Lithiumionen im Lösungsmittel. Infrage kommen komplexe Lithiumsalze wie Lithiumhexafluorophosphat LiPF6 . Probleme und Weiterentwicklung Ein grundsätzliches Problem, das nach wie vor gelöst werden muss, ist die starke Alterungstendenz, die auf die Ein- und Auslagerungsvorgänge der Lithiumionen in den Wirtsgittern zurückzuführen ist. Je nach Struktur und Größendifferenzen der Atome und Ionen treten bei diesen Vorgängen mechanische Spannungen auf, die zum inneren Zerbrechen der aktiven Materialien und zur elektrischen Isolierung der entstehenden Körner führen. Die Kapazität der Batterie verringert sich dabei immer mehr.

4.7 Vorkommen und Gewinnung Die Gewinnung der Metalle erfolgt auf vielfältige Weise und zeigt die Vielfalt der anorganischen Chemie. Die meisten Metalle kommen in der Natur als Oxide vor, oft auch als Sulfide, Carbonate oder Hydroxide. Einige wenige Elemente wie Silber, Gold und Platin kommen auch in elementarer Form vor. Da in den genannten Verbindungen die Metalle als Kationen auftreten, muss zur Gewinnung der Reinmetalle eine Reduktion durchgeführt werden. Im technischen Maßstab erfolgt dies mit Reduktionsmitteln,

4.7 Vorkommen und Gewinnung | 315

die billig und in großer Menge verfügbar sein müssen. Kohle, d. h. Kohlenstoff, ist das technische Reduktionsmittel zur Gewinnung von Eisen, Silizium und anderen Metallen, die in großen Mengen und lediglich technischer, also geringerer Reinheit genutzt werden. Kohlenstoff wird dabei zu Kohlenmonoxid CO oxidiert:

Daneben spielt elektrischer Strom als Reduktionsmittel eine große Rolle, vor allem bei der Aluminiumgewinnung oder der Reinstdarstellung („Raffination“) vieler Metalle wie Nickel Ni, Kupfer Cu oder der Edelmetalle Silber Ag und Gold Au. Die Metalle werden entweder in elementarer, technisch reiner Form als Anode geschaltet und durch Stromfluss in lösliche Metallkationen überführt (anodische Oxidation), oder direkt als Metallsalz in Lösung eingesetzt. Die Raffination erfolgt, indem die Metalle an der Kathode in reiner Form wieder abgeschieden werden (kathodische Reduktion):

Die elektrolytische Abscheidung von Metallen wird auch oft zur Gewinnung hochreiner Metalle eingesetzt. Einige Reinhalbmetalle und –metalle wie Silizium, Niobium oder Nickel können aus unreinen Ausgangsprodukten gewonnen werden, indem sie zunächst in flüchtige, zersetzliche Verbindungen wie Trichlorsilan SiHCl3 (Kap. 5.2), Niobium(V)chlorid NbCl5 oder Nickeltetracarbonyl Ni(CO)4 umgewandelt werden. Die flüchtigen Verbindungen werden anschließend zum Reinmetall zersetzt. Einige Funktionsmetalle wie Molybdän Mo oder Wolfram W müssen auf einzigartigen Wegen hergestellt werden, die sie teuer machen. Mo und W kommen als Sulfid (Molybdänglanz MoS2 ) und Wolframat (Wolframit (Mn, FeII )WO4 , Scheelit CaWO4 , Scheelbleierz PbWO4 ) vor. Zur Gewinnung von Molybdän wird Molybdänglanz oxidierend geröstet und zum Trioxid umgesetzt. Die Reinigung des Trioxids erfolgt durch Auslaugen des Rösterzes mit Ammoniakwasser zum wasserlöslichen Ammoniumparamolybdat, das bei hoher Temperatur wieder zum nun reinen Trioxid umgesetzt wird. Die Gewinnung des reinen Metalls als graues Pulver erfolgt durch Reduktion mit Wasserstoff und anschließendes Pressen des Pulvers in Stücke und Schmelzen oder Sintern in Wasserstoffatmosphäre zum kompakten Metall.

316 | 4 Metalle

Die Gewinnung des schwersten Elements der Gruppe, Wolfram, ist komplexer. Das natürliche Wolframat wird mit Natriumcarbonat Na2 CO3 oxidierend zum wasserlöslichen Natriumwolframat umgesetzt, das ausgelaugt und angesäuert wird. Daraufhin fällt Wolfram als Trioxid an, das wie bei Molybdän durch Auslaugen mit Ammoniakwasser und Erhitzen des Ammoniumparawolframats zum gereinigten Trioxid führt. Dieses kann wiederum mit Wasserstoff zum Metall in Form eines grauen Pulvers reduziert werden. Scheelit mit hoher Wolframat-Konzentration kann mit konzentrierter Salzsäure direkt zum Trioxid umgesetzt werden.

Die Verarbeitung des Wolframtrioxids zu Drähten ist aufwendig. Das Trioxid wird in einer Wasserstoffatmosphäre mit Kaliumsilikat und Aluminiumoxid zum Wolframpulver reduziert und zu Wolframstäben gepresst. Die Stäbe werden bei hoher Temperatur vorgesintert und unter Wasserstoffgas bei sehr hoher Temperatur dichtgesintert.

4.7 Vorkommen und Gewinnung | 317

Bei weiterhin hoher Temperatur wird der gesinterte W-Stab zum Draht gehämmert und gewalzt und mehrmals durch immer kleiner werdende Diamantziehsteine zum dünnen Draht gezogen. Die Legierungspartner SiO2 , Al2 O3 , K2 O erhöhen die Rekristallisationstemperatur von Wolfram von 1000 °C auf etwa 2300–3000 °C. Im normalen Lampenbetrieb würde die hohe Glühtemperatur des Wolframdrahtes oberhalb der 1000 °C zu einer Rekristallisation im Wolfram führen, d. h. es entstünden grobe Wolfram-Körner, die den Draht strukturell schwächen würden, bis es zum Durchbrennen an den Korngrenzen käme. Durch die Zuschlagstoffe und die Erhöhung der Rekristallisationstemperatur wird dieser Prozess unterbunden. Die für Kondensatordielektrika wichtigen Metalle Niob und Tantal werden aus ihren Mineralien als Fluoride abgetrennt. Wichtige Mineralien sind Pyrochlor (Ca, Na2 )[Nb, Ta, TiO3 ]2 (OH, F) oder Columbit (Fe, Mn)((Nb, Ta)O3 )2 . Je nach Mengenverhältnissen von Niob und Tantal wird Columbit auch Niobit, Tantalit oder Coltan (vgl. Kap. 4.7) genannt. Die Darstellung der Fluoride aus den Mineralien gelingt mit einem Gemisch aus konzentrierter Fluss- und Schwefelsäure. Die Metalle erhält man durch Schmelzelektrolyse der Fluorkomplexe Kaliumoxofluoroniobat(V) K2 [NbOF5 ] und Kaliumheptafluorotantalat(V) K2 [TaF7 ], durch chemische Reduktion der Fluoride mit Natrium bei 800 °C, oder durch Reduktion der Oxide mit Kohlenstoff bei 1700–2300 °C.

318 | 4 Metalle Während die chemisch-technischen Probleme der Gewinnung der wichtigen Metalle lösbar waren, gelang dies nicht immer für die sozialen Probleme, die mit der Gewinnung der Erze verbunden sind: Coltan erlangte Ende des 20. Jhds. im Zuge der Kriege in Zentralafrika, z. B. der DR Kongo, den Status eines Konfliktminerals, da die Einnahmen aus dem oft unkontrollierten Erzabbau zur Finanzierung von Milizen, Söldnern und Waffen für die Fortsetzung diverser Bürgerkriege verwandt werden. Auch der Umwelt- und Tierschutz in den Abbauländern bekommt die Auswirkungen des Abbaus zu spüren. Lithium, das zur Produktion von Lithiumionenakkumulatoren benötigt wird, wird aus Lithiumerzen, vor allem Spodumen LiAlSi2 O6 , oder Lithiumsalzen aus südamerikanischen und chinesischen Salzseen gewonnen. Auch dies ist mit starken Umweltbelastungen verbunden. Spodumen wird mit Schwefelsäure, Natronlauge und Schwefel zu Lithiumcarbonat Li2 CO3 umgesetzt, das bei der Verdunstung von Salzlaugen aus Salzseen direkt anfällt. Es wird mit Salzsäure zu Lithiumchlorid LiCl und durch Schmelzflusselektrolyse zum Metall umgesetzt:

5 Halbleiter Halbleiter sind Festkörper, deren elektrische Leitfähigkeit zwischen der von Isolatoren und Leitern liegt. Es handelt sich um Materialien, deren Elektronen – anders als etwa isolierte Atome – keine scharf definierten Energieniveaus einnehmen, sondern breite Energiebänder bevölkern. Das energetisch höchstliegende, noch mit Elektronen besetzte Band (Valenzband) ist durch eine Energielücke (Bandlücke) vom darüber liegenden, unbesetzten Leitungsband getrennt. Das Valenzband trägt seinen Namen, da seine Elektronen zur chemischen Bindung beitragen, während Elektronen im Leitungsband frei durch den Festkörper wandern können und die elektrische Leitfähigkeit vermitteln. Die Bandlücke ist für die geringe elektrische Leitfähigkeit verantwortlich, da sie groß genug ist, um am absoluten Temperaturnullpunkt die Besetzung des Leitungsbandes mit Elektronen kaum zuzulassen. Mit steigender Temperatur gelangen mehr Elektronen ins Leitungsband und die Leitfähigkeit steigt an (negativer Temperaturkoeffizient des spezifischen Widerstands). Neben der thermischen Anregung führen auch andere Formen der Energiezufuhr zur Besetzung des Leitungsbandes, etwa die Einstrahlung von Licht geeigneter Wellenlänge, was man in der Elektronik zur Herstellung von Fotowiderständen und auch von Solarzellen nutzt. Es gibt viele Halbleitermaterialien, davon sind jedoch i. a. nur diejenigen bekannt, die Verwendung in der Elektronikindustrie finden. Zu diesen gehören die Elemente der Gruppe IV, Silizium Si und Germanium Ge. Sie waren für wesentliche Meilensteine in der Entwicklung der Elektronik verantwortlich. Mit dem Transistor aus Germanium begann die Ablösung der teueren, stromfressenden und unzuverlässigen Elektronenröhre. Transistoren und später integrierte Schaltkreise auf Siliziumbasis vollendeten den Siegeszug der Halbleitertechnologie (vgl. Band 1, Kap. I.6.1.2). Das heute fast ausschließlich verwendete Silizium wird dotiert, um Eigenschaften der Bandlücke (Energielücke) zu steuern, z. B. mit Elementen der Gruppen II/VI oder III/V, die zusätzliche Elektronen bzw. Lücken schaffen und die natürlichen Halbleiterfähigkeiten erhöhen bzw. steuern. Die Wirkung der Dotierung besteht darin, dass durch den Zusatz von Gruppe III-Elementen (p-Dotierung) Elektronenlöcher bzw. durch den Zusatz von Gruppe V-Elementen (n-Dotierung) überschüssige Elektronen in den Siliziumfestkörper eingebracht werden. Gleichermaßen wirken Elemente der Gruppen II und VI.

https://doi.org/10.1515/9783110496277-031

320 | 5 Halbleiter Tab. 5.1: Dotierungsmöglichkeiten in einem Gruppe IV-Halbleiter wie Silizium: Ersatz eines Gruppe IV-Elements durch ein Gruppe II- oder Gruppe III-Element führt zu Elektronendefizit („Löcher“, pDotierung), Ersatz durch ein Gruppe V- oder Gruppe VI-Element führt zu zusätzlichen Elektronen (n-Dotierung). Ebenso kann ein III-V-Halbleiter wie GaAs p-dotiert werden, wenn anstelle des Gruppe III-Elements ein Gruppe II-Element eingeführt wird. II

III

IV

V

VI

H Li Na K Rb Cs

He Be B C N O F Ne Ca Al Si P Se Cl Ar Ba Ga Ge As Se Br Kr Sr In Sn Sb Te I Xe Ba Tl Pb Bi Po At Rn p← nDotierung → Dotierung p← nDotierung → Dotierung

Elektronisch entstehen durch p-Dotierung zusätzliche Akzeptorniveaus¹⁴, durch n-Dotierung zusätzliche Donorniveaus¹⁵ in der Bandlücke. II-VI-Halbleiter wie Cadmiumsulfid CdS, Cadmiumsulfid-selenid Cd(S,Se) oder Blei(II)oxid PbO sind als gelbe bis rote Pigmente (Cadmiumgelb, Cadmiumrot, Massicot, Litharge) bekannt. Da sie wesentlich für die moderne Elektronik sind, seien aus der Fülle der Halbleiter jedoch die III-V-Halbleiter herausgegriffen.

5.1 III-V-Halbleiter – LEDs (lichtemittierende Dioden) Unverzichtbar für die Signal- und Lichttechnik sind die III-V-Halbleiter geworden, die aus Elementen der Gruppe III und der Gruppe V bestehen, die jeweils 3 bzw. 5 Elektronen zur chemischen Bindung im Festkörper beisteuern, im Schnitt also 4 genau wie im Silizium. Die für die Lichterzeugung verwendeten Halbleitermaterialien unterscheiden sich damit vom Grundmaterial von Transistoren, Dioden und integrierten Schaltungen, die p- und n-dotiertes Silizium nutzen. LEDs (light emitting diodes) sind Lichtquellen aus einem Halbleitermaterial mit zwei Anschlüssen für die Stromzuführung. Sie beruhen auf der Zwischenschicht zwischen p- und n-dotiertem Material, dem pn-Übergang, und setzen elektrische Energie direkt in fast monochromatisches Licht um. Durch Wahl von Halbleitermaterial und Dotierung ist die Wellenlänge des emittierten Lichtes in weiten Bereichen steuerbar.

14 zusätzliches Energieniveau innerhalb der Bandlücke, das Elektronen aufnehmen kann. 15 zusätzliches Energieniveau innerhalb der Bandlücke, das Elektronen abgeben kann.

5.1 III-V-Halbleiter – LEDs (lichtemittierende Dioden) | 321

5.1.1 Prinzip der Lichterzeugung in Halbleitern Der Grundaufbau einer LED entspricht einem pn-Kontakt. Als Beispiel sei dotiertes Silizium benutzt. Elektronen diffundieren von n-dotiertem Silizium n-Si zum pdotierten Silizium p-Si, Löcher diffundieren in umgekehrter Richtung. In der Mitte treffen beide Spezies aufeinander und rekombinieren. Als Folge entstehen Raumladungen: Im n-Si bleiben positiv geladene Fremdionen zurück, im p-Si negativ geladene. Dazwischen liegt die Verarmungszone, eine Zone, in der sowohl Elektronen als auch Löchern fehlen. Das durch die Raumladungen entstehende elektrische Feld, das der Wanderungstendenz der Elektronen und Löcher entgegengerichtet ist, stoppt die weitere Diffusion, sodass am pn-Kontakt ein stabiler Gleichgewichtszustand entsteht. Legt man n-Si an den Minuspol und p-Si an den Pluspol einer Spannungsquelle der Größe E u an, erzeugt man also ein stärkeres Gegenfeld, werden Elektronen über das n-Si in die Verarmungszone getrieben, ebenso die Löcher via p-Si. In der Verarmungszone rekombinieren beide. Es fließt ein Strom, die fortgesetzte Rekombination setzt die Energie E g als Fotonen (Licht) frei. In gleicher Weise entsteht Licht in III-VHalbleitern.

Abb. 5.1: Schematische Verhältnisse in einem pn-Kontakt. Im n-dotierten Silizium bevölkern die zusätzlichen Elektronen teilweise das Leitungsband, im p-dotierten Silizium ist das Valenzband durch Elektronenmangel nicht vollständig gefüllt. Die Elektronen können zum p-Si wandern, die „Löcher“ zum n-Si, bis durch Rekombination eine ladungsfreie Zone entstanden ist. Der Potentialunterschied E g entspricht der Bandlücke. E u ist eine äußere angelegte Spannung, die weitere Elektronen in die ladungsarme Zone treibt. Die Rekombination dieser Elektronen mit den Löchern setzt die der Bandlücke entsprechende Energiemenge als Licht frei.

322 | 5 Halbleiter Tab. 5.2: Größe der Bandlücke E g in eV für gängige Halbleitermaterialien. L ist die Wellenlänge der bei der Rekombination entstehenden Lichtstrahlung. Verbindung E g (eV) L (nm) Verbindung E g (eV) L (nm) C Si Ge AlN AlP AlAs AlSb GaN GaP GaAs GaSb InN InP InAs InSb

5,4 1,12 0,67 6,02 2,45 2,16 1,60 3,34 2,24 1,35 0,67 2,0 1,27 0,36 0,163

230 1110 1850 206 506 574 775 371 554 918 1850 620 976 3400 7610

ZnS ZnSe ZnTe

3,54 2,58 2,26

350 481 549

CdS CdSe CdTe

2,42 1,74 1,50

512 713 830

5.1.2 Chemischer Aufbau von LEDs Gruppe IV-Halbleitermaterialien liefern bei der Rekombination von Elektronen und Löchern Strahlung außerhalb des sichtbaren Wellenlängenbereichs. II-VI- und III-VHalbleiter decken dagegen den ganzen Wellenlängenbereich vom Ultravioletten bis zum Infraroten ab. Zu den modernen, sichtbares Licht erzeugenden III-V-Halbleitern zählen Verbindungen der allgemeinen Zusammensetzung (Al, Ga, In)(N, P, As, Sb). Die p-Dotierung der Gruppe-III-Elemente erfolgt mit Gruppe-II-Elementen (z. B. Zink Zn), die ein Elektron weniger besitzen und damit das p-Loch beisteuern. Die nDotierung der Gruppe-V-Elemente erfolgt mit Gruppe-VI-Elementen (z. B. Selen Se), die ein Elektron mehr haben. Die erreichbaren Bandlücken einiger Element-Halbleiter sowie einiger binärer III-V- und II-VI-Halbleiter sind zum Vergleich in der Tabelle aufgeführt. Da sich Elemente der Gruppe III und V gegenseitig vertreten oder ersetzen können, werden anstelle einfacher binärer Verbindungen i. A. ternäre oder quartäre Mischungen wie Alx Ga1 – x As (Alx Ga1 – x )y In1 – y , Alx Iny Ga1 – x – y N (x=0..1)

5.1 III-V-Halbleiter – LEDs (lichtemittierende Dioden) | 323

benutzt. Die Größe der Bandlücke ist vom Mengenanteil x abhängig und kann damit durch die Zusammensetzung des Halbleiters gesteuert werden. Im ternären Beispiel lässt sich die Größe der Bandlücke E g ungefähr durch die lineare Funktion E g = 1,424 + 1,237x beschreiben. II-VI-Verbindungen auf Basis von (Zn,Cd)(S,Se,Te) sind nicht so stabil in der Anwendung wie die bekannten III-V-Halbleiter. Moderne, heute verwendete Materialien für LEDs sind daher: – Indium-Gallium-Nitrid InGaN, überdeckt theoretisch das ganze Spektrum, praktisch aber für die Herstellung grüner und blauer LEDs genutzt, besonders für lichtstarke blaue LEDs: Blau; AlInGaN (Emission bei 430 nm, E g =2,6 eV), Grün; GaInN (Emission bei 500 nm), GaP (E g =2,2 eV). – Aluminium-Indium-Gallium-Phosphid AlInGaP, genutzt für gelbe und rote LEDs: Gelb GaP (Emission bei 550 nm), GaAsP/GaP (Emission bei 600 nm), AlInGaP (E g =2,1 eV), Rot AlGaInP/GaP (Emission bei 630 nm), auch AlGaAs (E g =1,8 eV). Zur Herstellung lichtstarker LEDs waren technische Probleme zu lösen, etwa die Erhöhung der Rekombinationswahrscheinlichkeit zwischen Elektronen und Löchern und die effiziente Auskopplung des Lichtes aus dem Halbleiterkristall. Zur Lösung muss der Schichtaufbau des Kristalls und die Systemgeometrie sorgfältig geplant werden. Der einfache pn-Übergang wird bei modernen LEDs als Schichtenfolge aus verschiedenen Halbleitermaterialien ausgeführt, die zu Sprüngen im Potential führt. Die Potentialsprünge formen einen Potentialtopf, verkleinern die Rekombinationszone und erhöhen so die Wahrscheinlichkeit für die Strahlungsabgabe, Lichtausbeute und intensität. Ebenso wird der Lichtaustritt geometrisch günstig gestaltet, was ebenfalls die Lichtausbeute erhöht, da weniger Licht ungenutzt seitlich abgestrahlt wird. Der pn-Übergang wird durch Aufwachsen der Halbleitermaterialien auf ein Trägermaterial (Substrat, oft Saphir oder Siliziumcarbid SiC) hergestellt (Epitaxie¹⁶ aus Flüssigkeit oder Gas). Als Herausforderung ist zu sehen, dass jedes Material sein bestimmtes Kristallgitter ausbildet und die Kombination mehrerer Gittertypen die Lichtstärke der LED beeinflusst. Passen die Kristallgitter nicht zueinander, resultiert eine nur geringe Lichtausbeute. Frühe LEDs waren lichtschwach, da sie auf der Basis Ga(As,P) und Ga(As,P):N aufbauten. Zwischen GaAs-Substrat und dem epitaxial aufgewachsenen GaAsP trat ein Gitterversatz mit zahlreichen Störstellen auf, die die oben geschilderten Grundvorgänge negativ beeinflussten und zu der bekannten geringen Lichtausbeute führten. Auch Stickstoff, wesentlicher Bestandteil der blauen LEDs, führte zu einem ähnlichen Problem.

16 Form des Kristallwachstums, bei der mindestens eine kristallographische Orientierung des aufwachsenden Kristalls einer kristallographischen Orientierung des Substrats oder Trägers entspricht.

324 | 5 Halbleiter 5.1.3 Weißlicht-LEDs In Weißlicht-LEDs wird nicht direkt weißes Licht erzeugt, was durch die monochromatische Lichterzeugung bei der Rekombination auch gar nicht möglich wäre. Stattdessen verfügen LEDs, die zur Weißlichterzeugung genutzt werden, über lichtstarke blaue LEDs und einen Fluoreszenzfarbstoff, der blaues in gelbes Licht umwandelt. Gelbes und blaues Licht mischen sich additiv zu Licht, das wir als Weiß wahrnehmen. Als Grundmaterial des gelben Fluoreszenzfarbstoffs kommt Yttrium-AluminiumOxid Y3 Al5 O12 oder Y3 Al2 [AlO4 ]3 in Frage, das mit Cer dotiert ist (YAG:Ce3+ ). Die spektralen Eigenschaften werden durch den Ersatz von Aluminium Al gegen Gallium Ga bzw. von Yttrium Y gegen Gadolinium Gd und durch die zugesetzte Menge an Cer gesteuert, sodass der gelbe Farbstoff als (Y1 – x Gdx )3 (Al1 – y Gay )5 O12 :Ce3+ angesprochen werden kann. Prinzipiell kann weißes Licht auch durch die additive Farbmischung der drei Grundfarben Rot, Grün und Blau erhalten werden. Je nach Grundfarben und Lichtintensität kann leicht kaltes, neutrales oder warmes Weiß erhalten werden. Das Problem ist jedoch, dass die weiße Farbe durch je eine unabhängige Farb-LED erzeugt wird. Während die gewünschte rote, grüne und blaue Farbe an sich leicht bei der Herstellung erreicht werden kann, ist die Langzeit-Farbstabilität der LEDs ein Problem. Sie altern nicht synchron und führen so langfristig zu einer Verschiebung des Weißpunkts, also der Lichtfarbe.

5.2 Siliziumorganische Verbindungen Über seine Bedeutung als Rohstoff für Computerchips hinaus ist Silizium auch Grundlage eines gänzlich anderen Industriezweiges, nämlich der Silikonkunststoffe. Diese relativ neuartigen Kunststoffe, zu denen Silikonkautschuke und Silikonöle gehören, weisen ungewöhnlich thermische Stabilität und elektrische Eigenschaften auf und sind wichtige technische Kunststoffe. Silizium kann in vielfältiger Weise organisch substituiert werden. Technisch wichtige Silane sind Methylchlorsilane, Phenylchlorsilane, Vinylchlorsilane und 3,3,3Trifluorpropylsilane als Vorstufen für Polysiloxane (vgl. Silikone, Kap. 7.5.1). Die für die Polymerisation wichtigen siliziumorganischen, chlorhaltigen Monomere können durch direkte Chlorierung von Silizium mit Chlor oder Chlorwasserstoff HCl gewonnen werden:

5.2 Siliziumorganische Verbindungen | 325

Ein sehr wichtiges Chlorsilan ist Trichlorsilan. Es ist wichtig zur Herstellung von synthetischem Quarzglas und hochreinem Silizium für die Solarzellenproduktion. Dazu wird es als Dampf bei hoher Temperatur gespalten und an hochreinen Siliziumstäben abgeschieden:

Trichlorsilan ist auch Ausgangsstoff bei der Herstellung von Phenylsilanen für die Silikonproduktion:

Die für Polysiloxansynthese in großer Menge benötigten Methylchlorsilane werden hauptsächlich über die Rochow-Synthese gewonnen und fallen als Produktgemisch an:

326 | 5 Halbleiter

Da hauptsächlich difunktionelle Silane für die Polysiloxansynthese gebraucht werden und mono- bzw. trifunktionale Silane zum unerwünschten Kettenabbruch bzw. zu unkontrollierten Verzweigungen führen, muss das Reaktionsgemisch vor der Polymerisation destillativ getrennt werden. Für die Polysiloxanherstellung werden die mono- und trifunktionellen Monomere in kontrollierten Mengen wieder zugemischt. Die Ausbeute an Methyldichlorsilan kann durch Zusatz von HCl zu CH3 Cl gesteigert werden.

6 Organische Chemie Die Anfänge des klassischen Gebiets der Organik liegen in der Neuzeit, als man natürliche Stoffe, die nicht aus dem Bergbau kamen, genauer untersuchte. Diese bestanden im Wesentlichen aus Kohlenstoff, Wasserstoff, Sauerstoff und Stickstoff und stammten aus biologischem Material von Pflanzen oder Tieren. Die kohlenstoffbasierten Verbindungen, die man exklusiv dem Reich der Biologie zuschrieb, gaben dem damit befassten Spezialgebiet den Namen Organische Chemie. Die Kombinationsmöglichkeiten dieser vier Elemente sind so zahlreich, dass Millionen von Stoffen aus ihnen aufgebaut werden können. Die ursprüngliche Beschränkung auf Kohlenstoff, Wasserstoff, Stickstoff, Sauerstoff und wenige weitere Elemente wie Schwefel, Phosphor oder die Halogene lockerte sich im Laufe der Zeit. Speziell seit dem 19. Jhd. wurden Versuche unternommen, die Homologen, also die schwereren Analoga der Elemente, in bekannte Verbindungen einzubauen, also Ersetzungen wie Sauerstoff gegen Schwefel, Stickstoff gegen Arsen oder Kohlenstoff gegen Silizium vorzunehmen. Dies entspricht dem Gedanken, eine funktionelle Gruppe durch eine chemisch ähnliche Gruppe zu ersetzen, um zu sehen, ob die chemische Ähnlichkeit im Resultat erhalten bleibt oder ob neue Stoffklasseneigenschaften entstehen. Ersetzt man z. B. in Alkoholen den Sauerstoff durch Schwefel, ähneln die entstehenden sog. Thiole den ursprünglichen Alkoholen. Ist die neue Gruppe aber ein Metall, z. B. nach dem Ersatz von Brom in Bromalkanen durch Magnesium, Kupfer oder Cadmium, so zeigen die resultierenden Metallorganyle gänzlich neue Eigenschaften. Insbesondere ab dem 19. Jhd. wurden auf diese Weise Metalle mit Kohlenstoffverbindungen kombiniert. Die Teildisziplin der Metallorganik betrachtet diese instabilen, also reaktiven Verbindungen, da sie wichtige Reagenzien bei der systematischen Synthese sind.

6.1 Nutzen und Einflussbereich der Organischen Chemie Wissen um die Organische Chemie ist für Medienwissenschaftler von Bedeutung, da viele Werkstoffe und Bestandteile von Medienapparaten zumindest teilweise organischer Natur sind: – Farbstoffe und Pigmente für Maler- und Druckfarben. – Polymere oder Makromoleküle für Klebstoffe, Konstruktionsmaterialien und zur Erzeugung bestimmter Eigenschaften. Polymere Konstruktionsmaterialien können als Fasern (Seile, synthetische Garne), Folien (Filme, Tüten, Verpackungen, Bau), Massen oder Platten (Gehäuse, Bau) auftreten. – Tenside für Reinigungsmittel und zur Einstellung von Eigenschaften von Flüssigkeiten wie Oberflächenspannung, z. B. in Tinten für Tintenstrahldrucker.

https://doi.org/10.1515/9783110496277-032

328 | 6 Organische Chemie

6.2 Nomenklatur, Taxonomie und Notationssysteme Im Laufe der Jahrtausende ergab sich die Notwendigkeit, Stoffe mit eindeutigen Namen zu versehen, um sich eindeutig auf sie beziehen zu können. Zu Beginn der Chemie wurden die wenigen bekannten Stoffe mit sog. Trivialnamen bezeichnet, die sich aus sichtbaren, spürbaren oder anderen offensichtlichen Eigenschaften ergaben. Diese Tradition wurde von der Antike bis ins 19. Jhd., also noch lange nach dem Beginn der wissenschaftlichen Chemie im 18. Jhd., fortgesetzt, wie Beispiele solcher Trivialnamen zeigen: – Cuprum (Kupfer) nach seiner Gewinnung auf der Insel Zypern, – Öl der holländischen Chemiker (heute: 1,2-Dichlorethan) nach der Entdeckung durch holländische Chemiker, – Ölbildendes Gas (heute: Ethen) nach seiner Eigenschaft, mit Chlor das Öl der holländischen Chemiker zu bilden, – flüchtiges Alkali (heute: Ammoniak) nach seiner Eigenschaft, flüchtig zu sein und alkalische Lösungen zu bilden, – Essigsäure, Ameisensäure, Bernsteinsäure, Milchsäure, Äpfelsäure, Harnsäure, Citronensäure, Salicylsäure oder Benzoesäure nach ihrer Herkunft (Gewinnung aus Essig, Milch, Äpfeln, Harn oder Benzoeharz). Mit dem Fortschritt der wissenschaftlichen Chemie wurde klar, dass diese Trivialnamen in keiner Weise der Reaktionsfähigkeit der Stoffe entsprachen, da sie auf zufälligen und voneinander unabhängigen Faktoren beruhen. Weiterhin verursachten sie Kommunikationsprobleme zwischen verschiedenen Forschergruppen innerhalb eines Landes und über Landesgrenzen hinweg, etwa zwischen französischen und deutschen Chemikern. Verstärkt wurden diese Probleme durch die rasant anwachsende Zahl an Verbindungen, die isoliert, hergestellt und untersucht wurden. Im 18. Jhd. begannen die damals führenden französischen Chemiker daher, eine systematische Nomenklatur zu entwickeln, die dem Stand der Forschung entsprach (Lavoisier 1787). Die Franzosen waren es auch, die 1892 zu einer internationalen Konferenz in Genf aufriefen, auf der ein Satz von 60 grundlegenden Regeln zur systematischen Benennung organischer Verbindungen verabschiedet wurde, die sog. Genfer Nomenklatur, auf der auch unser modernes System basiert. Nach verschiedenen Folgekonferenzen übernahm die 1919 gegründete IUPAC (International Union of Pure and Applied Chemistry) die Pflege und Weiterentwicklung der chemischen Fachsprache (IUPAC Gold). Ziele der modernen Nomenklatur sind u.a. – die eindeutige Benennung einer Struktur mit einem systematischen Namen, – die eindeutige Ermittlung einer Struktur aus ihrem systematischen Namen, – die elektronische Verarbeitung chemischer Strukturinformationen, – die internationale Vereinheitlichung des chemischen Sprachgebrauchs,

6.2 Nomenklatur, Taxonomie und Notationssysteme | 329



die Wiedergabe wesentlicher funktionaler Merkmale einer Struktur in ihrem systematischen Namen und damit verbunden die Entwicklung einer Taxonomie chemischer Funktionen.

Das heutige System der substitutiven Nomenklatur basiert auf dem Konzept der Stammverbindung, einem unverzweigten und möglichst großem Kohlenwasserstoff aus Kohlenstoff und Wasserstoff, die mit einem systematisch gebildeten Namen versehen wird. Atome oder Atomgruppen der Stammverbindung können durch Substituenten ersetzt werden und so zu komplizierteren Strukturen führen. Substituenten können weitere Kohlenwasserstoffe sein und damit Verzweigungen in die Stammverbindung einführen, oder Heteroatome, d. h. andere Elemente als Kohlenstoff und Wasserstoff, wie Sauerstoff, Chlor oder Schwefel. Da jedes Heteroatom typische Reaktionsmöglichkeiten besitzt, spricht man bestimmte Konstellationen von Kohlenstoff, Wasserstoff und Heteroatomen als funktionelle Gruppen an. Für spezielle Verbindungsklassen sind kleine Spezialnomenklaturen in Gebrauch, z. B. für Heterozyklen, Steroide, Flavonoide und andere Naturstoffe.

6.2.1 Notationssysteme, Summen- und Strukturformeln Eng verbunden mit der Nomenklatur von Verbindungen ist ihre zeichnerische Wiedergabe. Innerhalb der Organik haben sich mit dem Beginn der wissenschaftlichen Chemie verschiedene Notationssysteme entwickelt. Da die Organik Fragen aller Art untersucht, existiert eine Reihe von sich ergänzenden Notationssystemen. Sie sind für die Mediengeschichte interessant, da sie verdeutlichen, wie chemischer Fortschritt nach einem stetig verfeinerten Notationssystem verlangt, um die neuen Erkenntnisse eindeutig wiederzugeben und zu verbreiten. Umgekehrt können Sie beobachten, wie wissenschaftliche Notationssysteme mit Taxonomien, also Klassifikationssystemen, einhergehen und das weitere chemische Denken beeinflussen. Wir können im folgenden nur einen Eindruck der Veränderungen geben, die in (Graebe 1920) ausführlich beschrieben werden. Im 18. Jhd. wurde mit Summenformeln gearbeitet, die den damaligen Möglichkeiten entsprechend nur beschreiben, welche Elemente in welchem Mengenverhältnis in einer Verbindung enthalten sind. Diese Summenformeln ähneln anorganischen Formeln. Ein Beispiel ist die Gleichung der Oxidation von Alkohol zu Essigsäure von Döbereiner: C 2O 2H6 + 4 O = C 2O 3H3 + 3 HO (heutige Schreibweise: C2 H5 OH + O2 ÐÐ→ C2 H4 O2 + H2 O) So einfach die Summenformeln auch sind, setzten sie doch voraus, dass die Chemiker analysieren konnten, welche Elemente überhaupt in der Verbindung enthalten sind

330 | 6 Organische Chemie (Elementaranalyse). Diese keineswegs einfache Aufgabe führte zur frühen Entwicklung der Analytischen Chemie als wichtigem Teilgebiet der Chemie. Die Bestimmung der Mengenanteile der Elemente wiederum zwang die Chemiker, eindeutige Reaktionen zu finden, die für bestimmte Elemente typisch sind, und die Reaktionsprodukte zu wiegen und zu messen. Obendrein musste das Konzept des Atomgewichts entwickelt werden, also der inhärenten Masse einer elementaren Einheit. Die mehr oder minder richtige Zuweisung einer Masse zu einem Element führte zu jener Zeit häufig zu Verwirrung, z. B. wurde einem Element oft eine doppelt so große Masse zugeschrieben, wie Sie an Döbereiners Gleichung und dem Sauerstoff sehen können: Die Verhältnisse Kohlenstoff-Sauerstoff-Wasserstoff sind teilweise doppelt oder halb so groß wie die heute benutzten, da die Masse falsch bestimmt wurde oder die vorliegenden Mengenanteile des Elements falsch angenommen wurden. Ein Nachteil der Summenformeln ist, dass sie nichts über den inneren Aufbau der Verbindung aussagen. Schon die frühen Chemiker stellten fest, dass sich manche Stoffe gleichartig verhielten, dass es Stoffe gab, die sich wie Essig „sauer“ verhielten und daher als „Säuren“ angesprochen wurden, oder dass sich Alkohol in mancher Hinsicht ähnlich dem Wasser verhielt und damit als „Hydrat“ angesprochen wurde. Sie drückten dies in verschiedenen Typtheorien durch Abspaltung der als typisch angesehenen Bausteine (später Radikale¹⁷ genannt) von der Summenformel aus, z.B. C4 H10 O + H2 O (Liebig, Alkohol als Hydrat eines Oxids, heute C2 H5 OH) H 2C2 + ( 21 )H● H (= C 6H 6O) (Dumas und Boullay, Alkohol als Hydrat von Ethan, der Punkt bedeutet ein Sauerstoffatom) C4 H6 O + H2 O (Liebig, Aldehyd¹⁸ als Hydrat¹⁹ eines anderen Oxids, heute C2 H4 O oder CH3 – CHO) C 4H 6O2 + 2 H (Berzelius, Aldehyd als Analogon eines „Benzoylwasserstoffs“, heute C6 H5 – CHO) C4 H3 O, HO (allgemeine Ansicht des Aldehyds nach Liebig mit Gmelin’schen Massenäquivalenten) 2 H 2C2 + ( 21 )H● H (= C 8H 10O) (Dumas und Boullay, Diethylether als Hydrat eines „Doppel-ethans“, heute (C2 H5 )2 O) Alle diese Formeln spiegeln die Unklarheit über die genaue Rolle des Sauerstoffs in den Verbindungen wider. Allmählich gelangte die Organik jedoch zu einem besseren

17 Eine chemische Gruppe mit einem freien Elektron, hier auch als Gruppe mit freier Valenz betrachtet. 18 eine chemische Verbindung mit der funktionellen Gruppe -CHO. 19 Eine chemische Verbindung mit angelagertem Wasser.

6.2 Nomenklatur, Taxonomie und Notationssysteme | 331

Verständnis des molekularen Aufbaus der typischen Gruppen, was sich in verfeinerten Formeln und Systematiken widerspiegelte, z.B. C 8H8 hydrogène bicarboné (Ethylen, heute C2 H4 ) C 8H8● H 2O éther sulfurique (Diethylether, heute (C2 H5 )2 O) C 8H8● H 4O2 alcool (Ethanol, heute C2 H5 OH) C 8H8● H 2Cl2 éther chlorhydrique (Chlorethan, heute C2 H5 Cl) C 8H8● C 8H 6O3 éther acétique (Ethansäure-ethylester, heute CH3 COOC2 H5 ) In dieser Reihe wurde der Erkenntnis Rechnung getragen, dass die verschiedenen Verbindungen von Ethan (heute C2 H6 ) immer einen C2 -Kern aus zwei Kohlenstoffatomen enthalten, der bei den damals untersuchten Reaktionen erhalten bleibt. Die zugrundeliegende Theorie ging von einem „ungesättigten“ Kern C 8H8 (heute Ethen C2 H4 ) aus, an den verschiedene Moleküle wie Wasser H2 O, Chlorwasserstoff HCl oder Essigsäure „addiert“ werden können, um die jeweilige Verbindung zu erhalten. Diese Systematiken konnten je nach Autor anders notiert werden, Berzelius schrieb beispielsweise (mit C 14H 10O2 = Bz): Bz● (Benzoylsäure, heute: Benzoesäure oder Benzolcarbonsäure C6 H5 – COOH) BzH (Bittermandelöl, heute: Benzaldehyd C6 H5 – CHO) BzCl (Chlorbenzoyl, heute: Benzoylchlorid C6 H5 – COCl) Bz + NH2 (Benzoylamid, heute: Benzoylamid oder Benzolcarbamid C6 H5 – CONH2 ) C●● + NH2 (Oxamid, heute: Oxalsäurediamid oder Ethandisäure-diamid (CONH2 )2 ) Eine solche Komponentisierung können wir als Vorläufer unserer heutigen funktionellen Gruppen²⁰ ansehen. Der heutige Chemiker arbeitet mit erheblich genaueren Vorstellungen vom strukturellen Aufbau einer Verbindung, da sich erst aus der detaillierten Verbindung von Atomen und Atomgruppen ihre chemische Reaktivität ergibt. Heute erfolgt die zeichnerische Wiedergabe dieser Informationen in Form von Strukturformeln, die ein unterschiedliches Maß an Realitätstreue zeigen, in jedem Fall aber die grundlegenden Verbindungen zwischen den Atomen widerspiegeln, also die Konstitution der Verbindung.

20 Typische chemische Gruppierung, die als Träger einer chemischen Funktion betrachtet wird, z.B. die Carbonsäuregruppe -COOH oder die Hydroxylgruppe -OH.

332 | 6 Organische Chemie

Abb. 6.1

In der modernen, verkürzenden Zickzacknotation werden Kohlenstoff und Wasserstoff, die grundlegenden Elemente der Organik, nicht mehr als Atomsymbole notiert, sondern vereinfachend als Eck- oder Endpunkt von Zickzacklinien oder Polygonen gedacht. Auf die Wiedergabe von Wasserstoff wird in der Regel verzichtet, die Zahl der Wasserstoffatome ergibt sich aus der Vierwertigkeit des Kohlenstoffs, die vier Bindungen zulässt. Polygone, also ringförmig geschlossene Linienzüge, stellen Stoffe mit einer geschlossenen Kohlenstoffkette, einem Ring, dar. Da fünf- und sechsgliedrige Ringe oft in der Natur auftreten, finden Sie in organischen Formeln häufig Fünf- und Sechsecke. Je komplexer die Verbindung, desto mehr wird von weiteren Vereinfachungen Gebrauch gemacht. Dazu gehören Standardabkürzungen für ganze Molekülteile oder Atomklassen, wie die Tabelle 6.1 zeigt. Tab. 6.1: Gängige Abkürzungen für häufig benutzte Gruppen. Abkürzung Name -R -Hal, -X -nPr -nBu -tBu -Ph -Tos, -Ts

Rest unbestimmter Natur

Bedeutung/Formelteil

Allgemeiner, für eine bestimmte Darstellung unerheblicher Molekülteil Halogen -F, -Cl, -Br, -I Isopropyl– (CH2 )2 – CH3 oder – C3 H7 n-Butyl– (CH2 )3 – CH3 oder – C4 H9 tert.-ButylC(CH3 )3 Phenyl. – C6 H5 Tosyl- oder Toluolsulfonyl- – SO2 – C6 H5

6.2 Nomenklatur, Taxonomie und Notationssysteme | 333

6.2.2 Isomerie Der Übergang von Summen- zu Strukturformeln ist nicht eindeutig, da es zu einer Summenformel viele verschiedene Strukturformeln geben kann, die alle als Konstitutions- oder Strukturisomere angesehen werden. Strukturisomere ergeben sich durch die Möglichkeit von Verzweigungen einer Kohlenstoffkette, wie Sie am Butanol C4 H10 O erkennen können:

Während sich die beiden ersten Isomere²¹ (ausgeschriebene Darstellung: CH3 CH2 CH2 CH2 OH und CH3 CH2 CH(OH)CH3 ) von einer linearen Kette aus vier Kohlenstoffatomen (Butan genannt) ableiten und daher Butanol heißen, sind die beiden letzten Isomere verzweigt und Derivate des Propans mit einer Kette aus drei Kohlenstoffatomen (Propan genannt), an der eine Methyl- und eine Alkoholgruppe sitzt. Konsequenterweise werden diese beiden Stoffe als Methyl-propanol bezeichnet. Die ausgeschriebene Darstellung dieser Isomere ist CH3 CH(CH3 )CH2 OH und C(CH3 )3 OH. Weitere Möglichkeiten der Strukturisomerie ergeben sich durch funktionelle Gruppen wie die Doppelbindung. Für Buten C4 H8 existieren drei verschiedene Strukturisomere, die sich in der Lage der Doppelbindung (Stellungsisomere) und der räumlichen Anordnung der Atome an der Doppelbindung (Stereoisomere) unterscheiden. In der mittleren Phase der wissenschaftlichen Chemie hatte man noch keine Vorstellung über den räumlichen Aufbau einer Verbindung, sodass Strukturformeln nur die Stellungsisomere 1-Buten CH2 – CH – CH2 – CH3 mit endständiger Doppelbindung und 2-Buten CH3 – CH – CH – CH3 mit zentraler Doppelbindung unterscheiden konnten.

6.2.3 Stereoisomere Eine Unterscheidung der Stereoisomere an einer Doppelbindung gelingt erst mit dem Konzept der cis-trans-Isomerie, mit der wir im Bereich der modernen Stereochemie angekommen sind, also dem Zweig der Chemie, der sich mit der räumlichen Anordnung von Atomen und Atomgruppen und ihrem Einfluss auf Reaktivität und Synthese befasst. Zu den heute unverzichtbaren Informationen zählen der räumliche Aufbau und 21 Verbindungen, die sich bei gleicher Summenformel und Masse in der Art der Verbindung der Atome oder in der räumlichen Ausrichtung der Atome unterscheiden.

334 | 6 Organische Chemie die gegenseitigen Positionsverhältnisse. Während es für die endständige Doppelbindung im 1-Buten nur eine Möglichkeit der Struktur gibt, existieren zwei gleichwertige Formen von 2-Buten, die sich bei gleicher Strukturformel CH3 – CH – CH – CH3 und gleicher Stellung der Doppelbindung in der räumlichen Anordnung der Substituenten H und CH3 unterscheiden:

Diese Eigenschaft entsteht, da das sp2 -hybridisierte Kohlenstoffatom, das an der Doppelbindung beteiligt ist, mit seinen sp2 -Hybridorbitalen ein Dreieck aufspannt, dessen eine Ecke von der Doppelbindung und dessen zwei restlichen Ecken von H und CH3 eingenommen werden können. Diese Formen können nicht durch Drehungen oder ähnliche Operationen ineinander überführt werden, sondern nur durch einen Bruch der Doppelbindung, Drehung um diese Bindung und Neuknüpfung der Doppelbindung. Beide Formen sind also eigenständige Ausprägungen von 2-Buten und erhalten entsprechende Namen. Die ältere Bezeichnung cis bedeutet, dass beide Substituenten an der Doppelbindung auf der gleichen Seite der Doppelbindung stehen, trans, dass sie einander gegenüberstehen. Heute wird statt der cis-trans- die E-Z-Nomenklatur bevorzugt, die die räumliche Konfiguration auch bei drei Substituenten am Kohlenstoffatom eindeutig beschreibt. „Z“ steht für „Zusammen“ und drückt aus, dass die beiden höchstpriorisierten Substituenten auf der gleichen Seite der Doppelbindung liegen, während „E“ („Entgegen“) zum Ausdruck bringt, dass sie auf entgegengesetzten Seiten der Doppelbindung liegen. 2-Butanol besitzt ebenfalls zwei Stereoisomere, die von der oben gezeigten Strukturformel her aber nicht unmittelbar zu erkennen sind:

Auch hier liegen bei gleicher Strukturformel unterschiedliche Moleküle vor, die sich diesmal nicht in der Stellung an einer Doppelbindung unterscheiden, sondern in der räumlichen Anordnung um ein Atom herum. Dies wird Konfiguration genannt.

6.2 Nomenklatur, Taxonomie und Notationssysteme | 335

Die Konfiguration eines Atoms kann im Formelbild durch sich verdickende und verjüngende, fett gesetzte oder gestrichelte Bindungslinien deutlich gemacht werden, die die Räumlichkeit der Bindungen andeuten. Sich verdickende Bindungen ragen aus der Papierebene heraus, gestrichelte sind hinter der Papierebene zu denken. Normal gezeichnete Bindungen liegen innerhalb der Papierebene. Die Konfiguration wird nach der Cahn-Ingold-Prelog- oder R-S-Nomenklatur im Namen mit Hilfe der Buchstaben R oder S kenntlich gemacht. Grund dieser Art von Stereoisomerie ist die Anordnung der vier Substituenten am sp3 -hybridisierten zentralen Kohlenstoffatom in den Ecken eines Tetraeders, die unter bestimmten Umständen Anlass zu zwei grundsätzlich verschiedenen Anordnungen bietet. Sie können dies feststellen, wenn wir vom einfachsten Fall ausgehen, einem zentralen Kohlenstoffatom mit vier gleichen Substituenten, nämlich Wasserstoff. Die Verbindung heißt Methan und ist hier mit ihrem Spiegelbild gezeigt:

Methan und sein Spiegelbild sind identisch, denn das linke Methanmolekül kann durch eine oder drei Drehungen um 60° im Uhrzeigersinn um die Achse in sein Spiegelbild überführt und zur Deckung gebracht werden. Das gleiche ist bei Chlormethan und Dichlormethan der Fall, auch hier kann durch Drehungen um 60° bzw. 180° Bild und Spiegelbild zur Deckung gebracht werden:

336 | 6 Organische Chemie

Dies ändert sich, wenn das zentrale Atom von vier verschiedenen Substituenten A bis D umgeben ist:

Jetzt kann das linke Methanmolekül durch keine Drehung mehr in sein Spiegelbild überführt werden, sondern nur durch Umklappen der Bindungen (Spiegelung), was aber einen Energieaufwand bedeutet und daher nicht stattfindet. ABCD-Methan und Spiegel-Methan sind nicht identisch, sondern zwei Substanzen oder Enantiomere mit unterschiedlichen Eigenschaften. Enantiomere sind Stereoisomere, die sich wie Bild und Spiegelbild verhalten. Sie treten auf, wenn ein zentrales Kohlenstoffatom vier unterschiedliche Substituenten trägt. (Genauer: das Molekül darf keine Spiegelebene σ, kein Inversionszentrum i und keine Drehspiegelachse S n besitzen. Aber für das grundsätzliche Verständnis von Medienapparaten sind solche Feinheiten der Stereochemie nicht erforderlich.) Das Kohlenstoffatom wird dann asymmetrisches Kohlenstoffatom genannt und oft durch einen hochgestellten Stern C* als Stereozentrum markiert. Jedes solche Stereozentrum gibt Anlass zu zwei Enantiomeren. Diese Art von Stereoisomerie tritt häufig bei Naturstoffen und Pharmaka auf. Die Konfiguration an jedem asymmetrischen Kohlenstoffatom wird mit Hilfe der R-SNomenklatur beschrieben, wie das Beispiel der Milchsäure zeigt:

6.2 Nomenklatur, Taxonomie und Notationssysteme | 337

Zur Ermittlung von R oder S werden die vier Substituenten nach fallender Ordnungszahl Z angeordnet: Sauerstoff an der Pyramidenspitze hat die höchste Ordnungszahl Z=8 und daher die Priorität 1, gefolgt von der Carboxylgruppe (Kohlenstoff, Ordnungszahl Z=6, verbunden mit Sauerstoff Z=8), gefolgt von der Methylgruppe (Kohlenstoff Z=6 verbunden mit Wasserstoff Z=1), und zuletzt Wasserstoff (Z=1) mit Priorität 3. Wenn die Prioritäten der Substituenten feststehen, blickt man so auf das Stereozentrum, dass der Substituent mit der niedrigsten Priorität dahinter liegt. Wenn die drei restlichen Substituenten (die auf den Betrachter zeigen) in fallender Ordnung im Uhrzeigersinn verbunden werden können, liegt eine R-Konfiguration vor (lat. rectus, richtig), sonst eine S-Konfiguration (lat. sinister, links, „verkehrt herum“). Weinsäure besitzt zwei Stereozentren und damit vier Stereoisomere mit den Konfigurationen (2S,3S), (2S,3R), (2R,3S), (2R,3R):

In der üblichen verkürzenden Zickzack-Notation werden Symbole und Bindungen für Wasserstoff und Kohlenstoff weggelassen. Die Konfigurationen (2S,3R) und (2R,3S)

338 | 6 Organische Chemie stellen dasselbe Molekül dar. Dies ist eine der erwähnten Feinheiten der Stereochemie: da Weinsäure ein symmetrisches Molekül ist, sind diese beiden Stereoisomeren identisch, wie Sie sehen, wenn Sie die (2S,3R)-Konfiguration einmal um die kurze und einmal um die lange Achse um 180° drehen. Sie erhalten dasselbe Molekül:

Diese spezielle Konfiguration wird mit dem Präfix meso gekennzeichnet. Stereoisomerie ist wichtig, weil Stereoisomere trotz gleichen strukturellen Aufbaus unterschiedliches chemisches und physikalisches Verhalten zeigen. Jedes der Stereoisomere bringt andere räumliche Voraussetzungen zur Bildung von regelmäßigen Kristallstrukturen oder zur Reaktion mit einem Partner mit. In einer Konfiguration passen z. B. mehrere Moleküle so zusammen, dass sie ein Kristallgitter bilden können und schwerer löslich sind, während das andere Stereoisomer keine dichte Anordnung bilden kann und löslicher ist. Die chemische Reaktivität bestimmt sich durch die geometrische Passgenauigkeit der Reaktionszentren. Passen sie bei einem Stereoisomer nicht zusammen, ist die Reaktivität vermindert oder gar nicht vorhanden. Die dreidimensionale Struktur ist daher unverzichtbar für die Reaktivität von Stoffen, die Wirksamkeit oder Unwirksamkeit von Arzneimitteln oder die Duft- und Geschmacksnote von Aromastoffen.

6.3 Taxonomien für Verbindungen Es gibt aufgrund der vielfältigen Kombinationsmöglichkeiten des Kohlenstoffatoms Millionen von organischen Verbindungen. Viele der Stoffe sind untereinander jedoch ähnlich und können zu einer Stoffklasse zusammengefasst werden. Wie bereits ausgeführt, sind diese Ähnlichkeiten Grundlage der heutigen substitutiven Nomenklatur und der modernen Taxonomien, also der Klassifizierungen von Stoffen. Die Stoffklassen lassen sich unter verschiedenen Gesichtspunkten ordnen, die in der Praxis parallel verwendet werden und oft vom Fachgebiet abhängen. Mit den folgenden Merkmalen werden Verbindungen unter einfachen strukturellen Aspekten klassifiziert: – Azyklische Verbindungen besitzen eine lineare oder verzweigte Kohlenstoffkette. Beispiel:

6.3 Taxonomien für Verbindungen | 339



Alizyklische Verbindungen besitzen mindestens eine zum Ring geschlossene Kohlenstoffkette. Beispiele:



Heterozyklische Verbindungen besitzen mindestens eine zum Ring geschlossene Kette, die neben Kohlenstoff C weitere Elemente enthält, bei Naturstoffen sind dies häufig Stickstoff N, Sauerstoff O oder Phosphor P. Beispiele:

Auch über die Eigenschaft „Aromatizität“ kann eine grobe Unterscheidung getroffen werden: – Aromatische Verbindungen besitzen ein eigenständiges mesomeres Elektronensystem aus (2n+2) π-Elektronen, alizyklische bzw. heterozyklische Beispiele sind: –

Aliphatische Verbindungen besitzen kein mesomeres Elektronensystem, alizyklische bzw. heterozyklische Beispiele sind:

340 | 6 Organische Chemie

6.3.1 Kohlenwasserstoffe, Stammverbindungen, systematische Nomenklatur Die Klassifikation nach chemisch relevanten Strukturmerkmalen greift tiefer und ist für die moderne Nomenklatur maßgebend. Hier wird von reinen Kohlenwasserstoffen ausgegangen, also Verbindungen aus Kohlenstoff und Wasserstoff (vgl. Tab. 6.2). Tab. 6.2: Grundlage der systematischen Nomenklatur: Verbindungsklassen bei reinen Kohlenwasserstoffen. Stoffgruppe Beschreibung Alkane

Stoffe ausschliesslich mit Kohlenstoff-

Alkene

Kohlenstoff-Einfachbindungen Stoffe mit wenigstens einer Kohlenstoff-

Alkine

Kohlenstoff-Doppelbindung Stoffe mit wenigstens einer Kohlenstoff-

Aromaten

Kohlenstoff-Dreifachbindung Verbindungen mit einem bestimmten Typ

Beispiele

von (2n+2) Elektronen

Die reinen Alkane, Alkene usf. unterscheiden sich in der Kettenlänge, d. h. der Zahl der Kohlenstoffatome oder Methylengruppen ( – CH2 -Gruppen). Die ersten vier Glieder der Alkane werden mit Trivialnamen bezeichnet, die höheren Glieder ab fünf

6.3 Taxonomien für Verbindungen |

341

Kohlenstoffatomen tragen einen von griechischen Zahlwörtern abgeleiteten systematischen Namen. Die Endung -an kennzeichnet die Verbindung als wasserstoffgesättigtes Alkan mit ausschließlich Einfachbindungen (vgl. Tab. 6.3. Tab. 6.3: Systematische Benennung von Kohlenwasserstoffen. Gezeigt sind die ersten zehn Mitglieder. Alkan Cn H2n+2

Alken Cn H2n

Alkin Cn H2n – 2

CH4 Methan Ch3 Ch3 Ethan CH3 CH2 CH3 Propan CH3 (CH2 )2 CH3 Butan CH3 (CH2 )3 CH3 Pentan CH3 (CH2 )4 CH3 Hexan CH3 (CH2 )5 CH3 Heptan CH3 (CH2 )6 CH3 Oktan CH3 (CH2 )7 CH3 Nonan CH3 (CH2 )8 CH3 Dekan





Alkylrest Alkylenrest (eine freie Valenz) (eine freie Valenz)

– CH3 Methyl CH2 – CH – – C2 H5 – CH2 – CH Ethen (Ethylen) Ethin (Acetylen) Ethyl – C2 H3 CH2 – CH – – C3 H7 – CHCH3 Propen (Propylen) Propin Propyl Buten Butin Butyl Buten (mit Lokant22) (mit Lokant) Penten Pentin Pentyl (mit Lokant) (mit Lokant) Hexen Hexin Hexyl (mit Lokant) (mit Lokant) Hepten Heptin Heptyl (mit Lokant) (mit Lokant) Okten Oktin Octyl (mit Lokant) (mit Lokant) Nonen Nonin Nonyl (mit Lokant) (mit Lokant) Decen Decin Decyl (mit Lokant) (mit Lokant)

– – CH – – CH2 Ethenyl (Vinyl) – CH2 – CH – – CH2 Prop-2-en-yl (Allyl) Butenyl Pentenyl Hexenyl Heptenyl Octenyl Nonenyl Decenyl

Alkene, das sind ungesättigte Kohlenwasserstoffe mit einer Doppelbindung, erhalten den Namen der gesättigten Stammverbindung (des Alkans) mit der Endung en (Ethen, Propen etc.). Ab Buten muss die Position der Doppelbindung durch einen Lokanten (eine numerische Positionsangabe) gekennzeichnet werden:

342 | 6 Organische Chemie Die Zahlen in den Formeln nummerieren die Kohlenstoffatome. Der Kohlenwasserstoff muss so nummeriert werden, dass der Lokantensatz minimal ist, weswegen But-1-en richtig, But-3-en dagegen falsch ist. Mehrfach auftretende Doppelbindungen werden durch griechische multiplikative Zahlworte vor der Endung -en ausgedrückt: -dien, -trien etc., z. B.:

In gleicher Weise werden Dreifachbindungen durch die Endung -in gekennzeichnet (Ethin, Propin etc.). Alkylrest bedeutet, dass ein Alkan durch Wegnahme eines Wasserstoffatoms eine freie Valenz erhält, die zur Verbindung mit anderen Entitäten genutzt werden kann. Der Name leitet sich vom zugrundeliegenden Alkan und der Endsilbe -yl ab. Analog entsteht aus einem Alken durch Wegnahme eines Wasserstoffatoms ein Alkenylrest. Alkylreste werden zur Beschreibung verzweigter Kohlenwasserstoffe wie

benötigt. Das Beispiel zeigt, wie Stammverbindungen und Alkylreste im Rahmen der substitutiven Nomenklatur eingesetzt werden. Die Stammverbindung dient als Basis einer komplexen Struktur und muss gemäß einer Nomenklaturregel das längste Alkan sein, d. h. das Alkan mit der größten Anzahl an Kohlenstoffatomen in der Kette. Eines oder mehr Wasserstoffatome der Stammverbindung werden anschließend durch Alkylreste substituiert. Im Beispiel besitzt Heptan mit sieben Kohlenstoffatomen die längere Kohlenstoffkette, verglichen mit der Fünferkette von Pentan. Der verzweigte Kohlenwasserstoff ist daher ein Heptan, das an Position 3 einen Ethylsubstituenten trägt, und kein Pentan, das an Position 3 einen Butylsubstituenten trägt. Bei komplexeren oder ungesättigten Kohlenwasserstoffen gibt es ergänzende Regeln. So muss die Stammverbindung die größte Zahl der Mehrfachbindungen enthalten, gefolgt von der größten Zahl an Kohlenstoffatomen, die größte Zahl der Doppel-

6.3 Taxonomien für Verbindungen |

343

bindungen, die niedrigsten Lokanten für Mehrfachbindungen aufweisen usf. Diese Regeln sind ausführlich von der IUPAC definiert (vgl. IUPAC).

6.3.2 Stoffklasse, funktionelle Gruppen Werden in Kohlenwasserstoffen Kohlenstoff- oder Wasserstoffatome durch Elemente wie Sauerstoff O, Schwefel S oder Stickstoff N ersetzt, erhalten Sie Stoffe, die aufgrund typischer Eigenschaften in Stoffklassen unterteilt werden können. Die Stoffklassen unterscheiden sich durch ihre funktionellen Gruppen, also Atomgruppen aus Kohlenstoffund Heteroatomen mit einer typischen chemischen Reaktivität, die auch Grundlage der systematischen substitutiven Nomenklatur sind. Funktionelle Gruppen können durch Präfixe oder Suffixe ausgedrückt werden. Die ranghöchste oder die einzige funktionelle Gruppe wird als Suffix dem Namen des Kohlenwasserstoffs nachgestellt, alle anderen funktionellen Gruppen werden dem Namen des Kohlenwasserstoffs mit der Präfixnotation vorangestellt. Die Position der funktionellen Gruppe wird durch numerische Lokanten bezeichnet. Geordnet nach fallender Priorität gibt es die in Tabelle 6.4 (unvollständig) dargestellten wichtigen funktionellen Gruppen. Einige Verbindungsklassen werden noch häufig nach der radikofunktionellen Nomenklatur bezeichnet, die aber meist durch die moderne substitutive Nomenklatur ersetzt werden kann:

344 | 6 Organische Chemie Tab. 6.4: Die wichtigsten funktionellen Gruppen, geordnet nach fallender Priorität und ihre Bezeichnung mit Präfixen oder Suffixen in der substitutiven Nomenklatur. Funktionelle Gruppe

Präfix

Suffix

Carbonsäure -COOH

Carboxyl-

-carbonsäure, -säure

Sulfonsäure – SO3 H

Sulfo-

-sulfonsäure

Carbonsäureester R-COO-R’

R‘-yl-oxy-carbonyl- R‘-yl-...carboxylat, R‘-yl-...oat

Carbonsäurehalogenid Halogen-carbonyl- R-yl-halogenid, R-COX -oxy-halogen

Carbonsäureamid R – CONH2

Carbamoyl-

-carboxyamid, -amid

Nitril R-CN

Cyan-

-carbonitril, -nitril

Aldehyd R-CHO

Formyl-

-carbaldehyd, -al

Keton R-CO-R’

Oxo-

-on

Alkohol R-OH

Hydroxy-

-ol

Amin R – NH2

Amino

-amin

Beispiel

6.4 Taxonomie von Reaktionen, Reaktionsmechanismen | 345

Nur als Präfix ohne Rangfolge existieren folgende funktionellen Gruppen (unvollständig): Funktionelle Gruppe

Präfix

Halogenkohlenwasserstoff HalogenR-X Nitroverbindung NitroR – NO2

Isocyanat R-NCO

Beispiel H3 C – Cl Chlormethan NO2 – CH3 Nitromethan

Isocyanato-

Tab. 6.5: Funktionelle Gruppen, die nur mit Präfixen bezeichnet werden.

6.4 Taxonomie von Reaktionen, Reaktionsmechanismen So wie Verbindungen einander chemisch ähnlich sind, können auch Reaktionen nach ihrer Ähnlichkeit zu Reaktionsmechanismen und Reaktionstypen zusammengefasst werden. Im historischen Verlauf wurden Reaktionen zunächst anhand der beteiligten Verbindungsklassen klassifiziert (z.B. Reaktionen von Carbonylverbindungen oder Säure-Basen-Reaktionen) oder nach den erzielten Reaktionsprodukten. Solche Klassifikationen waren unter synthetisch-präparativen Gesichtspunkten sehr wertvoll und verbreiteten sich daher schnell. Sie wurden nach den Ausgangsstoffen, den Endprodukten, dem typischen Reagenz oder oft nach ihren Entdeckern benannt, die die Eigentümlichkeiten der Reaktion und die nötigen Reaktionspartner erkannt hatten (Namenreaktion). Kennzeichen der modernen Chemie dagegen ist die Betrachtung organischer Reaktionen aufgrund ihres Reaktionsmechanismus, also des elementaren Verlaufs der Reaktion zwischen den eigentlichen Reaktionszentren. Es werden die grundlegenden Träger des Reaktionsverlaufs betrachtet, also die charakteristischen funktionellen Gruppen der Reaktionspartner, z.B. die Carbonylgruppe (C=O-Gruppe) eines Ketons oder das acide Wasserstoffatom einer CH-Säure. Diese Taxonomien sind ebenfalls Gegenstand der modernen Nomenklatur und werden unter der Obhut der IUPAC weiterentwickelt (vgl. IUPAC).

7 Polymere, Makromoleküle, Kunststoffe 7.1 Geschichtliches Kunststoffe, also künstlich hergestellte hochmolekulare oder polymere Stoffe, gehören zu einer Stoffgruppe, die schon seit Jahrhunderten in Form natürlich vorkommender Polymere genutzt wurde. Im 19. Jhd. begann mit der gezielten Modifikation von Naturstoffen die Zeit der Kunststoffe. Zu ihnen gehören Stoffe, die beim Erhitzen erweichen (Thermoplaste wie Nylon), die thermostabil und hart sind (Duroplaste wie vernetzte Epoxidharze) oder elastisch bzw. gummiartig sind (Elastomere wie Styrol-ButadienGummi SBR). Im Randbereich der Kunststoffe liegen Lackrohstoffe, Anstrichmittel, Klebstoffe und Synthetikfasern. Bis 1800 wurden nur natürlich vorkommende Polymerisationsprodukte genutzt: Horn, Proteine aus Haut, Milch und Ei, Wildkautschuk, Naturharze (Birkenpech) und pflanzliche Öle. Das Harz oder Pech aus Birken war schon den Neandertalern vor 80 000 Jahren als Klebstoff bekannt. Wildkautschuk ist seit 1500 in Europa bekannt, 1772 wurde damit der Radiergummi erfunden, 1791 das wasserdichte Gewebe durch Imprägnierung von Stoffen und Papier mit Kautschuk. Gelatine aus Kollagen (Haut) wurde schon vor 6000 Jahren von den Ägyptern als Leim verwendet. Gelatine ist seit 1847 wesentlicher Bestandteil von fotografischen Emulsionen, und bis 1900 wurden zahlreiche Gebrauchsgegenstände wie Kapseln, Röhren und Schläuche aus ihr gefertigt. Um 1880 kam die Gelatinefolie als Vorläuferin der Zellophanfolie auf. Albumin aus Eiern war Bindemittel mittelalterlicher Malereien und – vermischt mit Steinmehl –bunter Kunststeine. Die „künstlich“ hergestellten Stoffe waren mit dem wissenschaftlich-technischen Fortschritt der Aufklärung und der industriellen Revolution im 19. Jhd. verbunden. Die maschinelle Produktion, die Elektrifizierung und das wachsende Verkehrswesen erhoben neue Materialforderungen. Mit dem Entstehen des städtischen Proletariats mussten günstige Baustoffe gefunden werden. Gleichzeitig suchten das aufstrebende Bürgertum und die städtische Gesellschaft es dem Adel gleichzutun und ihren Lebensstil durch Schmuck und gehobene Ausstattung, z. B. edle Bodenbeläge, zu heben. Die Kunststoffe dieser Zeit wurden aus Naturstoffen wie Guttapercha, Wildkautschuk, Eiweißen und Zellulose durch gezielte chemische Reaktionen gewonnen und dienten zur Imitation teurer Naturstoffe (Edelholz, Horn oder Elfenbein). Dabei erwarben sie sich ihren anhaltend negativen Ruf. Große Bedeutung als Werkstoffe der Industrialisierung gewannen Werkstoffe auf Basis der Polyisoprene Guttapercha und Wildkautschuk. Guttapercha ist das Polymer des Isoprens, eines in der Natur weit verbreiteten Grundbausteins mit ButadienStruktur, der zum Aufbau von Monoterpenen (fenchel-, kampher- und kieferartige Aroma- und Duftstoffe; Lösungsmittel wie Terpentinöl), Triterpenen (Harzsäuren,

https://doi.org/10.1515/9783110496277-033

7.1 Geschichtliches |

347

Steroide, Gallensäuren) und Tetraterpenen (Farbstoffe wie Carotin) dient. In Guttapercha ist Isopren an der Doppelbindung trans-verknüpft:

Das thermoplastische Guttapercha wurde ab 1840 in der Elektroindustrie als Isolationsmaterial für Drähte zur Kabelherstellung wichtig (vgl. Abb. 7.1), just zu einer Zeit, zu der die landes- und weltweite Verbindung durch Telegrafen und Stromleitungen begann. Guttapercha wurde erst im 20. Jhd. durch Kautschuk und Kunststoffe ersetzt.

Abb. 7.1: Mit Guttapercha isoliertes Telegrafenkabel Typ B; Seekabel; Stück der Kabelstrecke Emden-Azoren, um 1926 (Foto: C. Kirchner-Stiftung Deutsches Technikmuseum Berlin)

Wildkautschuk oder Naturgummi, gewonnen aus dem Milchsaft tropischer Bäume, ist ebenfalls ein Polymer des Isoprens, allerdings mit cis-Verknüpfungen an der Doppelbindung. Im Gegensatz zu Guttapercha ist Wildkautschuk ein Elastomer, also ein gummi-elastisches Polymer:

348 | 7 Polymere, Makromoleküle, Kunststoffe

Aufgrund seiner Elastizität wurde Wildkautschuk in den 1820er Jahren zur Herstellung von Bällen, Schuhen und flexibler Bekleidung (Regencapes) genutzt, konnte sich aber nicht auf breiter Front durchsetzen, da er in der Wärme klebrig ist. Dieses Problem konnte um 1839 durch den Prozess der Vulkanisierung gelöst werden (C. Goodyear). Durch die beim Erhitzen von Naturgummi mit Schwefel stattfindende Vernetzung verliert Polyisopren die Klebrigkeit und wird zu einem zähen Elastomer. Die Vulkanisation ist die größte Entdeckung der frühen Polymerchemie und führte mit der Entwicklung von Luft-Gummi-Reifen zum Erfolg der Automobilindustrie (ab 1845 durch Dunlop). Der grundlegende Vorgang ist die Vernetzung von PolyisoprenKetten über Polysulfidbrücken:

Ein hochvernetztes Gummiprodukt mit hohem Schwefelanteil (30–40 %) ist der zähfeste Ebonit, häufig in älteren Füllfederhaltern zu finden. Arbeiten ab 1910 zu Synthesekautschuk aus Isopren und Butadienen erlangten erst im 20. Jhd. industrielle Bedeutung, wie das 1937 entdeckte Chlorbutadien (Neoprene® , GORE-TEX® ), das für Sportbekleidung und Klebstoffe verwendet wird.

7.1 Geschichtliches |

349

Die in Form von Holz weit verbreitete Zellulose wurde ab etwa 1850 chemisch modifiziert, die Zellulosederivate erlangten große Bedeutung: Zelluloid für Kinofilme, Regenerat-Zellulose, Kunstseide oder Rayon als Grundlage halbsynthetischer Textilfasern (Kap. 7.4.1f.). Trotz der Erfolge der frühen halbsynthetischen Kunststoffe waren weiterhin auch reine Naturmaterialien im Einsatz: Harze wie Kopal, Bernstein und Schellack und Proteine aus Milch oder Blut. Hauptbestandteile des Shellacks sind Hydroxyfettsäuren wie die Aleuritinsäure und komplexe Harzsäuren wie die Shellolsäure.

Naturharze blieben bis 1900 die wichtigste Lackgrundlage und wurden in Ölen, Spiritus oder Weingeist/Ether gelöst. Sie waren auch zur Herstellung formbarer Massen geeignet, so wurde Schellack zwischen 1880 und 1950 für Schallplatten verwendet. Diese Schellackplatten bestanden aus Schellack, vermischt mit Schiefermehl und Schwerspat und unter Heißdampf geformt. Ab 1950 wurden Schallplatten nach verschiedenen Versuchen mit anderen Materialien schließlich aus PVC hergestellt („Vinylplatten“) (siehe Abb. 7.2). Mit dem 20. Jhd. beschleunigte sich das Entwicklungstempo auf dem Gebiet der Kunststoffe. Die industrielle Herstellung der vollsynthetischen Phenolharz-Duroplaste aus Phenol und Formaldehyd ermöglichte die Massenfertigung von Elektro-Formteilen aus Bakelit, die wir heute noch in alten Gebäuden als Steckdosen und Schalter in der typischen braunen Farbe vorfinden können (Kap. 7.5.3). Die chemische Modifikation

Abb. 7.2: Schallplatten aus Schellack (links) und Vinyl (rechts)

350 | 7 Polymere, Makromoleküle, Kunststoffe von Zellulose führte zu Zelluloseestern (z. B. Acetylcellulose für Formteile, Kap. 7.4.2) und -ethern (z. B. Methylzellulose als Verdickungsmittel und Kleister, Kap. 7.4.2). Die Zwischenkriegsjahre brachten der Kunststoffchemie einen glamourösen Aufschwung, indem amerikanische Chemiker in Form von Polyamiden, Polyestern ((Kap. 7.5.1)) und Polyacrylnitrilen die chemische Basis für die drei bekanntesten Kunstfasern (man made fibers) legten. Stellvertretend für zahlreiche Varianten seien Nylon, Trevira und Dralon genannt. Die Zeit war reif, denn die Zwanzigerjahre hatten mit Versandkatalogen edle Kostüme ins Haus einer jeden halbwegs gutgestellten Frau gebracht, die Zwischen- und Nachkriegsfilmindustrie der Dreißiger- und Vierzigerjahre zeigte neues Lebensgefühl und glamouröse Kleider, von Hollywood-Diven in Szene gesetzt. Die synthetischen Polymere hatten ihren öffentlichen Auftritt 1940 am Nylon Day, als in New York innerhalb weniger Stunden Tausende von Damenstrumpfhosen aus einer neuartigen, vollständig aus Erdöl fabrizierten Kunstfaser namens „Nylon“ verkauft wurden. Erste Erfolge hatte die neuartige Kunstfaser zwar bei der Herstellung kräftiger Fallschirme verzeichnet, aber diese waren ingenieurmäßiger Natur und konnten das breite Publikum kaum begeistern. Sobald sich das neue Material aber auf breiter Front im (modischen) Alltag bewährte, wurde es praktisch über Nacht akzeptiert und rief Begeisterung hervor. Gleichzeitig wurden nach großen Forschungsanstrengungen die noch heute bekannten rein synthetischen Massenkunststoffe auf Vinylbasis, nämlich Polyvinylchlorid PVC und Polystyrol PS entwickelt. Sehr wesentlich für billige und robuste Gebrauchsartikel erwies sich die Synthese von Polyolefinen wie Polyethylen PE und Polypropylen PP. Der Ersatz von Naturgummi wurde durch die Entwicklung von Synthesekautschuken wie Chloropren/Neopren eingeleitet, als technische Harze und Duroplaste wurden Polyacrylate, Epoxide (Kapitel 8.4.3.2), Melamin-, Harnstoff- und Alkydharze eingeführt sowie die Zelluloseether und -ester weiter erforscht. (Vgl. hierzu Kap. 7.5.1.) Nach den modischen wurden auch praktische Aspekte der synthetischen Textilfasern beworben: Textilien aus ihnen seien pflegeleicht und knitterfest. Viele neue Kunstfasern wurden in rascher Folge auf den Markt gebracht und riefen über Markennamen positive Emotionen hervor, wie Cantrece oder Lycra. Mit dem Beginn des Wirtschaftswunders und eines neuen Lebensstils halfen preiswerte Kunstfasern und stoffe bei der Schaffung eines preisgünstigen Wohlstandes. In den Siebziger- und Achtzigerjahren gab es kaum einen Bereich in einem westlichen Haushalt, der nicht durchsetzt gewesen wäre von ihnen: Teppiche, Vorhänge, Blusen, Röcke, Hemden, Strumpfhosen, Servietten, Bettzeug und Tischdecken bestanden aus Polyester, Polyamid oder Kunstfaser-Battist und -Brokat. Glanz verloren die Synthetikfasern, als die hochwertigen Marken verbilligt wurden und nicht alle Versprechungen erfüllt worden waren. Hemden und Blusen waren nach einmaligem Tragen verschwitzt und rochen und fühlten sich feucht-glitschig an. Fallende Preise und Massenartikel brachte den Kunststoffen – wie schon hundert Jahre zuvor – den Ruf des billigen Ersatzstoffes ein, der weniger wert war als Naturprodukte. Die ökologische Bewegung wies auf die Herkunft aus

7.2 Aufbau von Makromolekülen | 351

der Erdölindustrie, nichtverrottende Plastikmüllberge und nachteilige Folgen für die Umwelt hin. Während sie im häuslichen Bereich eher kritisch gesehen werden, erobern sich Kunststoffe neuer Generationen Anwendungsfelder, in denen sie als hochspezialisierte Funktions- und Hochleistungskunststoffe nicht mehr wegzudenken sind. Beispiele sind schlagzähe hochtransparente Polycarbonate PC (Kap. 7.5.1) oder Spezialkunststoffe wie Poly(oxymethylen) POM.

7.2 Aufbau von Makromolekülen 7.2.1 Homo- und Copolymere Polymere sind Riesenmoleküle aus Ketten von kleinsten Einheiten, den sog. Monomeren R, die theoretisch unendlich lang sind:

Bei der Polymerisation, d. h. der Verknüpfung der Monomere zu Polymeren, reagieren Endgruppen T a und T b der Monomere miteinander und bilden Bindeglieder BG. Die chemische Natur der Bindeglieder ist für die chemischen Eigenschaften des Polymers entscheidend. Monomere können aliphatisch oder aromatisch sein, Heteroatome sowie Seitenketten S enthalten:

Die Kette kann aus einer oder aus mehreren Arten von Monomeren bestehen, das Polymer wird dann als Homopolymer oder als Copolymer bezeichnet. Copolymere werden häufig zur Produktentwicklung eingesetzt, da ihre Eigenschaften in kontrollierbarem Maße zwischen denen der Homopolymere liegen, Beispiele sind die Polyacrylate (Kap. 7.5.1). Auch in BUNA-S, einem gummiartigen Copolymer aus Butadien und Styrol, wird die Härte von Polystyrol mit der Flexibilität von Polybutadien kombiniert. Copolymere können auf verschiedene Weise aus den Monomeren A und B zusammengesetzt sein. In einem statistischen Copolymer sind A und B regellos in der Polymerkette vertreten (die letzte Formel als Kurzform geschrieben):

352 | 7 Polymere, Makromoleküle, Kunststoffe

Ein Beispiel ist das Acrylnitril/Butadien-Elastomer (Nitrilkautschuk, NBR), das Widerstandsfähigkeit mit Elastizität kombiniert. Blockcopolymere besitzen Bereiche, die entweder aus Monomer A oder Monomer B bestehen. Die A- und B-Blöcke können linear oder verzweigt miteinander verbunden sein:

Ein bekanntes Beispiel eines Propfcopolymers ist das hochbelastbare, zähe Acrylnitril/Butadien/Styrol-Propfcopolymer ABS. Auf einem weichelastischen Rückgrat -A-A-A- aus Acrylnitril/Butadien-Elastomer (NBR) sitzen hartelastische Seitenketten -B-B-B- aus Styrol/Acrylnitril-Copolymer (SAN).

7.2.2 Molekülgestalt, Superstruktur Die individuellen Polymerketten (siehe Abb. 7.3) können auf unterschiedliche Weise koexistieren. Sie können individuell nebeneinander vorliegen und sich entweder verknäulen und verschlaufen, oder sich mehr oder weniger parallel anordnen und teilkristalline Bereiche bilden.

Abb. 7.3: Verschiedene Möglichkeiten der Koexistenz individueller Polymerketten. Linker Bereich: individuelle Lage, mittlerer Bereich: parallele Lage unter Bildung kristalliner Bereiche, rechter Bereich: verknäulte und verschlaufte Lage.

7.3 Flammschutz und Flammschutzmittel (FSM) | 353

Die Ketten können durch Brücken kovalent vernetzt sein (siehe Abb. 7.4). Je nach Zahl und Länge der Brücken entstehen weitmaschige Strukturen oder engmaschige dreidimensionale Netzwerke aus wenigen Riesenmolekülen:

Abb. 7.4: Kovalente Vernetzungsmöglichkeiten individueller Polymerketten (von links): keine Vernetzung (individuelle Moleküle), Vernetzung über wenige Brücken (weitmaschige schwache Verzweigung), Vernetzung über zahlreiche Brücken (engmaschiges Netzwerk, wenige Riesenmoleküle).

Sowohl die Chemie von Monomeren, Brückenglieder und Seitenketten als auch die Struktur der Netzwerke bestimmen Chemie und Physik der Polymere und damit ihre Verarbeitungs- und Gebrauchseigenschaften. So sind lineare unvernetzte Polymere oft in der Schmelze verarbeitbare Thermoplaste, leicht vernetzte Strukturen sind gummiartig-elastisch, während engmaschige Netzwerke harte unlösliche Duroplaste bilden. Da durch Wahl der obigen Parameter unzählige Polymere mit verschiedenartigen Eigenschaften entstehen können, sind sie prädestiniert als variationsfähige Werkstoffe für zahlreiche moderne Anwendungsgebiete. Daher bestehen heute viele Gebrauchsgegenstände mehr oder weniger vollständig aus Polymeren, viele wichtige Kernbauteile aus Polymeren mit maßgeschneiderten hochspezialisierten Eigenschaften.

7.3 Flammschutz und Flammschutzmittel (FSM) Kunststoffe sind aufgrund ihres Kohlenstoffskelets brennbar und erfordern Zusätze von Flammschutzmitteln (FSM). Zu den wichtigsten FSM gehören – ATH (Aluminiumtrihydroxid Al(OH)3 , knapp 40 % aller FSM), – Bromverbindungen (Dekabrom-diphenylether, Tetrabrom-Bisphenol A TBBPA, knapp 20 % aller FSM), – Phosphorverbindungen (roter Phosphor, Triphenylphospht, Aluminiumphosphinat). FSM werden als Additiv zugemischt oder bilden kovalente Bindungen mit dem Polymer. Die Vorgänge beim Brand von Kunststoffen sind komplex und basieren auf einer Reihe von ineinandergreifenden Radikalreaktionen, von denen hier einige angeführt sind:

354 | 7 Polymere, Makromoleküle, Kunststoffe

Halogenierte FSM setzen Bromradikale frei, die mit Wasserstoff aus dem Kunststoff Bromwasserstoff HBr bilden. HBr reagiert mit den H- und OH-Radikalen des Brandherds und neutralisiert sie:

Nachteil der Flammschutzausrüstung mit Halogenverbindungen ist die Bildung giftiger, teils kanzerogener polybromierter und polychlorierter Dibenzofurane (PBDF, PCDF) und -dioxine (PBDD, PCDD, „Sevesogifte“), sodass diese FSM einer Limitierung unterliegen. Typische halogenierte FSM sind:

7.4 Natürliche Polymere | 355

Phosphorhaltige FSM neutralisieren in der Gasphase die H- und OH-Radikale der Brandstoffe durch Bildung von leichtflüchtigen phosphorhaltigen Bruchstücken mit und ohne Radikalcharakter, wie PO-, HPO2 -, P2 - und PO2 -Radikale:

7.4 Natürliche Polymere 7.4.1 Zellulose (CO) Pflanzliches Strukturmaterial (Holz, Stroh) besteht in wesentlichen Teilen aus Zellulose, einem Polysaccharid. Polysaccharide sind natürliche Polymere aus Sacchariden oder Zuckern. Zucker Cn (H2 O)n sind formal Verbindungen aus Kohlenstoff und Wasser, daher tragen sie auch den Namen Kohlenhydrate. Ihre Chemie ist Gegenstand der Bio- und Naturstoffchemie. Die wichtigste Quelle von Zellulose für textile Zwecke ist seit 5000 Jahren Baumwolle, aus der Garne, Zwirne und Textilgewebe hergestellt werden und die größtenteils aus Zellulose besteht. Technisch ist heute Holz der wesent-

356 | 7 Polymere, Makromoleküle, Kunststoffe liche Rohstoff für Zellstoff, einem wichtigen Papiergrundstoff, der i. w. aus Zellulose besteht. Zellulose besteht aus dem Einfachzucker (Monosaccharid) Glukose, der als Doppelzucker (Disaccharid) Cellobiose die fadenförmigen Polymerketten der Zellulose aufbaut:

In der Baumwollfaser sind die Zelluloseketten weitgehend parallel orientiert und bilden kristalline Bereiche. Die Ketten werden durch zahlreiche Wasserstoffbrücken²³ zwischen den Hydroxylgruppen benachbarter Ketten fest zusammengehalten und besitzen so hohe Festigkeit. Solche kristallinen Bereiche tragen auch bei synthetischen Polymeren zur Steigerung der Festigkeit bei, z. B. bei Polyamiden, deren Ketten durch Recken parallel orientiert werden und dann kristalline Bereiche hoher Festigkeit bilden. Für die Medienwissenschaft interessant ist Zellulose, weil sie schon im Altertum als Beschreibstoff große Bedeutung besaß, zunächst in Form des Papyrus, dann als Papier. Später wurden in Mischungen mit Leim, Gips, Kalk oder Kreide papierartige Massen für Relief- und Stuckarbeiten genutzt. Auch in Form von Pappmaschee diente Zellulose für die Herstellung von Formteilen.

7.4.2 Halbsynthetische Polymere: Zellulosederivate Eine nachteilige Konsequenz der hohen Festigkeit von Zellulose ist ihre schwere Bearbeitbarkeit und Unlöslichkeit in Wasser, in vorchemischer Zeit konnte Zellulose nur schneidend, spinnend und webend verarbeitet werden. Im 19. Jhd. wurden Verfahren gefunden, den festen Zusammenhang der Zellulosestränge durch chemische Veränderung der Hydroxylgruppen zu lockern und so zahlreiche neue Produkte herzustellen. 23 zwischen sauren Wasserstoffatomen und (partiell) negativ geladenen Gruppen wie -OH oder -NH2 .

7.4 Natürliche Polymere | 357

Zellulosetrinitrat, Schießbaumwolle, Kollodium, Zelluloid (CN) 1848 gelang es erstmals, durch Veresterung der Hydroxylgruppen mit Salpetersäure lösliche Zellulose herzustellen. Durch die Bindung der Nitratgruppe nimmt die Zahl der freien Hydroxylgruppen und damit die Möglichkeit, Wasserstoffbrücken zu bilden, stark ab. Die Löslichkeit erhöht sich. In Zellulosetrinitrat sind sämtliche Hydroxylgruppen durch Kochen mit Salpetersäure und Schwefelsäure verestert. Durch die hohe Zahl der Nitratgruppen ist das Produkt, die Schießbaumwolle, stoßempfindlich und explosiv und wurde rasch vom Militär als Schieß- und Sprengstoff adaptiert.

Mit Verringerung des Nitrierungsgrads verliert sich der explosive Charakter, das Produkt bleibt aber hochbrennbar. Bei längerer Kochzeit mit Säuren werden die langen Zelluloseketten durch Hydrolyse abgebaut und die Kettenlänge verkürzt. Das Produkt ist in Ether/Ethanol löslich und wird Kollodium genannt. Es wurde als medizinischer Wundverschluss verwendet, da die nitrierte Zellulose nach Verdampfen des Lösungsmittels einen dichten Film auf der Wunde bildete. Kollodium wurde auch zur Herstellung der ersten fotografischen Platten benutzt: Glasplatten wurden mit Kollodium beschichtet und lichtempfindliche Substanzen darin eingebettet (siehe Abb. 7.5). Wird Zellulosenitrat mit Kampher erhitzt, kann die entstehende Schmelze als Zelluloid zu Formteilen wie Kämmen, Broschen und Stehkrägen verarbeitet werden oder als Elfenbeinersatz dienen. Auch diese Entdeckung war wegweisend für die Welt der Medien, denn sie ermöglichte erstmals die Herstellung transparenter, flexibler Filmstreifen (siehe Abb. 7.6), die die zerbrechlichen und unhandlichen Glasplatten der frühen fotografischen Platten in kurzer Zeit ersetzten. Durch die hohe Flexibilität konnten die Filmstreifen aufgerollt und Kinofilmrollen sowie Kleinbildfilme in Patronen hergestellt werden. Heute sind Kollodium und Zelluloid durch spezialisierte synthetische Polymere ersetzt.

358 | 7 Polymere, Makromoleküle, Kunststoffe

Abb. 7.5: Fotografie auf Glas, erstellt ca. 1850 vom Chemiker Claude Félix Abel Niépce de Saint-Victor

Abb. 7.6: Zelluloidfilm: Ausschitt aus Doctor X (USA 1932, Michael Curtiz). Quelle: UCLA Film & Television Archive. Photographs of the Technicolor No. III dye-tranfer nitrate print by Barbara Flueckiger.

7.4 Natürliche Polymere | 359

Exkurs: Esterbildung Die Esterbildung ist eine organische Grundreaktion, bei der eine Carbonsäure (eine organische Säure) mit einem Alkohol unter Wasserverlust reagiert:

Bei kürzerer Kettenlänge von Säure und Alkohol (unter etwa sieben Kohlenstoffatome) sind die entstandenen Ester flüchtige, aromatische Duft- und Aromastoffe mit fruchtartigem Geruch. Die Zellulosenitrierung ist ein Beispiel für die Veresterung einer Mineralsäure mit Alkoholen. Die Tabelle zeigt die Analogie der Reaktion von Mineralsäuren mit Alkoholen (Abb. 7.4.2) und von Mineralsäuren mit Laugen, die als „anorganische Alkohole“ aufgefasst werden können (Abb. 7.4.2): Abb. 7.7: Reaktion Mineralsäure mit organischem Alkohol

360 | 7 Polymere, Makromoleküle, Kunststoffe Abb. 7.8: Reaktion Mineralsäure mit Lauge („anorganischem Alkohol“)

Als Nitrate können also nicht nur anorganische Salze der Salpetersäure mit Laugen bezeichnet werden, sondern auch organische Ester, so wie auch Chloride Salze der Salzsäure mit Laugen oder Alkoholen sind. Acetylcellulose, Zelluloseester, Zelluloseacetate (CTA, TA, CA, AC) Zelluloid besaß immer den Nachteil der hohen Brennbarkeit. Es setzte daher bald die Suche nach schwerer entflammbaren Ersatzstoffen ein, die mit der 1910 entdeckten feuersicheren Acetylcellulose ein Ende fand. Auch die Acetatgruppe blockiert die Wechselwirkung zwischen den Hydroxylgruppen und erhöht so die Löslichkeit der Zelluloseacetate. Die Bildung der Acetylcellulose beruht auf der Veresterung von Alkoholen (Zellulose) mit organischen Säuren, hier Essigsäure. Anstelle der freien Säuren können auch ihre Anhydride eingesetzt werden, also Säuren, denen Wasser entzogen wurde. Angewandt auf Zellulose sieht die Veresterung mit Essigsäureanhydrid wie folgt aus:

7.4 Natürliche Polymere |

361

Zelluloseacetat war zwar schon seit 1865 bekannt, seine Verwendung als Werkstoff für Formteile oder zur Herstellung einer spinnbaren Faser setzt aber eine bestimmte Löslichkeit der acetylierten Zellulose voraus. Erst das ab 1905 zugängliche Zellulose-2½-acetat (Zellulosediacetat oder sekundäres Zelluloseacetat) mit einem Acetylierungsgrad von etwa 2,4 ist in Aceton löslich. Dieser Acetylierungsgrad wird jedoch bei der direkten Veresterung nicht in kontrollierbarer Weise erhalten. Daher wird Zellulose zunächst zum Zellulosetriacetat umgesetzt und anschließend durch kontrollierte Hydrolyse zum Diacetat mit durchschnittlich 2,4 Acetylgruppen hydrolysiert. Zellulosediacetat ist löslich in Aceton, thermoplastisch in der Schmelze verarbeitbar und wurde im Ersten Weltkrieg zur Lackierung von Flugzeugtragflächen und -rümpfen benutzt. In diesem frühen composite-Werkstoff verstärkte es nach dem Aufsprühen und Verdunsten des Acetons die Leinwandbespannung dieser ersten Flugzeuge. Auch diente es als Elektroisolationslack und wurde allgemein als Ersatz für Zelluloid, Material für Kinofilme (Cellit-Film) und als nichtsplitterndes Sicherheitsglas für Brillen und Flugzeugkanzeln benutzt. 1918 wurde Zellulosediacetat zur Faser versponnen, der künstlichen Seide oder Acetatfaser. Die angenehmen textilen Eigenschaften machten Acetatfasern zu einer begehrten Textilfaser, die erst um 1970 Marktanteile an Nylon und Polyester verlor. Acetatfasern werden bis heute für Damentextilien mit hochwertigem Tragegefühl wie Blusen oder Kleider verarbeitet.

362 | 7 Polymere, Makromoleküle, Kunststoffe Modifikation von Fasereigenschaften Nicht immer sind unterschiedliche Eigenschaften einer Kunstfaser auf eine unterschiedliche chemische Zusammensetzung zurückzuführen. Sie können z.B. chemisch gleichen synthetischen Textilfasern eine umfangreiche Palette an Griff- und Materialeigenschaften aufprägen, indem Sie lediglich die Bedingungen des Verspinnens und damit die physikalische Struktur ändern: – Der Zusatz eines Mattierungsmittels wie Titandioxid TiO2 mindert den Glanzgrad der i. a. stark glänzenden Synthesefasern. Sie erhalten je nach Menge an Mattierungsmittel glänzende, halbglänzende oder matte Fasern. Jedoch führt auch ein glatterer und runderer Faserquerschnitt zu höherem Glanz. – Die Form der Spinndüsen ändert den Querschnitt der Faser und damit optische und mechanische Eigenschaften. C-förmig runde Fasern besitzen gleichmäßigen Glanz und fülliges Griffgefühl. Ovale Spinndüsen liefern ein flaches Bandfilament, das aufgrund seiner Glätte glänzend ist. Wenn das Bandfilament eine breite Flachseite und eine schmalen Kante besitzt, glänzt es nicht gleichmäßig, sondern zeigt richtungsabhängiges Glitzern, das ins Gewebe eingewebt werden kann und diesem einen Funkeleffekt verleiht. Y-förmige Spinndüsen verleihen der Faser hohe mechanische Steifigkeit, mehr Fülle und ein krisperes Gefühl beim Anfassen. – Beim Spinnen können mechanische Spannungen erzeugt werden, die zu gekräuselten oder verschlungenen Fasern und zu lockeren, warmen und trockenen Griffund Materialgefühl führt. Die Spannungen können durch Form und Anordnung von Spinndüsen und Faserführung im und nach dem Spinnbad eingeprägt werden. Die zunächst langen Synthesefasern können nach dem Spinnen in mehrere Zentimeter lange Stücke geschnitten und diese Stapelfasern wie kurze Naturfasern erneut versponnen werden. Das Resultat ist eine Faser mit ähnlichem Griff- und Materialgefühl wie eine Naturfaser, d. h. sie wirkt wärmer, flauschiger und natürlicher als die ursprüngliche Synthesefaser.

Zelluloseether (MC, CMC, EC, HEC) Eine weitere typische Reaktion von Alkoholen ist die Etherbildung. Die Reaktion von Alkalizellulose mit organischen Halogenverbindungen, z. B. Chloroform oder 2-Chlorethanol (Williamson-Ethersynthese), führt zu technisch wichtigen Zelluloseethern:

7.4 Natürliche Polymere |

363

Alkalizellulose wird aus Zellulose durch Umsetzung mit Natronlauge NaOH gewonnen. Die Zelluloseether sind thermoplastisch verarbeitbar und je nach Zahl der ersetzten Hydroxylgruppen mehr oder weniger löslich in Wasser oder organischen Lösungsmitteln. Die chemische Natur der neu hinzugetretenen Komponente (z. B. Methyl- und Hydroxyethyl-Gruppe) legt wesentliche Eigenschaften der Zelluloseether wie Hydrophilie und Wasserlöslichkeit fest. Zelluloseether werden als Bindemittel für Farben, Klebstoffe, Appreturmittel, Rheologiemodifizierer (Verdickungsmittel), Filme, Schutzkolloide, Schichtstoffe und zur Herstellung von Formteilen eingesetzt. Die Wirkung als Verdickungsmittel ergibt sich aus der Fähigkeit der Zellulose, Wasser über Hydroxylgruppen zu binden und so ihr hydrodynamisches Volumen stark zu erhöhen, d. h. die Beweglichkeit des Wassers einzuschränken, es also zu verdicken (Hydrogelbildner). Die Wirkung entspricht ungefähr der von Familien oder Gruppen, die auf Gehwegen als Kette nebeneinander gehen und so die Beweglichkeit der übrigen Fußgänger stark einschränken. Tabelle 7.1 gibt einen Überblick über technisch wichtige wasserlösliche Zelluloseether (Hydrogelbildner).

7.4.3 Weitere Polymere natürlichen Ursprungs Auf zahlreiche weitere Polymere natürlichen Ursprungs wie Pflanzengummis oder Proteine können wir nicht weiter eingehen, obwohl sie als traditionelle Bindemittel für Farben große Bedeutung für die Medienwissenschaft haben. Denken Sie an Gemälde und Buchmalereien, Druckgrafiken und Plakate, Landkarten oder Texte bzw. Kalligrafien. Hierzu nur einige Beispiele: – Pflanzliches Öl an sich ist kein Polymer. Bestimmte Pflanzen produzieren jedoch ungesättigte trocknende Öle (Leinöl, Mohnöl, Nussöl), die bei Bestrahlung oder Luftzutritt polymerisieren und als Bindemittel für die Ölmalerei dienen.

364 | 7 Polymere, Makromoleküle, Kunststoffe Tab. 7.1: Technisch wichtige wasserlösliche Zelluloseether, die in Wasser Hydrogele bilden und es damit verdicken. Rest R

Zelluluseether

Verwendung

– CH3 – CH2 CH3

Methylzellulose MC Ethylzellulose EC

Tapetenkleister (z. B. Metylan™) Klebstoff, Celluloseetherlack, Schutzhäute Füller in Eiscreme, Baufarben Bindemittel in Farben und Tinten, Klebstoff Wasserunlöslich! Verdicker, Klebstoff, Schutzkolloid

– CH2 CH2 OH Hydroxyethylzellulose HEC – CH2 CH(OH)CH3 Hydroxypropylzellulose HPC – CH2 COOH – CH2 COONa – CH3 , – CH2 CH2 OH – CH3 , – CH2 CH(OH)CH3





– –

Carboxymethylzellulose CMC dto. als Natriumsalz NaCMC Methylhydroxyethylzellulose MHEC

Bindemittel, Filmbildner, Verdicker, Wasserrückhaltemittel Methylhydroxypropylzellulose MHPC Verdickungsmittel, Filmbildner

Pflanzliche Polysaccharide mehr oder weniger komplizierter Zusammensetzung wie Gummi arabicum, Gummi traganth oder Kirschgummi sind Bindemittel auf Wasserbasis für die Buch- und Aquarellmalerei. Leime aus Fisch- oder Hasenhaut, oder aus Knochen. Wirksamer Bestandteil ist Gelatine aus dem Protein des Bindegewebes, dem Kollagen. Die Leime wurden als Klebstoffe eingesetzt oder – wie auch heute noch – als Bindemittel in Leim-, Plaka- und Gouachefarben. Kasein-Bindemittel aus dem Milch-Protein Kasein für Kaseinfarben als ökologischer Innenanstrich. Albumin-Bindemittel aus dem Ei-Protein Albumin für historische Buchmalfarben.

7.5 Synthetische Polymere Vollsynthetische Polymere werden auf zwei verschiedenen Wegen hergestellt. Die Verlängerung einer Kette kann schrittweise in Additions- und Kondensationsreaktionen erfolgen (Kondensationspolymerisation KP oder Additionspolymerisation als Stufenreaktion APS), wobei die Schritte voneinander unabhängig sind. Beim zweiten Weg, der Kettenreaktion, initiiert ein Aufbauschritt den nächsten (Additionspolymerisation als Kettenreaktion APK). Die Kondensationspolymerisation (KP) beruht auf der Reaktion eines difunktionellen Monomers mit einem geeigneten Partner zu einem Dimer, das wieder dieselben funktionellen Gruppen trägt, sodass das Dimer anstelle eines Monomers im nächsten Schritt in die gleiche Reaktion eintreten kann. Auf diese Weise wächst das Polymer Monomer um Monomer. Kennzeichen der KP ist, dass in jedem Schritt ein kleines Mo-

7.5 Synthetische Polymere |

365

lekül abgespalten wird. Zur Verknüpfung in einer KP eignen sich organische Grundreaktionen wie Ester- oder Amidbildung, die als kleines Molekül Wasser abspalten:

Die Isocyanathydrolyse verknüpft difunktionale Monomere in einer Additionspolymerisation als Stufenreaktion (APS) zum Polymer ohne Abspaltung kleiner Moleküle:

Der Additionspolymerisation als Kettenreaktion (APK) liegt die Kettenreaktion eines Alkens mit sich selbst zugrunde:

Zum Start der Kettenreaktion wird ein Initiator benötigt.

7.5.1 Kondensations- und stufenweise Additionspolymerisation (KP und APS) Durch die notwendigen funktionellen Gruppen werden bei KP und APS Heteroatome, hauptsächlich Sauerstoff oder Stickstoff, in die Hauptkette eingeführt. Dies bedeutet – erhöhte Hydrolyseempfindlichkeit des Polymers, d. h. Empfindlichkeit gegenüber Wasser, das das Polymer in Umkehrung seiner Bildungsreaktion in die Monomere zersetzt (Retro-Kondensation), – starke polare Wechselwirkungen zwischen den Heteroatomen einer Polymerkette mit Wasserstoffatomen anderer Polymerketten und damit – höhere Neigung zu Kristallisation, höhere Schmelzpunkte und Glastemperaturen, verglichen mit unpolaren Kunststoffen.

366 | 7 Polymere, Makromoleküle, Kunststoffe Polyamide (PA, Nylon) Um 1930 herum begann die Firma DuPont mit der planmäßigen Erforschung der Polymerisation. Zunächst wurden aliphatische Polyester hergestellt und auf Anwendungsmöglichkeiten hin untersucht. Sie besaßen jedoch für Anwendung zu geringe Schmelztemperaturen und waren instabil gegenüber Hydrolyse. Ganz anders sind die Verhältnisse bei aliphatischen Polyamiden gelagert, die aus einem Diamin und einer Dicarbonsäure gebildet werden. Sie enthalten als Kennzeichen die Amidgruppe -CONH-. Ausgangsprodukte für die amerikanische Nylon-6,6-Synthese nach diesem Schema sind Hexan-1,6-diamin (Trivialname: Hexamethylendiamin) und 1,6Hexandisäure (Trivialname: Adipinsäure):

Amino- und Säurefunktion können im gleichen Monomer auftreten. In Deutschland konnten so die amerikanischen Patente 1939 durch Ausweichen auf das isomere Nylon-6 umgangen werden. Als gemischt-funktionale Komponente wird εCaprolactam benutzt und die Reaktion als Additionspolymerisation geführt:

Die gegenüber Polyestern hohe Festigkeit der aliphatischen Polyamide lässt sich auf die zahlreichen Wasserstoffbrücken zwischen Amid-Wasserstoff und CarbonylSauerstoff in kristallinen Bereichen zurückführen. Polyamide sind also teilkristalline Thermoplaste, die höher schmelzen, stabiler und fester als die entsprechenden Polyester sind sowie hohe Zähigkeit und gute Gleit- und Verschleißeigenschaften aufweisen. Im schwach kristallinen Zustand sind Polyamide zäh und flexibel, durch Verstrecken treten die Wechselwirkungen der Amidgruppen stark in den Vordergrund und es entstehen kristalline Bereiche, die das Material reißfest, hart und steif machen. Ihre

7.5 Synthetische Polymere |

367

Abb. 7.9: Beispiel einer industriellen Synthese: die Herstellung der Polyamide PA 66 und PA 6 inklusive aller notwendigen Zwischenprodukte aus den petrochemischen Grundchemikalien Benzen und Butadien. Benzen wird über Cyclohexan oder Phenol zu Cyclohexanol und Cyclohexanon umgesetzt, diese können weiter zu PA 6 oder über Adipinsäure und Hexamethylendiamin zu PA 66 umgesetzt werden. Hexamethylendiamin kann auch aus Butadien erhalten werden. Die Zwischenprodukte können auch in die Produktion von Polyestern oder Polyurethanen überführt werden.

368 | 7 Polymere, Makromoleküle, Kunststoffe Scheuerbeständigkeit und Abriebfestigkeit macht Polyamide für viele Anwendungsfälle im Fahrzeug- und Maschinenbau, für Verpackungen und für Gegenstände hoher Beanspruchung geeignet, wie Bergsteiger-Rucksäcke aus der stabilen Cordura-Faser. Auch manche Textilien wie Strumpfhosen profitieren von der hohen Scheuerfestigkeit. Medientechnisch ist ihr Einsatz im Elektrobereich zu nennen, etwa für Gehäuse, Kabelüberzüge oder Spulenkörper. Die Wahl der Ausgangsstoffe richtet sich nach der Verfügbarkeit petrochemischer Grundstoffe, wie Benzen oder Butadien. Abbildung 7.9 zeigt die Synthese von Polyamiden im Rahmen einer industriellen Synthese. In dieser werden zugleich Zwischenprodukte gewonnen, die zu anderen Produkten wie Polyestern und Polyurethanen führen. Polyester (PET, Mylar) Als Kunststoff verwendbare Polyester sind Ester eines Diols und einer aromatischen Dicarbonsäure. Technisch bedeutend ist Poly(ethylenterephthalat) PET. Es besteht aus 1,2-Ethandiol (Trivialname: Ethylenglykol) und 1,4-Benzen-dicarbonsäure (Trivialname: Terephthalsäure):

Durch den aromatischen Ring in der Polymerkette besitzt PET einen hohen Schmelzpunkt, es kann aufgrund der polaren Struktur kristallin, hart, steif, fest und zäh (PET-C), aber auch amorph, weicher und weniger steif sein (PET-A). Da für technische Polyester mehrere Alkohole und Carbonsäuren verwendet werden, gibt es nicht die Polyesterfaser oder den Polyesterkunststoff. Häufig eingesetzte Alkohole sind 1,2-Ethandiol, 1,4-Butandiol oder ein Cyclohexanderivat. Als Säure kommt häufig Terephthalsäure zum Einsatz.

7.5 Synthetische Polymere |

369

Polyester konnten sich erst um 1940 mit dem Einsatz aromatischer Säuren wie der Terephthalsäure durchsetzen. Mit dem kommerziellen Erfolg von Fasern wie Terylen, Dacron und Trevira, die bis heute benutzt werden, wurde die Gruppe der man made fibers oder Großen Drei Polyamid/Nylon, Polyester und Polyacril komplettiert. In Medienapparaten wird PET in Form von Mylar-Folie genutzt als – Trägerfilm für fotografische Emulsionen, – Bandmaterial für Magnetbänder, – Grundmaterial der Magnetbeschichtungen von Disketten, – Dielektrikum (Isolator) in MKT-Folienkondensatoren und – Basismaterial für flexible Leiterplatten. Der Hinweis auf PET steckt bei MKT-Folienkondensatoren bereits in der Abkürzung, sie steht sinngemäß für „Metallisierte Kondensatorfolie aus PET“. Polycarbonate (PC, Makrolon, Lexan, Xantar) und Polyarylate (PAR, APE, LCP) Polycarbonate sind Polyester aus Diolen mit Kohlensäure. Als Diol für die Polycarbonatherstellung wird häufig 2,2-Bis-(4‘-hydroxyphenyl)-propan (Trivialname: Bisphenol A) verwendet. Es kombiniert die Härte des Aromaten mit der Flexibilität des sp3 hybridisierten Kohlenstoffs. Das Polycarbonat entsteht durch Umsetzung mit Phosgen oder Diphenylcarbonat:

370 | 7 Polymere, Makromoleküle, Kunststoffe Phosgen ist als Chlorid der Kohlensäure eine sehr reaktive Verbindung, mit der schnell und in hoher Ausbeute Ester hergestellt werden können. Seine hohe Reaktivität unterscheidet jedoch nicht zwischen Chemikalien des Produktionsprozesses und des menschlichen Stoffwechsels, sodass Phosgen hochgiftig ist. Traurige Bekanntheit erlangte es im Giftkrieg des Ersten Weltkriegs. Die glasklaren amorphen Polycarbonate sind schlagzäh, formstabil, wenig brennbar, elektrisch isolierend und lichtdurchlässig. Sie werden daher verwendet, wenn es auf mechanische Festigkeit verbunden mit Transparenz ankommt. Für Medienapparate wichtig sind Polycarbonate als formstabiles Grundmaterial optischer Datenträger wie CDs oder DVDs und optischer Linsen. Polysiloxane (Silikone, SI, PMQ, PMSI, VMQ, VMSI) Fast alle Kunststoffe basieren auf Kohlenstoff. Eine einzige Ausnahme bilden die Polysiloxane oder Silikone, die Silizium zur Grundlage haben, das schwerere Analogon von Kohlenstoff und diesem chemisch ähnlich. Da die Siliziumchemie jedoch von Elektronen der 3s- und 3p-Orbitale bestimmt wird und nicht von Elektronen der 2s- und 2p-Orbitale, sind typische Änderungen im chemischen Verhalten festzustellen. Silizium-Wasserstoff-Bindungen sind im Gegensatz zu Kohlenstoff-WasserstoffBindungen sehr reaktiv, sodass SiH4 anders als Methan CH4 pyrophor ist, d. h. sich an der Luft selbst entzündet. Silizium-Halogen-Bindungen unterliegen leicht Substitutionsreaktionen. Die Silizium-Sauerstoff-Bindung ist sehr stark und bestimmt häufig das Reaktionsgeschehen, in dem bevorzugt Silizium-Sauerstoff-Bindungen aufgebaut werden. Polysiloxane besitzen ein Rückgrat aus Silizium-Sauerstoff-Ketten, das aufgrund der Stärke dieser Bindung temperatur-, wetter- und chemisch beständig ist. Da das Siliziumatom im Vergleich zum Kohlenstoffatom groß ist, sind die Silizium-SauerstoffKetten der Polysiloxane sehr flexibel. Ausgangspunkt der Polysiloxanherstellung sind die aus Silizium gewonnenen organischen Chlorsilane (Kap. 5.2). Ebenfalls wichtig sind Methylchlorsilane und Organochlorsilane (H, CH3 )SiRCl2 . Dichlorsilane dienen zur Synthese von linearen und zyklischen Polysiloxanen, Monochlorsilane sind Endgruppen und Trichlorsilane Brückenglieder zur Vernetzung einzelner Ketten. Die Synthese der Polysiloxane erfolgt durch Hydrolyse zu Silanolen und anschliessende Polykondensation bzw. Polymerisation:

7.5 Synthetische Polymere | 371

Primäre Reaktionsprodukte sind Ketten aus bis zu einigen hundert Monomeren bzw. kleine Cyclosiloxan-Ringe, die zu hochpolymeren Polysiloxanen weiterverarbeitet werden:

Die Bandbreite der Eigenschaften ist groß: Polysiloxane mit geringem Molekulargewicht sind zähflüssige Öle, weitmaschig vernetzte Polysiloxane sind kautschukelastisch, engmaschig vernetzte dagegen Duroplaste. Polysiloxane sind aufgrund dieser vielfältigen Eigenschaften für zahlreiche Anwendungen interessant: Sie sind thermisch stabil, zwischen -100 °C und 180 °C flexibel und reagieren bis zu 200 °C nicht mit Sauerstoff. Als hydrophobe Materialien stoßen sie Wasser, verdünnte Säuren und Basen ab, sind chemisch sowie UV-beständig und elektrisch isolierend. Einsatzgebiete sind Silikon-Sprays zur Isolierung von elektrischen Anlagen, Schmiermittel, Hydrophobierungen und hitzefeste flexible Formteile für den Haushalt (Kochlöffel und -handschuhe, Backformen). In der Technik werden sie als Wärmeübertrager, Hydrauliköle, Bremsflüssigkeit und flüssiges Dielektrikum (Transformatoröl) in Hochspannungstransformatoren verwendet.

372 | 7 Polymere, Makromoleküle, Kunststoffe Polyimide (PI, Kapton, Vespel) Polyimide sind Polyamide, in denen der Stickstoff gleichzeitig zu zwei Amidgruppen gehört, was chemisch einer Imidgruppe entspricht. Ihre Zusammensetzung aus einem Diamin und einer Polycarbonsäure ist variabel. Die Bildungsreaktion ist folgende:

In den linear aufgebauten aromatischen Polyimiden lagern sich benachbarte aromatische Kerne aneinander und verursachen typische Eigenschaften der Polyimide: hohe Festigkeit, Steifigkeit, Flammwidrigkeit, chemische Beständigkeit und Wärmeformbeständigkeit. Sie werden daher in der Elektronikindustrie als flexible Kabelisolierung (Lackdrahtisolierung), Isolierfolien und Grundmaterial für flexible Leiterplatten verwendet.

7.5.2 Additionspolymerisation als Kettenreaktion (APK) Die bisher betrachteten Polymere wurden schrittweise durch Kondensations- oder Additionsreaktionen an funktionellen Gruppen wie der Hydroxyl-, Carbonsäure-, Amino- oder Isocyanat-Gruppe aufgebaut. Die Additionspolymerisation als Kettenreaktion (APK) beruht auf den Reaktionsmöglichkeiten der olefinischen²⁴ Doppelbindung, in der Praxis werden Vinylverbindungen polymerisiert (Vinyl ist der Trivialname der CH2 – CH-Gruppe, systematisch Ethenyl-Gruppe):

24 eine isolierte Doppelbindung in einem Kohlenwasserstoff, die kein Teil eines mesomeren oder aromatischen Elektronensystems ist.

7.5 Synthetische Polymere | 373

Die kettenaufbauenden Schritte der Polymerisation sind der Startschritt (1) und die sich wiederholende Kettenverlängerung (2):

Der wichtigste Teilschritt, der Startschritt (1), ist die Öffnung der Doppelbindung des Monomers, die durch verschiedene Reagenzien erfolgen kann: – Durch ein Startradikal mit freiem Elektron (radikalische Polymerisation). – Durch elektronenarme Elektrophile, die ein π-Elektron der Doppelbindung übernehmen und ein Kettenende mit positiver Ladung produzieren, meist ein Carbokation (kationische Polymerisation). – Durch elektronenreiche Nukleophile, die die relativ elektronenarme Doppelbindung angreifen und ein Kettenende mit negativer Ladung, ein Carbanion erzeugen (anionische Polymerisation). Die radikalische APK ist von großem Interesse für zahlreiche Anwendungen, bei denen die Reaktion durch UV-Strahlung, sichtbares Licht oder Elektronenstrahlung gestartet werden soll. Wir betrachten den Startschritt der APK daher genauer.

374 | 7 Polymere, Makromoleküle, Kunststoffe Radikalstarter Der Start der radikalischen APK erfolgt durch einen Radikalstarter, also einen Stoff, der durch Erhitzen oder Bestrahlung mit UV-Licht leicht Radikale bildet. Als solche stehen Peroxide, Redoxsysteme und Azoverbindungen zur Verfügung. Peroxide und Hydroperoxide sind bei Raumtemperatur stabil und zerfallen beim Erhitzen:

Radikale können im Zuge von Redox-Reaktionen entstehen. Dabei spielen ein Oxidations- und ein Reduktionsmittel zusammen:

Promoter erleichtern den Zerfall von Peroxiden bei geringer Temperatur und damit schonendem Reaktionsverlauf. Es sind Salze multivalenter Übergangsmetalle, also Metalle wie Eisen Fe, Mangan Mn oder Cobalt Co, die leicht zwischen mehreren Oxidationszahlen wechseln können (Fe2+ /Fe3+ , Co2+ /Co3+ ):

7.5 Synthetische Polymere | 375

Azoverbindungen können bei Temperaturen über 80 °C thermisch oder durch UVLicht von 360 nm Wellenlänge zersetzt werden, wobei Stickstoff entsteht:

Die lichtinduzierte Zersetzung in Radikale gelingt mit Acyloinen oder 1,2-Diketonen:

Polyvinyl-Verbindungen Auf der Vinylgruppe basieren eine Reihe technisch wichtiger Kunststoffe. Die Monomere unterscheiden sich in den Substituenten. Wir werden aus der Fülle der Polyvinylverbindungen nur Beispiele herausgreifen.

376 | 7 Polymere, Makromoleküle, Kunststoffe Poly(vinylchlorid) (PVC) PVC ist ein Thermoplast, der chemisch beständig, aber spröde ist, sodass ein Weichmacher zugesetzt werden muss. PVC ist vielseitig in den Bereichen Maschinenbau, Verpackung, Bau- und Elektroindustrie und im Industrie- und Laborapparatebau verwendbar. Produkte sind Beschichtungen, Hähne, Wasser-, Gas- und Abwasserrohre, Fenster- und Türrahmen, Rollläden, Kabelschächte, Unterputzdosen, Flaschen, Folien, Kreditkarten, Klebebänder und Klebstoffe.

Polystyrol (PS, Styropor) Polystyrol gehört neben Polyolefinen und PVC zu den bedeutendsten billigen Kunststoffen und ist glasklar, elektrisch isolierend und brennbar. Es verleiht vielen Copolymeren Stärke, z. B. dem Styrol-Butadien-Gummi (SBR) oder Poly(Acrylnitril-ButadienStyrol) (ABS). Die Hauptanwendungsbereiche von PS sind die Elektro- und Bauindustrie, Haushaltsartikel und Verpackungen sowie Wegwerfartikel wie Einmalbecher.

Aus expandierbarem PS (PS-E, EPS) können Schäume (Styropor) zur Wärme- und Schallisolation hergestellt werden. Als Treibmittel beim Extrudieren kommen niedrigsiedende Kohlenwasserstoffe (Siedepunkt 40–60 °C) oder Fluorchlorkohlenwasserstoffe (FCKW) in Frage. Tabelle 7.2 zeigt, wie im Zuge des Montreal Protocols die zuvor große Menge an FCKWs auf einige wenige Typen geringerer Umweltschädlichkeit reduziert wurde.

7.5 Synthetische Polymere | 377

Tab. 7.2: Reduktion der Vielzahl schädlicher FCKWs auf wenige Typen im Zuge des Montreal Protocols (Eaves 2013). Treibmittel vor 2003/2004

Treibmittel Länder außer Treibmittel Länder Art. 5(1) Montreal Protocol Art. 5(1) Montreal Protocol (Erwartung bis 2010) (Erwartung bis 2010)

Kohlenwasserstoffe HFC-134a (CH2 F – CF3 , Kp. -26,5 °C) HFC-152a (CHF2 – CH3 , Kp. -24,7 °C) HCFC-142b (CH3 – CClF2 , Kp. -9,8 °C) HCFC-142b/HCFC-22 (CH3 – CClF2 , Kp. -9,8 °C/ CHClF2 , Kp. -40,8 °C) CO2 N2 Wasser

Kohlenwasserstoffe HFC-134a HFC-152a HFC-152a/HFC-134a – –

Kohlenwasserstoffe – – – – HCFC-142b/HCFC-22

CO2 N2 Wasser

– – –

Polyacryl-Verbindungen (PAN, PMMA, Plexiglas, Acrylglas) Polyacrylate sind Polymere auf Basis von Acrylsäurederivaten, die starke Neigung zur Polymerisation zeigen und eine Reihe technisch wichtiger und oft glasklarer Polymere in Form von Bindemitteln, Filmen und Fasern liefern:

Polyacrylate auf Basis der Acrylsäure sind weich und besitzen filmbildende Eigenschaften. Sie sind daher ideale Bindemittel. In einem Lösungsmittel gelöst, können sie als Beschichtung aufgetragen und anschließend thermisch mit Urethanen oder Epoxiden gehärtet werden, woraus zähe, unlösliche Duroplaste für den Automobilbau resultieren. Wässrige Lösungen der Alkali- und Ammoniumsalze der Poly(acrylsäure)

378 | 7 Polymere, Makromoleküle, Kunststoffe und Poly(methacrylsäure) sowie Copolymere mit Poly(methylmethacrylaten) sind als Verdicker für Anstrichfarben, Emulgatoren oder Klebstoffe benutzbar. Polymethacrylate auf Basis der Methacrylsäure sind harte glasklare Kunststoffe für massive Formteile. Polymethylmethacrylat PMMA (Plexiglas, Acrylglas, Acrylite) ist durch seine hohe Witterungsbeständigkeit ideal für Brillen- und Uhrgläser, Linsen, Lichtleiter, Schalterteile, Skalen- und Leuchtenabdeckungen, Scheiben für Flugzeuge, Oberlichter, Flachbildschirme, Verkehrsschilder, Geschirr und Gießharze. Poly(acrylnitril) ist kaum schmelzbar und wird zur Faser versponnen. Polyacrylnitrilfasern (Kurzzeichen PAN) gehören zusammen mit Polyamiden und Polyestern zu den Großen Drei der Synthetikfasern. Polyacrylat-Bindemittel (Filmbildner) für Anstrich- und Künstlerfarben Dispersionen²⁵ von Polyacrylaten in Wasser („Latex“) werden als Bindemittel in Anstrich- und Künstlerfarben verwendet, den Acrylfarben. Für hochwertige Künstlerfarben werden Reinacrylate eingesetzt, d. h. Copolymere ausschließlich aus Acrylsäurederivaten. Typische Monomere sind Methylacrylat (MA), Ethylacrylat (EA), nButylacrylat (BA), 2-Ethylhexyl-acrylat (2-EHA), Methylmethacrylat (MMA), Ethylmethacrylat (EMA) sowie Acrylsäure (AA) und Methacrylsäure (MAA). Durch Copolymerisation kann ein Optimum zwischen harten, schützenden, nichtklebenden Homopolymeren (MMA, MA) einerseits und weichen, nachgiebigen, klebrigen Homopolymeren (EA, EMA, BA) andererseits erreicht werden. Bindemittel enthalten daher Kombinationen harter und weicher Acrylate wie EA/MMA, EMA/MA oder BA/MMA. Ihre Eignung als Bindemittel beruht auf der Bildung einer oberflächlichen Schicht kleiner Polymertröpfchen, die durch den Pinsel auf dem Malgrund entsteht und in die Pigmente eingelagert sind. Beim Verdunsten des Wassers verschmelzen die Tröpfchen zu einem zusammenhängenden Polyacrylatfilm, der glasklar ist und die Pigmente durchscheinen lässt, sie aber gleichzeitig bindet und schützt. 7.5.2.0.1 Superkleber Die Polymerisation des Acrylmonomers in Superkleber, eine anionische APK, wird schon durch Spuren des schwachen Nukleophils Wasser eingeleitet, da das Monomer neben der Carbonsäuregruppe mit der Nitrilgruppe einen zweiten Elektronenakzeptor trägt, sodass die Doppelbindung in hohem Maße polarisiert und für den Angriff des schwachen Nukleophils Wasser vorbereitet ist:

25 Eine Dispersion ist ein Gemenge mindestens zweier Stoffe, die sich nicht ineinander lösen, z.B. ein Feststoff in einer Flüssigkeit oder eine Flüssigkeit in einer anderen.

7.5 Synthetische Polymere | 379

Polyolefine (PE, PP) Die neben PVC und PS mengenmäßig wichtigsten Kunststoffe sind Polyethylen PE und Polypropylen PP, die zu den Polyolefinen gehören. Ein wichtiger Schritt zur Herstellung war die Entdeckung der katalytischen Polymerisation durch Ziegler. Zuvor konnte PE nur unter sehr hohem Druck radikalisch hergestellt werden, was seine Bedeutung stark minderte, während PP über die radikalische Polymerisation überhaupt nicht herstellbar war.

Die reine Kohlenwasserstoffkette des PE bedingt eine völlig unpolare Struktur. Die Kristallinität des fertigen Kunststoffs wird von der Temperaturführung während der Reaktion mitbestimmt, durch langsames Abkühlen erzielt man hochkristallines trübes PE, durch schnelles Abkühlen (Abschrecken mit Wasser) amorphes klartransparentes PE. PE ist aufgrund seiner hohen thermischen und elektrischen Isolationseigenschaften und seiner chemischen Stabilität interessant und wird für Folien aller Art, Behälter und Rohre eingesetzt.

7.5.3 Dreidimensional vernetzte Step-Growth-Polymere (Duroplaste) Dreidimensional vernetzte Polymere bilden je nach Grad der Vernetzung und Art der vernetzten Bestandteile elastische Kautschuke oder zähe Körper, die nicht schmelzen und von kovalenten Bindungen zusammengehalten werden. In einigen Lösungsmitteln können sie aufquellen. Wertvolle Materialeigenschaften werden mit relativ wenigen Quervernetzungen erzielt. Da vernetzte Polymere nur noch sägend oder schneidend bearbeitet werden können, wird zunächst eine flüssige oder weich-feste Zwischenstufe hergestellt, das Präpolymer oder Kunstharz, mit der das Werkstück geformt wird. Das Präpolymer ist ein durch Polyaddition, Polykondensation oder Polymerisation hergestellter weicher Feststoff oder eine hochviskose Flüssigkeit, das gehärtet, d. h. chemisch oder

380 | 7 Polymere, Makromoleküle, Kunststoffe

Abb. 7.10: Telefonapparat mit Bakelit-Gehäuse

thermisch vernetzt und in die unlösliche Endform überführt wird. Dazu besitzt es geeignete funktionelle Gruppen. Die Härtung erfolgt auf verschiedenen Wegen: – durch Polykondensation (Beispiel Phenolharze), – durch Polyaddition (Beispiel Epoxidharze), oder – durch radikalische Polymerisation, teilweise fotoinitiiert (Beispiel Acrylharze). Wir betrachten Phenol- und Epoxidharze als Beispiel. Phenoplaste, Phenolharze, Methanal-Phenol-Systeme (PF, CF, Bakelit) 1872 berichtete A. von Bayer über die Reaktion von Phenolen mit Aldehyden. Praktische Bedeutung gewann sie, als um 1900 im Zuge des Aufschwungs der Elektroindustrie L. H. Baekeland den Mangel an elektrischen Isolationsmaterialien erkannte. Er befasste sich näher mit der Polykondensation von Formaldehyd mit Phenol zu Phenolharzen, die um 1907 unter dem Namen Bakelit für elektrische Isolationen eingesetzt wurden und als leicht formbare und anschließend härtbare Formmassen (siehe Abb. 7.10) für Steckverbindungen und Schalter eng mit der Entwicklung der Elektroindustrie verbunden sind. Beispiele finden Sie bei alten Elektroinstallationen in Form von typisch braunen Steckverbindungen oder Schaltern. Heute wird Phenolharz, mit Füllstoffen versetzt, zur Herstellung von vielerlei Formmassen eingesetzt. Es verleiht Zellulosematerial wie Holz, Baumwolle oder Papier nach dem Verpressen der harzgetränkten Gewebe und Fasern hohe Zähigkeit. Typische Anwendungen sind – Pressmassen für Elektro- und Gebrauchsgeräte (Phenolharz), – Schichtstoffe, Hartpapier, Isolationen (Kresolharz), – Hartfaserplatten (Kresol-Xylenol-Harz),

7.5 Synthetische Polymere | 381

– –

Holzleim für Sperrholz-Heisspressung (Phenol-Kresol-Harz), Schleifscheiben, Bau-Schaumstoffe (Phenolharz).

Medientechnisch wichtig ist seine Anwendung zur Herstellung günstiger fester Leiterplatten (FR1, FR2, „Hartpapier-Leiterplatten“) in der für Phenolharze typischen braunen Farbe (Kap. 7.7). Durch die chemische Basis Phenol/Methanal gehört Bakelit zu den Phenoplasten, Phenol-Formaldehyd-Harzen oder Phenolharzen. Phenol ist wichtigster Grundbaustein, gefolgt von Kresol:

Die Polykondensate werden gewöhnlich durch Druck oder Temperatur gehärtet. Das dreidimensional vernetzte Polymer ist chemisch stabil gegenüber Säuren und Feuchtigkeit, aber weniger gegenüber Basen, außerdem ist es elektrisch isolierend sowie hart und spannungsrissfest. Bildung des Präpolymers Die Reaktion von Phenol und Methanal zum Präpolymer ist pH-abhängig. Im alkalischen Milieu entstehen Resole, im sauren Milieu Novolake. Grundlage der Reaktionsfähigkeit sind die Wasserstoffatome in ortho- und paraPosition²⁶ zur Phenolgruppe. Der Phenolkörper besitzt bis zu drei solcher reaktiven Positionen, die zur Verbrückung geeignet sind und durch die ortho-/para-dirigierende Wirkung der phenolischen Hydroxylgruppe entstehen:

26 Angaben zur Position eines Substituenten in Relation zum höherrangigen Substituenten in Verbindungen mit zwei verschiedenen Substituenten an einem benzolischen System. Die o-Position ist dem höherrangigen Substituenten direkt benachbart, die p-Position steht ihm direkt gegenüber. Die m-Position liegt zwischen beiden.

382 | 7 Polymere, Makromoleküle, Kunststoffe

Die zahlreichen möglichen Brückenköpfe und die damit verbundene Strukturvielfalt führt bei der Kondensation zu einem Gemisch aller möglichen strukturisomeren Produkte. Im Schema sind bevorzugt ortho-verbrückte Verbindungen gezeigt. Je mehr Positionen reagieren, desto höher wird der Vernetzungsgrad und desto unlöslicher der resultierende Duroplast.

Abb. 7.11: pH-abhängige Reaktion von Phenol und Methanal zu einem Präpolymer vom Resol-Typ oder vom Novolak-Typ.

7.5 Synthetische Polymere | 383

Abb. 7.12: Erhitzen eines Resol-Präpolymers führt zu vernetzten Duroplasten, den Resiten oder Phenolharzen (Kennbuchstaben PF).

Härtung/Vernetzung Ist das Werkstück mit dem flüssigen Präpolymer geformt, schließt sich die Härtung an. Resole enthalten reaktive Hydroxymethylgruppen und vernetzen durch Kondensation dieser Gruppen beim Erwärmen in leicht saurer Umgebung. Bei 130 °C erhalten Sie unter Wasserverlust Ether, bei 150 °C methylenverbrückte duroplastische Resite. Da die Brücken, wie oben erwähnt, an bis zu drei ortho- und para-Positionen ansetzen können, entsteht ein hochmolekulares dreidimensionales Netzwerk, ein sog. Resit, das unlöslich und unschmelzbar ist.

384 | 7 Polymere, Makromoleküle, Kunststoffe

Abb. 7.13: Erhitzen eines Novolak-Präpolymers führt unter Ausstoß stickstoffhaltiger Verbindungen ebenfalls zu Resiten oder Phenolharzen.

7.5 Synthetische Polymere | 385

Bei Novolaken ist die Polykondensation bereits bei der Herstellung der Präpolymeren vollständig abgeschlossen, sie sind methylenverbrückt und besitzen keine freien Hydroxymethylgruppen mehr, die zur Vernetzung genutzt werden könnten. Die Vernetzung der Novolake erfolgt daher durch Zugabe von Härtern wie Formaldehyd, Resolen oder Hexamethylentetramin (Urotropin), das beim Erwärmen in Umkehrung seiner Bildungsreaktion Methanal und Ammoniak freisetzt. Bei 120–170 °C entstehen Produkte mit Di- und Trimethylenamin-Brücken, die zur Vernetzung des Präpolymers führen. Bei 170 °C lagern sich diese unter Abspaltung von Methanimin (formal als Addukt von Formaldehyd und Ammoniak NH3 zu sehen) zu Methylenbrücken um. Insgesamt entstehen Produkte, die mit den Resiten vergleichbar sind. Epoxidharze (Epoxyharze, EP) Epoxidharze oder Epoxid-Präpolymere sind fließfähige oder leicht schmelzende kleine bis mittelgroße organische Moleküle mit dem dreigliedrigen Oxiranring im Molekül, der sog. Epoxidgruppe:

Epoxidharze besitzen zwei oder mehr dieser Gruppen, über die eine Oligo- und Polymerisierung zu zähflüssigen oder festen Harzen und Duroplasten erfolgen kann. Ihre Eignung für alle Industriezweige verdanken sie der Möglichkeit, den Oxiranring in einer S N -Reaktion zu öffnen und zum festen zähen Duroplast zu härten, d. h. die kleinen Moleküle eines Präpolymers zu langen Ketten zu verbinden und querzuvernetzen. Häufig werden nicht nur die Präpolymere, sondern auch die gehärteten Harze als Epoxidharz bezeichnet. Epoxidharze sind ein hochwertiges, elektrisch isolierendes Material, das intensiv in der Elektrotechnik genutzt wird als Basismaterial für Leiterplatten, Gehäusematerial für integrierte Schaltungen und Transistoren, Vergussharz für elektronische Baugruppen, Hochspannungsisolation und Imprägnierung von Wicklungen. Unvernetzte Epoxidharze werden als Lacke und Klebstoffe verwendet. Bildung des Präpolymers (Epoxidharz) Die eigentlichen Epoxidharze oder Präpolymere entstehen aus einer Diolkomponente in mehreren Schritten (schrittweises Kettenwachstum), wie Sie am Beispiel eines typischen Epoxidharzes sehen können. Zur einfacheren Lesbarkeit symbolisieren die Kästchen komplexe Molekülteile (BPA=Bisphenol A, Präpolymer=das ganze Präpolymer bis auf die Glycidyl-Endgruppen).

386 | 7 Polymere, Makromoleküle, Kunststoffe

Abb. 7.14: Bildung eines Epoxidharzes (III) aus einer Diolkomponente wie Bisphenol A und eines reaktiven Epoxides wie Epichlorhydrin. Die Glycidyl-Endgruppen, die aus Epichlorhydrin gebildet werden, sind reaktionsfähig und können mit Bisphenol A ausgehend von (I) über (II) zu längeren Ketten (III) reagieren. Das entstandene Präpolymer (III) besitzt immer noch die reaktiven GlycidylEndgruppen und kann über diese aushärten.

7.5 Synthetische Polymere | 387

Bisphenol A ist ein häufig eingesetztes Diol. Für Pressmassen in der Halbleiterindustrie werden auch epoxidierte Novolake verwendet, die als EPN- oder ECN-Harz hohe Vernetzungsgrade erzielen.

Verkapselungsmaterialien für Optoelektronik bauen teilweise auf cycloaliphatischen Epoxiden auf:

Härtung Die flüssigen oder schmelzbaren Präpolymere oder Epoxidharze liefern nach der Vernetzung oder Härtung harte, spröde, unlösliche und formbeständige Festkörper (Duroplaste). Diese zeigen hohe chemische und thermische Beständigkeit und besitzen hohe Adhäsionsfähigkeit. Triebkraft der Vernetzung ist die Öffnung des dreigliedrigen Oxiranrings, der als kleiner dreigliedriger Ring eine hohe Ringspannung und daher eine hohe Reaktivität besitzt. Die Öffnung des Ringes wird durch Nukleophile (Angriff am elektronenarmen Kohlenstoff, anionischer Mechanismus) oder durch Elektrophile (Angriff am elektronenreichen Sauerstoff, kationischer Mechanismus) eingeleitet. Die Reaktion eines Amin-Härters illustriert den nukleophilen Angriff am Kohlenstoff:

388 | 7 Polymere, Makromoleküle, Kunststoffe

Härtung/Vernetzung als Polyaddition Das Härtungsmittel (primäre oder sekundäre Amine, Phenole, Thiole oder Carbonsäuren) kann als Comonomer²⁷ in das Polymerisat eingebaut werden, die Härtung verläuft dann als Polyaddition, z. B. mit einem Amin (I) als Härter:

Amine reagieren schon bei geringer Wärmezufuhr über ihre Wasserstoffatome mit Epoxygruppen zu (II). Diamine wie (I) verknüpfen so zwei Epoxidmoleküle. Sind wie beim Amin (II) noch weitere aktive Wasserstoffatome vorhanden, reagiert (II) weiter zu (III) und verknüpft weitere Epoxidmoleküle. Dies ist der industriell bevorzugte Weg. Härtung/Vernetzung als Polymerisation Bei der Härtung via Polyaddition wird der Härter in zum Epoxidharz vergleichbarer Menge benötigt. Der Härter kann jedoch auch katalytisch wirken und zur Polymeri-

27 Ein zweites Monomer, das neben einem (Haupt-)Monomer in ein Polymer eingebaut wird.

7.5 Synthetische Polymere | 389

sation des Epoxidharzes führen, die anionisch oder kationisch geführt werden kann. Die nötige Energie wird thermisch oder über die Einstrahlung von Mikrowellen, UV-, Röntgen- oder Elektronenstrahlung zugeführt. Vorteilhaft ist die punktgenaue Zubringung der Energie und eine schonende Behandlung des zu härtenden Formteils. Die fotoinitiierte, kationische Polymerisation wird erst durch eine Bestrahlung mit UV-, Röntgen- oder Elektronenstrahlen gestartet. Hierzu wird aus einem strahlungsempfindlichen Initiator eine starke Säure freigesetzt, deren Protonen die kationische Polymerisation starten. Verwendet werden meist sog. Onium-Salze, die ein kationisches Heteroatom aufweisen, z.B.

Der Start der Polymerisation erfolgt durch Fotolyse des Salzes und Bildung einer Brönstedt-Säure²⁸ HPF6 :

Die Brönstedt-Säure bildet aus dem Epoxidharz ein Oxonium-Kation (I), das bei der Ringöffnung ein Carbokation (II) bildet. Dieses ist dann Träger einer kationischen Polymerisation (die beiden Pfeile deuten die nicht mehr im Detail gezeigte Weiterreaktion an):

28 Verbindung, die Protonen abgeben kann und damit sauer wirkt (klassische Definition einer Protonensäure wie Salzsäure HCl).

390 | 7 Polymere, Makromoleküle, Kunststoffe

7.6 Klebstoffe Eine wichtige Anwendung von Polymeren sind Klebstoffe, das sind mehr oder weniger zähflüssige polymere Substanzen, die zwei flächig aufeinandertreffende Werkstoffteile so miteinander verbinden, dass sie nach Krafteinwirkung miteinander verbunden bleiben. Eine Klebung kann als Mehrschichtsystem betrachtet werden: zwischen je einem Fügeteil und der Klebstoffschicht existiert eine Grenzschicht, deren Dicke durch die Rauheit des Fügeteils bzw. des Klebstoffs in molekularer Dimension bestimmt ist. Die Klebeschicht haftet durch Adhäsionskräfte an jedem Fügeteil, die Gesamtfestigkeit der Klebung wird durch diese Adhäsionskräfte wesentlich bestimmt. Zusätzlich beeinflusst die innere Festigkeit der Klebstoffschicht, die durch Kohäsionskräfte bestimmt wird, die Gesamtfestigkeit der Klebung.

Tab. 7.3: Mikroskopische Betrachtung einer Klebung: zwischen den beiden zu verklebenden Fügeteilen liegt die Klebstoffschicht, die über Grenzschichten mit den Fügeteilen verbunden ist. Die Dicke der Grenzschicht hängt von der Oberflächenrauigkeit der Fügeteile ab und bestimmt die Güte der Klebung.

Die Bindungskräfte, die zur Adhäsion und Kohäsion beitragen können, haben wir in Kapitel 2.3 bereits kennengelernt. Da ihre Größen eine starke Abhängigkeit vom Abstand besitzen, ist für eine feste Klebung die enge Zusammenführung von Fügeteilen und Klebstoff von größter Bedeutung. Die typischen Reichweiten von chemi-

7.6 Klebstoffe | 391

schen oder Hauptvalenzbindungen (kovalente²⁹ und Ionenbindungen) liegen bei 0,1– 0,2 nm, die von intermolekularen oder Nebenvalenzbindungen (Wasserstoffbrückenbindungen, Van-der-Waals-Kräfte) bei 0,3–0,5 nm. Nehmen Sie die relative Stärke der einzelnen Bindungskräfte und ihre Abstandsabhängigkeit zusammen, erhalten Sie folgende, für die Festigkeit einer Klebung entscheidenden Bindungskräfte: – kovalente Bindung für die Kohäsion der Klebstoffmonomere, – Dipol- oder Keesomkräfte³⁰ sowie Wasserstoffbrückenbindung für die Adhäsion. Eine Maximierung der Kohäsion kann erreicht werden durch hochmolekulare Substanzen wie Polymere, da große Anteile des Klebstoffs kovalent verknüpft sind, aber auch die große Anzahl schwacher Nebenvalenzbindungen zwischen den Polymerketten eine spürbare Größe erreicht. Für die Adhäsion sind nur die intermolekular wirkenden Nebenvalenzbindungen nutzbar. Aufgrund ihrer geringen Reichweite müssen Klebstoff und Fügeteile in große räumliche Nähe gebracht werden. Außerdem ist ein gleichartiger chemischer Charakter von Klebstoff und Fügeteil erforderlich, d. h. polare oder polarisierbare Fügeteile müssen mit polaren Klebstoffen verarbeitet werden, um die starken ionischen Nebenvalenzbindungen zu nutzen. Klebstoffe enthalten meist polare Gruppen (Hydroxylgruppen –OH, Aminogruppen -NH2 , Carbonsäuregruppen –COOH, Aldehydgruppen –CHO, Isocyanatgruppen –NCO, Vinylgruppen – CH – CH2 , Cyanogruppen –CN, Thiolgruppen –SH und viele mehr). Unpolare Oberflächen wie PE oder PP müssen daher i. a. chemisch behandelt werden, um höhere Oberflächenpolarität zu erhalten. Am meisten werden heutzutage synthetische organische Klebstoffe eingesetzt. Je nach ihrem Aufbau binden sie physikalisch oder chemisch ab. Die chemische Abbindung erfolgt durch Polymerisation diverser Stoffgruppen, von denen Sie einige kennengelernt haben. Bei physikalisch abbindenden Klebstoffen werden die klebenden Polymere gelöst oder geschmolzen aufgebracht und kleben nach Verdunstung des Lösungsmittels oder nach Erstarrung.

7.6.1 Schmelzklebstoffe Schmelzklebstoffe sind Thermoplaste, die zum Gebrauch aufgeschmolzen werden müssen (z. B. Bastelklebstoffe für Heißklebepistolen, siehe Abb. 7.15). Die Klebung setzt mit der Abkühlen und Erstarrung ein. Typische Thermoplaste sind Polyolefine, Ethylvinylacetat EVA, Butylkautschuk, Polyester, Polyamide PA, Polyurethane PUR und Polyacrylate.

29 Bindung, die über ein gemeinsames Elektronenpaar wirkt. 30 Kräfte, die zwischen Molekülen herrschen, die ein permanentes Dipolmoment besitzen.

392 | 7 Polymere, Makromoleküle, Kunststoffe

Abb. 7.15: Heißklebepistole

7.6.2 Trockene Klebstoffe In trocknenden Klebstoffen ist das thermoplastische Polymer in einem Lösungsmittel gelöst, dispergiert oder kolloidal enthalten. Lösungsmittelhaltige Klebstoffe enthalten ein organisches Lösungsmittel. Die Klebung setzt mit dem Verdunsten des Lösungsmittels ein. Typische Thermoplaste sind Polyurethane PUR, Polyvinylacetat PVAC, Polyacrylate und Kautschuke. Bei Dispersions- oder Latex-Klebstoffen ist das Polymer in Wasser dispergiert, was zu der typischen weißen Farbe führt, die Sie von Holzleim (Weißleim) her kennen. Die Klebung setzt mit dem Verdunsten des Wassers und der Filmbildung des Polymers ein. Typische Polymere sind Ethylvinylacetat EVA, Polyvinylacetat PVAC, Polyacrylate, Polyurethane PUR und Kautschuke. Kolloidal gelöste Klebstoffe enthalten das Polymer kolloidal in Wasser gelöst, d. h. in Form mikroskopischer Partikel. Die Klebung setzt mit dem Verdunsten des Wassers ein. Typische Polymere sind Zellulosether (Tapetenkleister).

7.6.3 Chemie physikalisch abbindender Klebstoffe Physikalisch abbindende Klebstoffpolymere leiten sich von vinylgruppenhaltigen Monomeren oder von Kautschuken ab. Polyvinylacetat PVAC besitzt aufgrund seiner polaren Acetatgruppen eine gute Haftung auf vielen Fügeteilen. Es wird als Dispersion (z. B. Vinylacetat/Vinylchlorid-Copolymer) oder als Lösungsmittelklebstoff (z. B. Vinylchlorid/Vinylacetat-Copolymer) eingesetzt. Polyvinylalkohol PVAL ist der Grundstoff der feuchtigkeitsaktivierten Klebstoffe und wird zum Kleben von zellulosehaltigen Fügeteilen wie Papier, Holz oder Pappe eingesetzt. Die Ether von PVAL (Polyvinylether) besitzen eine gute Haftung auf glatten und porösen Oberflächen und sind

7.7 Leiterplatten für elektronische Schaltungen | 393

daher aktiver Bestandteil von Haftklebstoffen. Polystyrol PS tritt in Dispersionsklebstoff als Styrol/Butadien-Copolymer-Grundlage auf.

7.7 Leiterplatten für elektronische Schaltungen Bei der Produktion von Leiterplatten für elektronische Schaltungen spielt die Organische Chemie eine große Rolle. Starre Leiterplatten basieren auf Phenol-Methanal- und Epoxidharz-Duroplasten (Kap. 7.5.3), die mit Cellulosefasern oder Glasfasern verstärkt sind. Für flexible Leiterplatten werden steife, aber flexible Polyester- oder Polyimidfolien eingesetzt (Kap. 7.5.1). Die Tab. 7.4 zeigt gängige Basismaterialien. Tab. 7.4: Gängige Basismaterialien für Leiterplatten, die als Träger elektronischer Schaltungen eingesetzt werden. Bezeichnung Zusammensetzung FR1 FR2 FR3 FR4 Polyimid Polyester

Kommentar

Phenol-Methanal-Harz/Papier Hartpapier, Pertinax, hellbraun, für günstige Elektrogeräte und Konsumentenelektronik Epoxidharz/Papier Günstige Elektrogeräte, Konsumentenelektronik Epoxidharz/Glasfasergewebe Industriestandard, grün Polyimid (Kapton-Folie) Flexible Leiterplatte Polyester (PET-/Mylar-Folie) Flexible Leiterplatte

Zur Herstellung des Leiterbildes, der Abdeckmasken und des Bestückungsdrucks werden fotochemisch härtende oder auflösbare Kunststoffe eingesetzt. Die Druckbilder werden vor allem mit Siebdruck oder Fotodruck reproduziert. Die Druckfarbe bei Siebdruck bedeckt alle Bereiche, die in der Siebdruckmaske als Loch vorliegen. Beim Fotodruck wird das Leiterbild auf einen Fotolack übertragen (Flüssig- oder Trockenresist), der empfindlich auf UV-Licht reagiert. Die Herstellung des Leiterbildes hängt von der gewünschten Leiterplatte ab. Ausgangspunkt ist jeweils eine gar nicht, einseitig oder doppelseitig mit Kupferfolie kaschierte Platte. Als Beispiel betrachten wir eine einseitige Leiterplatte (Abb. 8.6), wie sie in billiger Consumerelektronik verwendet wird. Das Ausgangsmaterial ist einseitig mit Kupferfolie kaschiertes Basismaterial (siehe Abb. 7.16). Beim Positivdruckverfahren sind die wesentlichen Schritte – die Lackabdeckung des Leiterbildes mit Ätzresist (z. B. mit positivem Fotoresist) und – das Abätzen des Restkupfers sowie Strippen³¹ des Ätzresists, es verbleibt das Leiterbild.

31 Entfernen des schützenden Überzugs (Resists).

394 | 7 Polymere, Makromoleküle, Kunststoffe

Abb. 7.16: Lochraster-Platine

Beim Negativdruckverfahren dagegen erfolgt – die Lackabdeckung des Nichtleiterbildes mit Ätzresist (Druck des Negativbilds), das Leiterbild liegt frei, – das Abscheiden eines Metallresists auf dem Leiterbild, – das Strippen des Lacks sowie – das Abätzen des Restkupfers, es verbleibt das metallisierte Leiterbild. Die bei beiden Druckverfahren verwendeten Fotoresists arbeiten wiederum nach den zwei prinzipiellen Verfahren des Positiv- oder Negativbildes: – Bei der Belichtung eines positiv arbeitenden Resists aus einem Polymer zerfällt das Polymer und kann abgewaschen werden, die unbelichteten Bereiche bleiben durch das Polymer geschützt. Gebraucht wird eine Positivmaske (die mit dem Fotoresist zu schützenden Bereiche sind schwarz). – Bei der Belichtung eines negativ arbeitenden Resists aus Monomeren polymerisieren die Monomere, die belichteten Bereiche werden durch das gebildete Polymer geschützt. Gebraucht wird eine Negativmaske (die mit dem Fotoresist zu schützenden Bereiche sind transparent). Für Negativ-Resists, die durch Licht gehärtet werden, sind Mischungen aus Acrylaten und Styrolen geeignet, die radikalisch polymerisieren. Gestartet wird die Polymerisation über Fotoinitiatoren, die unter Strahlungseinfluss leicht in initiale Radikale zerfallen. Eine andere Möglichkeit zur Vernetzung ist die Fotopolymerisation von Poly(vinylcinnamat) PVCi, dem Homopolymeren des Zimtsäurevinylesters. Zimtsäurevi-

7.7 Leiterplatten für elektronische Schaltungen | 395

nylester kann als Homologes zu Vinylacetat angesehen werden. PVCi kann, in organischen Lösungsmitteln gelöst, auf die zu schützende Oberfläche aufgetragen werden. Bei der Bestrahlung mit UV-Licht werden zwei PVCi-Ketten über einen fotochemisch gebildeten Cyclobutanring verknüpft, der durch Addition der beiden Doppelbindungen der Zimtsäure entsteht:

Polymere für Positiv-Resists, die auf Belichtung mit Zersetzung reagieren, sind z. B. Polysilane mit einer direkten Si-Si-Bindung. Auch Novolacke (Phenol-MethanalHarze) zersetzen sich bei Belichtung, wenn bestimmte Fotosensibilisatoren zugesetzt werden.

8 Farbstoffchemie, Fotochemie Zum Abschluss des chemischen Teils soll eine Disziplin vorgestellt werden, die im Grenzbereich zwischen Anorganik und Organik, zwischen Physik und Chemie angesiedelt ist, die Fotochemie. Sie befasst sich mit der Wechselwirkung von Licht und Materie, speziell chemischen Stoffen. Wir werden sie der Fotografie wegen streifen und in Kürze auf die spezielle Disziplin der Farbstoffchemie genauer eingehen, die sich mit Struktur und Synthese von Farbmitteln und dem Einfluss der Struktur und der Umgebungsbedingungen auf die Farbe eines Stoffes befasst.

8.1 Ursache von Farbe bzw. Licht Die zahlreichen Mechanismen der Farberzeugung lassen sich in die Gruppen der physikalischen und der chemischen Farberzeugung unterteilen. Alle setzen die Existenz einer elektromagnetischen Strahlung mit einer Wellenlänge zwischen 400 nm und 800 nm voraus (sog. VIS-Bereich). Strahlung mit größerer Wellenlänge wird als Infrarot- oder Wärmestrahlung wahrgenommen, Strahlung mit niedrigerer Wellenlänge als UV-Strahlung, in beiden Fällen also nicht mehr als Farbe.

8.1.1 Additive Farbmischung durch Emission Im einfachsten Fall entsteht Farbe durch Emission von Licht. Die wahrgenommene Farbe hängt von der Wellenlänge der Strahlung ab. Mögliche Strahlungsquellen und ihr Spektrum sind in Abb. 8.1-8.1.1 gezeigt.

Abb. 8.1: Monochromatische Elektrolumineszenz eines Halbleiters (LED). Beispiel ist die Strahlung einer grün leuchtenden 7-Segment-Anzeige mit einem Strahlungsmaximum im gelbgrünen Bereich (Wellenlänge 563 nm).

https://doi.org/10.1515/9783110496277-034

8.1 Ursache von Farbe bzw. Licht | 397

Abb. 8.2: Breitbandig über den sichtbaren Spektralbereich verteilte Thermolumineszenz eines thermischen Schwarzen Strahlers. Beispiele sind die Glühdrähte von Glüh- und Halogenlampen mit einem Strahlungsmaximum jenseits des roten Bereichs (Wellenlänge über 757 nm).

Abb. 8.3: Monochromatische Elektrolumineszenz in Entladungsröhren, die meist im UV-Bereich liegt und in Leuchtstoffröhren durch Fluoreszenzleuchtstoffe in den VIS-Bereich konvertiert wird. Auch in weißen LEDs wird die schmalbandige Emission einer blauen LED durch einen Fluoreszenzleuchtstoff in Weißlicht konvertiert. Links: Einfache Leuchtstoffröhren benutzen blaue und gelbe Leuchtstoffe, die zusammengenommen einen weißen Lichteindruck hervorrufen. Das Spektrum zeigt eine schmale Emission im Blauen (hier durch eine blaue LED) und eine breitbandige Emission im Orangegelben durch den Fluoreszenzleuchtstoff, was zusammen einen weißen Farbeindruck ergibt. Rechts: Energiesparlampen hoher Farbtreue besitzen mehrere Leuchtstoffe, die schmalbandige Emissionen im ganzen VIS-Bereich besitzen.

398 | 8 Farbstoffchemie, Fotochemie 8.1.2 Subtraktive Farbmischung durch Absorption Einige physikalische Systeme, z. B. mikroskopisch kleine Partikel eines elektrisch leitenden Materials, können durch Absorption von sichtbarem Licht Farbe hervorrufen. Im Goldrubinglas verursachen bestimmte Frequenzen des einfallenden Tageslichtes eine kollektive Schwingungsbewegung der Metallelektronen, sog. Oberflächenplasmonen. Durch diese Anregung der Elektronenschwingung werden dem einfallenden Licht bestimmte Frequenzen entzogen, die grünem Licht entsprechen. Das grüne Licht fehlt im Restlicht, das daher tiefrot erscheint. Auch bei chemischen Farbmitteln wird die Farbe durch Absorption bestimmter sichtbarer Frequenzen durch ein Elektronensystem hervorgerufen. Der Grundmechanismus ist folgender:

Abb. 8.4: Übergang eines Elektrons von einem Grundzustand (Zustand geringer Energie) in einen angeregten Zustand (Zustand höherer Energie). Die notwendige Energie kann durch Licht geeigneter Frequenz geliefert werden und entspricht der Energiedifferenz zwischen den Zuständen.

Ein Atom oder Molekül im energetisch niedrigsten Zustand, dem Grundzustand, nimmt bei Bestrahlung mit Licht passender Energie diese Energie auf und gelangt in einen energiereicheren angeregten Zustand. Die Energie des Lichtes muss der Energiedifferenz zwischen Grund- und Anregungszustand entsprechen. Das Licht, dem diese Energie entzogen wurde, erscheint uns farbig, wenn die Energiedifferenz zwischen Grund- und angeregtem Zustand im sichtbaren Bereich des Spektrums liegt, also Wellenlängen zwischen 400 und 800 nm besitzt. Die Frage ist also, wie Grund- und Anregungszustand beschaffen sind bzw. woher die verschiedenen Energieniveaus stammen. Entsprechen sie möglicherweise einfach den Atomorbitalen aus Kapitel 2.2.2? Leider nur selten, denn in der Regel ist der energetische Abstand der Atomorbitale zu groß, um einer Absorption im sichtbaren Bereich zu entsprechen. Ausnahmen finden wir bei den Münzmetallen Kupfer und Gold: bei Gold ist durch relativistische Absenkung der Energie der s-Orbitale der Übergang 5d → 6s⇑6p durch Absorption von blauem Licht möglich, Gold erscheint daher in der komplementären Farbe gelb oder „goldgelb“. Beim leichteren Silber benötigt der analoge Übergang 4d → 5s⇑5p UV-Licht, Silber erscheint daher weiß. Nur im noch leichteren Kupfer ist der Übergang

8.2 Farbigkeit durch Molekülorbitalübergänge (MO-Übergänge) | 399

3d → 4s⇑4p durch grünes Licht möglich, weshalb Kupfer in der Komplementärfarbe rot oder „kupferrot“ erscheint. Bestimmte chemische Stoffe besitzen jedoch geeignete Bedingungen für einen Elektronenübergang, der sichtbarem Licht entspricht, und zwar für – einen Elektronenübergang vom Valenz- ins Leitungsband (in Halbleitern, Beispiel: gelbe und rote Cadmiumpigmente, weiße, gelbe und rote Bleifarben), – einen Elektronenübergang zwischen verschiedenen Oxidationsstufen eines Metallions (CT-Übergang bei multivalenten Metallen wie Eisen Fe oder Metallpaaren wie Eisen Fe/Titan Ti, Beispiel: gelbliche bis rötliche eisenhaltige Steine, Preussischblau, Saphir), – einen Elektronenübergang zwischen Atomorbitalen eines Metallions in MetallLigand-Komplexen (Beispiel: Grünspan, Malachit (Kupferverbindungen), Chromoxidgrün, Smaragd, Rubin) sowie für – einen Elektronenübergang zwischen Molekülorbitalen (Beispiel: Ultramarinblau, zahlreiche organische Farbmittel). Aufgrund der Breite des Feldes der Farbchemie werden wir nur Farbmittel auf Basis von MO-Übergängen (letzter Punkt der obigen Liste) näher betrachten, die den Hauptteil der heutigen Farbmittel ausmachen.

8.1.3 Die Farben Weiß, Grau, Schwarz Die Farbeindrücke Weiß, Grau und Schwarz entstehen durch Strahlung, die über den ganzen VIS-Bereich hinweg eine gleichmäßige Intensität aufweist. Bei höherer Intensität entsteht ein hellgrauer bis weißer Eindruck, bei niedriger ein dunkelgrauer, beim völligen Fehlen von Strahlung (Intensität Null) ein schwarzer.

8.2 Farbigkeit durch Molekülorbitalübergänge (MO-Übergänge) Farbmittel auf Basis von MO-Übergängen sind farbig, weil der MO-Übergang dem einfallenden „weißen“ Tageslicht bestimmte Frequenzen entzieht. Die Absorption erfolgt, indem ein Elektron, das sich in einem tiefliegenden Energieniveau aufhält, Energie aus dem Licht aufnimmt und ein höhergelegenes Energieniveau bevölkert. Die meisten farbigen Verbindungen entstehen durch Elektronenübergänge zwischen Molekülorbitalen (MO). Ein tieferes Verständnis von MOs können wir an dieser Stelle nicht geben, es reicht aber zu verstehen, dass zwei Orbitale, die miteinander in Kontakt kommen, z. B. indem zwei Atome oder Molekülteile sich einander nähern, eine Wechselwirkung eingehen. Bei hinreichender räumlicher Nähe können z. B. zwei 2p-Atomorbitale, die mit je einem Elektron besetzt sind (Bezeichnung: 2p1 ), miteinander zwei Molekülorbitale bilden. Eines davon ist energetisch abgesenkt und trägt den

400 | 8 Farbstoffchemie, Fotochemie Namen π. Es wird von den zwei Elektronen der p-Orbitale aufgrund seiner energetischen Absenkung bevorzugt bevölkert, was durch die Bezeichnung π2 zum Ausdruck kommt. Gleichzeitig wird das zweite Molekülorbital um den gleichen Energiebetrag erhöht und mit π⋆ bezeichnet. Da es energetisch höher liegt, bleibt es unbesetzt. Triebkraft der Bildung der Molekülorbitale (und damit der kovalenten π-Bindung!) ist der Energiegewinn durch die Absenkung des π-Orbitals:

Dieses Bild illustriert, wie Elektronen zwischen π und π⋆ ausgetauscht werden können, z. B. durch Absorption von Licht. Entspricht die Wellenlänge des Lichtes dem Energieunterschied zwischen π und π⋆ , kann diese Energie zum Elektronenübergang π → π⋆ verwendet werden. Genau diese Möglichkeit wird in den meisten organischen Farbmitteln realisiert. Da die entnommene Energie dem eingestrahlten Licht fehlt, erscheint die Substanz farbig. Die Energiedifferenzen der meisten Molekülorbitale der meisten Substanzen ist so groß, dass sie nur durch Einstrahlung von UV-Licht überwunden werden kann. Dies ist der Grund, weshalb viele organische Substanzen wie Kunststoffe unter Lichteinwirkung allmählich zerfallen, da die absorbierte UV-Strahlung u.a. zur Lockerung chemischer Bindungen verbraucht werden kann. In Farbmitteln wird die Energie der Molekülorbitale durch die chemische Struktur so gesteuert, dass ihre Differenz der Energie sichtbaren Lichtes entspricht. Die obige Bildung von π- und π⋆ -Orbitalen zeigt den Weg: durch Kombination von mehr p- bzw. π-Orbitalen können diese sukzessive Molekülorbitale bilden, deren Energie sich immer mehr annähert. I.a. werden solche Molekülorbitale mit dem griechischen Buchstaben Ψ bezeichnet. Insbesondere das höchste mit Elektronen besetzte MO (highest occupied MO – HOMO, im Beispiel Ψ2 ) und das niedrigste unbesetzet MO (lowest unoccupied MO – LUMO, im Beispiel Ψ3 ) nähern sich energetisch an. Ab einer bestimmten Anzahl an p- bzw. π-Orbitalen können Elektronenübergänge zwischen HOMO und LUMO durch sichtbares Licht hervorgerufen werden. Es entsteht eine farbige Verbindung. Im Beispiel ist der Übergang Ψ2 → Ψ3 gezeigt.

8.2 Farbigkeit durch Molekülorbitalübergänge (MO-Übergänge) | 401

8.2.1 Polyenfarbmittel Die einfachste Art, durch eine Vielzahl an π–Orbitalen einen geringen HOMO-LUMOAbstand zu erreichen, ist in Polyenen realisiert, einer Verbindungsklasse, die sich durch eine Vielzahl konjugierter Doppelbindungen auszeichnet. In ihnen werden genau die oben geschilderten Molekülorbitale gebildet. Zur Erzeugung von Farbe werden mehr als fünf konjugierte Doppelbindungen benötigt, was Sie in Ihrer Küche sehen können: Lutheoxanthin, ein Polyen mit sechs konjugierten Doppelbindungen, ist für die gelbe Farbe von Orangensaft und Zitronen verantwortlich. Carotin mit elf konjugierten Doppelbindungen ruft die orange Farbe von Karotten hervor, während Capsanthin mit zehn konjugierten Doppelbindungen und Carbonylgruppe für das Paprikarot zuständig ist.

402 | 8 Farbstoffchemie, Fotochemie

Die zunehmende Wellenlänge der beobachteten Farbe zeigt, wie mit steigender Zahl konjugierter Doppelbindungen der HOMO-LUMO-Abstand sinkt.

8.2.2 Polymethin- und Cyaninfarbmittel Besteht die Polyenkette aus einer ungeraden Zahl 2n+1 Kohlenstoffatomen, also aus n Doppelbindungen und einem Extra-Kohlenstoffatom samt Elektron, sowie einer Elektronenakzeptor- und einer Elektronendonorgruppe, liegt ein PolymethinFarbmittel vor. Es zeichnet sich durch einen leichten Wechsel von Elektronen vom Donor zum Akzeptor aus, der durch Licht induziert werden kann (die Elektronen sind hier als freies Elektronenpaar durch Doppelpunkte symbolisiert):

Der leichte Wechsel der Elektronen ist Ausdruck eines geringen HOMO-LUMOAbstands, sodass Polymethin-Farbmittel schon bei kleinem n farbig sind. Grund für den geringen HOMO-LUMO-Abstand ist das zusätzliche Kohlenstoffatom, das zu einem zusätzlichen MO Anlass gibt. Dieses liegt genau mittig zwischen HOMO und LUMO eines gleichartigen Polyens, halbiert also die notwendige Übergangsenergie. Beispiele für natürliche Polymethin-Farbstoffe sind Flavonoide (gelbe Blütenfarbstoffe) und Anthocyanidine (rote bis blaue Blütenfarbstoffe). In der Industrie haben sich vor allem stickstoffhaltige Donoren und Akzeptoren durchgesetzt, die zu der wichtigen Farbstoffklasse der Cyanine führen:

8.2 Farbigkeit durch Molekülorbitalübergänge (MO-Übergänge) | 403

Entscheidend dabei ist die Fähigkeit von Stickstoff, Elektronen abzugeben oder aufzunehmen und über Mesomerie im Molekül weiterzuverschieben. Die Klassen unterscheiden sich, je nachdem Stickstoff Teil eines Ringsystems ist. Cyaninfarbstoffe sind wesentliche Bestandteile der lichtempfindlichen Filme und Papiere der Farbfotografie (Kap. 8.3.2). Sie zeigen wie die Polyene den Einfluss wachsender Kettenlänge auf die Farbe in der Reihe Gelb → Rot → Blau → Grün. (Beachten Sie, dass PolyenFarbstoffe wie die Carotine keine Farbe jenseits von Rot besitzen, egal wie lange die Kette ist.) Abwandlungen des linearen Polymethinsystems mit n=0 und aromatischen Kernen als Fortsetzung der Doppelbindungskette führen zu Farbstoffen für Stempelfarben und Tinten. Beim Strukturtyp des Fluoresceins ist das einzige Kohlenstoffatom des Polymethins mit n=0 an zentraler Stelle in ein geschlossenes Dreifachringsystem eingebettet. Der Strukturtyp des Kristallvioletts zeigt die zentrale Polymethinkette besonders deutlich:

Zur selben Klasse wie Fluorescein gehören auch Eosin und rote Lebensmittelfarbstoffe, zur selben Klasse wie Kristallviolett die Farbstoffe Malachitgrün, Brillantgrün, Victoria Rein Blau, Methylviolett, Brillantblau, Wasserblau oder Benzylviolett. Dieser Farbstofftyp kann also die sehr wichtigen blauen, grünen und violetten Farben liefern, die aber leider relativ lichtunecht sind, weswegen die meisten farbigen Füllhalter- und Filzschreibertinten schnell am Licht verblassen.

8.2.3 Annulene, Phthalocyanine Annulene sind zyklisch geschlossene Polyene. Sie treten in der Natur als Blut- und Blattfarbstoff (Hämoglobin, Chlorophyll) auf. Die moderne synthetische Strukturvariante besitzt einige Stickstoffatome anstelle von Kohlenstoffatomen und Benzolringe im Außenkreis. Die Elektronen des ringförmigen Polyens stammen teilweise aus den Doppelbindungen, teilweise von den Stickstoffatomen. Diese sog. Phthalocyanine sind herausragende Pigmente, da sie den ansonsten nur schwer zugänglichen Blau- und

404 | 8 Farbstoffchemie, Fotochemie Grünbereich erschließen und obendrein hervorragende Licht-, Wetter- und Lösungsmittelechtheiten aufweisen. Die Grundstruktur ist in Pigment Blue 15 (PB15) realisiert, dem türkisblauen Standardpigment des CMYK-Vierfarbdrucks.

Chlorierung oder Bromierung der Benzolringe im Außenkreis führt zu grünstichigen Pigmenten, z. B. zu Phthalocyaningrün, PG7 oder PG36. Alle Phthalocyanine werden als Pigmente und in löslicher Form auch als Farbstoffe in der Druck-, Lack- und Künstlerfarbenindustrie eingesetzt.

8.2.4 Moderne Donor-Akzeptor-Farbmittel Moderne Farbmittel beruhen im Prinzip auf einem Elektronendonor D (z. B. der Aminogruppe -NR2 ), über eine Brücke B n aus n konjugierten Doppelbindungen verbunden mit einem Elektronenakzeptor A (z. B. der Carbonylgruppe -CO-):

Ein solches Donor-Akzeptor-System kann eine geringe HOMO-LUMO-Differenz besitzen, sodass Farbigkeit schon mit kleinen Molekülsystemen erreicht wird. Die Bedeutung dieser Systeme liegt darin, dass mit geeigneten D und A auch die ansonsten nur schwer erhältlichen Farben Blau und besonders Grün zugänglich sind. Wichtige von diesem Prinzip direkt abgeleitete Farbmittelklassen, die hier kurz besprochen werden sollen, sind Anthrachinone und polycyclische Chinone, Diazoverbindungen sowie Chinacridone.

8.2 Farbigkeit durch Molekülorbitalübergänge (MO-Übergänge) | 405

Anthrachinon-Farbmittel Anthrachinone sind bedeutende natürliche und synthetische rote bis blaue Farbmittel, die vor allem als Textil- und Druckfarbstoffe genutzt werden, da sie bei einfacher Struktur einen großen Farbbereich umspannen. Zu den bekannten Malerfarben auf Anthrachinonbasis gehören Alizarin, die Karminsäure (Karminrot), Lac Dye oder Türkischrot.

Bei den Strukturen kann die Carbonylgruppe als Akzeptor A identifiziert werden, als Donor fungieren keine isolierten Strukturen, sondern weite Bereiche der aromatischen Ringe. Sie sehen, dass die sauerstoffhaltigen Alizarin-Farbmittel, die natürlich vorkommen, nur rote Farbtöne erzielen, während die synthetische moderne Variante mit zahlreichen Aminogruppen bis in den Blaubereich vorstößt. Oder anders ausgedrückt: Sie können hieran erkennen, welcher Aufwand an elektronenreichen Donorgruppen nötig ist, blaue Farben zu erzielen. (Dies gilt umso mehr für blaugrüne und grüne Farbmittel.) Diazo-Farbmittel Diazoverbindungen sind industriell wichtige synthetische gelbe, rote und blaue Farbmittel, die als Pigmente für die Autolack- und Druckindustrie verwendet werden. Sie sind eine reine Entwicklung der chemischen Forschung und besitzen kein natürliches Äquivalent. Pigment Orange 5 (PO5) ist ein Beispiel für den klassischen, einfach gebauten Typ. Heutzutage werden erheblich komplexere Strukturen eingesetzt, die die nötigen Licht- und Lösungsmittelechtheiten aufweisen, wie Sie an Pigment Yellow 12 (PY12) sehen, dem Standard-Gelb im CMYK-Vierfarbdruck. PR57:1 vervollständigt zu-

406 | 8 Farbstoffchemie, Fotochemie sammen mit PB15 die Grundfarben Gelb, Magenta und Cyan, die für den Vierfarbdruck heute typischerweise verwendet werden.

Diazofarbmittel bilden eine sehr große Gruppe moderner Pigmente. Triebkraft der Forschung an Diazopigmenten war neben der Farbe u.a. die Verbesserung der Lösungsmittelechtheit: Druckfarben z. B. sollen nach dem Druck beständig gegenüber allen in der Praxis auftretenden Lösungsmitteln sein, sie sollen weder bei Nässe ausbluten noch sich bei Kontakt mit Butter und anderen Fetten lösen. Daher besitzt z. B. PY12 ein hohes Molekulargewicht, um die Löslichkeit generell zu vermindern, und ist räumlich groß, kann sich also über sekundäre Wechselwirkungen besser als ein kleines Molekül an seiner Umgebung verankern.

8.3 Fotografie | 407

8.3 Fotografie Die erste Entwicklung eines latenten Silber-Bildes erfolgte durch L. J. M. Daguerre (siehe Abb. 8.5). Der Aufbau bestand aus einer belichteten Glasplatte, die versilbert und mit Ioddämpfen behandelt war und eine Schicht aus Silberiodid AgI aufbaute. Die Entwicklung des Bildes erfolgte durch Kondensation von Quecksilber-Dämpfen an Silberkeimen, die durch die Belichtung entstanden waren. Fixiert wurde das Bild durch Herauswaschen des überschüssigen (nicht-belichteten) AgI mit Kochsalz.

Abb. 8.5: Daguerrotypie von Louis Daguerre, erstellt 1844

Schon vor diesem Experiment war bekannt, dass sich Silberiodid AgI, Silberbromid AgBr und Silberchlorid AgCl an Licht zersetzen und nach den Gleichungen

408 | 8 Farbstoffchemie, Fotochemie

violett-schwarz verfärben. Das Halogenid gibt bei Belichtung Elektronen ins Leitungsband des Silberhalogenids AgX ab, einem I-VII-Halbleiterverbindung. Das Elektron wandert an die Oberfläche des AgX-Korns und entlädt an einem negativ geladenen Reifkeim ein Silberkation Ag+. Der negativ geladene Reifkeim zieht anschließend weitere Silberkationen an. Diese Reaktion wird auch im fotografischen Film bzw. den früheren Platten angewandt. Schon im 19. Jhd. wurde erkannt, dass Gelatine idealer Träger des Silberhalogenids ist, das in dieser Form als sog. fotografische Emulsion auf verschiedene Träger aufgebracht wird.

8.3.1 Fotografischer Schwarz-Weiß-Prozess Wie schaut der fotografische Prozess im Detail aus? Er teilt sich in die grundlegenden Schritte – Belichtung, – Entwicklung und – Fixierung. Die dabei ablaufenden Prozesse seien in einem schematisierten Film dargestellt, der aus einem polymeren Trägermaterial, der lichtempfindlichen Emulsion und einer Deckschicht besteht:

8.3 Fotografie | 409

Belichtung Bei der Belichtung (symbolisiert durch L) erfolgt die Reduktion des Silberhalogenids (#) zu einigen wenigen Silberatomen an der Oberfläche der Körner (latentes Bild, ). Durch die Belichtung werden einige wenige Silberatome an der Oberfläche der Mikrokristalle oder der Körner zu metallischem, kolloidalen Silber reduziert. Es entsteht das latente Bild, dessen Farbpartikel (Silberatome) zu klein sind, um bereits sichtbar zu sein. Das Halogenradikal reagiert mit organischen Verbindungen (z. B. der Gelatine des Films) zu einer organischen Halogenverbindung R-X. Die Silberhalogenide sind unterschiedlich empfindlich für Licht: Silberchlorid AgCl wird nur durch Licht