Kohärenz im Unterricht der Elementarteilchenphysik: Tagungsband des Symposiums zur Didaktik der Teilchenphysik, Wuppertal 2018 [1. Aufl.] 9783662616062, 9783662616079

Kohärenz im Unterricht der Elementarteilchenphysik Das vorliegende Buch fasst die Ergebnisse des Symposiums „Kohärenz i

245 29 3MB

German Pages XIII, 150 [155] Year 2020

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Front Matter ....Pages I-XIII
Front Matter ....Pages 1-1
Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht? (Wolfgang Wagner)....Pages 3-11
Erzeugung und Vernichtung von Teilchen (Robert Harlander)....Pages 13-35
Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse (Brigitte Falkenburg)....Pages 37-54
Mit moderner Physik zum mündigen Bürger? (Thomas Zügge)....Pages 55-77
Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik (Oliver Passon)....Pages 79-90
Front Matter ....Pages 1-1
Eine anschlussfähige Begriffsbildung der Basiskonzepte des Standardmodells für die Schule (Michael Kobel, Philipp Lindenau)....Pages 93-106
Hands-on- & Minds-on- Teilchenphysikexperimente im CERN-Schülerlabor S’Cool LAB (Julia Woithe, Jochen Kuhn, Andreas Müller, Sascha Schmeling)....Pages 107-119
Das Wuppertaler Curriculum der Elementarteilchenphysik (Thomas Zügge, Oliver Passon)....Pages 121-141
Diskussion der didaktischen Impulse und Abschlussdiskussion (Oliver Passon, Thomas Zügge)....Pages 143-150
Recommend Papers

Kohärenz im Unterricht der Elementarteilchenphysik: Tagungsband des Symposiums zur Didaktik der Teilchenphysik, Wuppertal 2018 [1. Aufl.]
 9783662616062, 9783662616079

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Oliver Passon Thomas Zügge Johannes Grebe-Ellis Hrsg.

Kohärenz im Unterricht der Elementarteilchenphysik Tagungsband des Symposiums zur Didaktik der Teilchenphysik, Wuppertal 2018

Kohärenz im Unterricht der Elementarteilchenphysik

Oliver Passon · Thomas Zügge · Johannes Grebe-Ellis (Hrsg.)

Kohärenz im Unterricht der Elementarteilchenphysik Tagungsband des Symposiums zur Didaktik der Teilchenphysik, Wuppertal 2018

Hrsg. Oliver Passon Fakultät für Mathematik und Naturwissenschaften, AG Physik und ihre Didaktik, Bergische Universität Wuppertal Wuppertal, Deutschland

Thomas Zügge Fakultät für Mathematik und Naturwissenschaften, AG Physik und ihre Didaktik, Bergische Universität Wuppertal Wuppertal, Deutschland

Johannes Grebe-Ellis Fakultät für Mathematik und Naturwissenschaften, AG Physik und ihre Didaktik, Bergische Universität Wuppertal Wuppertal, Deutschland

ISBN 978-3-662-61606-2 ISBN 978-3-662-61607-9  (eBook) https://doi.org/10.1007/978-3-662-61607-9 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Lisa Edelhaeuser Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Vorwort

Wir freuen uns, mit diesem Band die Ergebnisse des Symposions „Kohärenz im Unterricht der Elementarteilchenphysik“ vorlegen zu können, das am 20. und 21. Oktober 2018 in Wuppertal stattgefunden hat. Der Anlass zu der Veranstaltung ergab sich aus einem zum Teil mehrjährigen, intensiven Austausch mit verschiedenen Akteuren auf dem Gebiet der Didaktik der Teilchenphysik. Ziel des Symposions, das von der Arbeitsgruppe Physik und ihre Didaktik der Bergischen Universität Wuppertal veranstaltet wurde, war eine Zusammenschau verschiedener fachlicher und fachdidaktischer Gesichtspunkte zu der Frage nach relevanten Inhalten für den schulischen Unterricht zur Elementarteilchenphysik. Die Veranstaltung bildete zugleich einen Abschluss des Projekts „Elementarteilchenphysik kompetent und spannend unterrichten“, das als Teilprojekt der mit Mitteln des BMBF geförderten Maßnahmenlinie „Curriculare Weiterentwicklung“ des Projekts „Kohärenz in der Lehrerbildung“ (KoLBi) von 2015 bis 2018 an der Bergischen Universität Wuppertal durchgeführt wurde. Ein besonderes Merkmal der in diesem Rahmen durchgeführten Teilprojekte bestand in der Kooperation zwischen je einer Fachwissenschaft, der zugehörigen Fachdidaktik und den Bildungswissenschaften. Im Falle unseres Teilprojektes war das die experimentelle Teilchenphysik, vertreten durch die Kollegen Wolfgang Wagner und Christian Zeitnitz, die Fachdidaktik der Physik, vertreten durch Johannes Grebe-Ellis, Oliver Passon und den im Projekt promovierenden Mitarbeiter Thomas Zügge, sowie die Bildungswissenschaft, vertreten durch Cornelia Gräsel. Ziel der Zusammenarbeit in diesem Kreis war die Entwicklung eines curricularen Vorschlags für den Unterricht der Elementarteilchenphysik, die Konzeption entsprechender Lehrangebote für Lehramtsstudierende sowie die Entwicklung und Durchführung von Lehrendenfortbildungen. Durch die Zusammenführung fachlicher, fachdidaktischer und bildungswissenschaftlicher Gesichtspunkte sollten Bausteine eines umfassend abgestimmten, oder, wie es im Titel des Gesamtprojekts anklingt, „kohärenten“ Aus- und Weiterbildungsangebotes geschaffen werden. Entscheidend für das in diesem Zusammenhang entstandene „Wuppertaler Curriculum“ war die Möglichkeit, sich mit Michael Kobel und weiteren Vertreterinnen und Vertretern vom Netzwerk Teilchenwelt sowie den Kolleginnen und Kollegen der Arbeitsgruppe von Sascha Schmeling am CERN, namentlich Julia Woithe, austauschen zu können, die zum Teil bereits seit

V

VI

Vorwort

vielen Jahren an einem Curriculum zur Teilchenphysik für die Schule gearbeitet haben. Den Inhalt des vorliegenden Bandes bilden die Beiträge, die von den Beteiligten im Anschluss an das Symposion ausgearbeitet wurden. Die Diskussionen im Anschluss an die Vorträge wurden aufgezeichnet und von uns zusammengefasst. Sie sind jedem Beitrag als jeweils letztes Unterkapitel hinzugefügt.1 Wie verschieden die Perspektiven sind, aus denen im Rahmen unseres Projekts argumentiert und gehört wurde, lässt sich vielleicht am besten anhand der Beiträge von Wolfgang Wagner (Kap. 1), Thomas Zügge (Kap. 4) und Oliver Passon (Kap. 5) erahnen. Einige unserer Auffassung nach relevante Perspektiven, die in unserem Projekt nicht durch Personen vertreten waren, kamen dankenswerterweise im Rahmen des Symposions ebenfalls zu Wort. Eine theoretisch-physikalische Perspektive ergänzt Robert Harlander (Kap. 2), und ­ Brigitte Falkenburg behandelt die Frage nach dem Bildungswert der Elementarteilchenphysik aus einer philosophischen Perspektive (Kap. 3). Um dem Leser die Orientierung zu erleichtern und den Zusammenhang der Kapitel untereinander anzudeuten, wird der Inhalt der Beiträge im Folgenden kurz skizziert. Den Auftakt macht in Kap. 1 der Beitrag von Prof. Dr. Wolfgang Wagner (Wuppertal), der nicht nur aus der Perspektive des experimentellen Teilchenphysikers auf den Gegenstand blickt, sondern als Mitglied der Projektleitung den Entwicklungsprozess des „Wuppertaler Curriculums“ mitgestaltet und aktiv begleitet hat. Die Frage nach „Quarks und Feynman-Diagrammen: Basiswissen im Schulunterricht?“ beantwortet er somit auch vor dem Hintergrund der intensiven didaktischen Diskussionen, die in den letzten Jahren in der Projektgruppe geführt wurden. Sein Beitrag ist ein ausdrückliches Plädoyer für die Einbeziehung der Teilchenphysik in den Schulunterricht; die aktive Nutzung von ­Feynman-Diagrammen als Werkzeug der Darstellung wird von ihm ausdrücklich empfohlen. Der Beitrag des theoretischen Physikers Prof. Dr. Robert Harlander (Aachen) über die „Erzeugung und Vernichtung von Teilchen“ in Kap. 2 weicht von seinem Symposionsbeitrag ab und stellt im Kern eine knappe Einführung in die konzeptionellen Grundlagen der Quantenfeldtheorie dar. Ein besonderer Schwerpunkt liegt dabei auf der Symbolsprache der Feynman-Diagramme, deren Ursprung und Bedeutung genauer diskutiert werden. Der Anhang dieses Beitrages beinhaltet Überlegungen zu den Konzepten „Intuition“, „Analogien“ sowie „Begrifflichkeiten“. Die Gedanken des Autors beziehen sich dabei explizit auf die Diskussionen, die auf der Tagung geführt wurden.

1Lediglich

für die didaktischen Impulse wurde von diesem Vorgehen abgewichen. Deren Diskussion ist (gemeinsam mit der Abschlussdiskussion) in Kap. 9 dokumentiert.

Vorwort

VII

In Kap. 3 unternimmt die Wissenschaftsphilosophin und Physikerin Prof. Dr. Dr. Brigitte Falkenburg (Dortmund) eine philosophische Analyse der Astroteilchenphysik. Hier kommt es zu einer faszinierenden Blickumkehr im Vergleich zu den Beiträgen von Wagner und Harlander. Während in der dort behandelten beschleunigerbasierten Teilchenphysik (vereinfacht ausgedrückt) bekannte Anfangszustände der Materie verwendet werden, um bisher unbekannte Zustände im Detektor zu entdecken, misst man in der Astroteilchenphysik bekannte Endzustände, um auf unbekannte Quellen zu schließen. Der Beitrag von Thomas Zügge (Wuppertal) in Kap. 4 nähert sich dem Gegenstand aus der Perspektive der Bildungswissenschaften. Ausgehend von einer Definition des Bildungsbegriffs versucht er, zentrale und bildende Inhalte für den Unterricht der Elementarteilchenphysik zu identifizieren. Dabei benennt er nicht nur fachsystematische Bezüge, sondern verweist auch auf die Lebenswelt der Lernenden als Stifter von Bildungsanlässen für den Unterricht. In Kap. 5 thematisiert Dr. Oliver Passon (Wuppertal) ein kurioses Spannungsverhältnis in der Didaktik der modernen Physik, das sich im Titel seines Beitrags: „Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik“ andeutet. Der Beitrag beschreibt diesen Sachverhalt, ordnet ihn lerntheoretisch ein und macht Vorschläge für eine vermittelnde Position. Am zweiten Tag des Symposions standen explizit didaktische Fragen im Vordergrund. Den Auftakt machte Prof. Dr. Michael Kobel (Dresden), der in Kap. 6 zusammen mit Philipp Lindenau die curriculare Basis des Netzwerkes Teilchenwelt vorstellt. In der langjährigen Arbeit zu Inhalten der Teilchenphysik ist dort der Gesichtspunkt von Symmetrie und Erhaltungssätzen immer mehr in den Vordergrund gerückt, während der konkrete Teilcheninhalt des Standardmodells nur eine untergeordnete Rolle spielt. Angemerkt sei, dass die „Basiskonzepte des Standardmodells“, die im Titel dieses Beitrags erwähnt werden, nicht mit den „Basiskonzepten“ der Bildungsstandards Physik verwechselt werden dürfen. Im Kap. 7 gibt Julia Woithe (zusammen mit Jochen Kuhn, Andreas Müller und Sascha Schmeling als Koautoren) einen Überblick über die vielfältigen Aktivitäten des Lern- labors „S’Cool LAB“ am europäischen Forschungszentrum für Teilchenphysik (CERN). Daneben werden erste Ergebnisse der fachdidaktischen Begleitforschung präsentiert. Im Kap. 8 stellen Thomas Zügge und Oliver Passon mit dem „Wuppertaler Curriculum der Teilchenphysik“ das vorläufige Arbeitsergebnis des bereits mehrfach erwähnten KoLBi-Projekts an der Uni Wuppertal vor. In vier „Bausteinen“ wird hier eine fachsystematische Gliederung vorgeschlagen, die durch didaktische Impulse aus der Entwicklungspsychologie und Lehr-Lerntheorie informiert ist. Gleichzeitig wird versucht, verbreitete trivialisierende Narrative der Teilchenphysik zu vermeiden.

VIII

Vorwort

Die Herausgeber bedanken sich bei den Autorinnen und Autoren für ihre Mitarbeit an diesem Band und bei Dr. Lisa Edelhäuser und Stefanie Adam vom Springer Verlag für die geduldige und angenehme Zusammenarbeit. Wir wünschen dem Buch interessierte Leserinnen und Leser und diesen eine anregende Lektüre! Wuppertal im Februar 2020

Die Teilnehmenden Stefan Brackertz (Uni Köln) Brigitte Falkenburg (TU Dortmund) Johannes Grebe-Ellis (BU Wuppertal) Georg Haehn (Kompetenzteam Bergisch Land) Robert Harlander (RWTH Aachen) Ulrich Heinen (BU Wuppertal) Stefan Heusler (WWU Münster) Michael Kobel (TU Dresden) Philipp Lindenau (TU Dresden) Oliver Passon (BU Wuppertal) Andreas Schulz (Uni Köln) Wolfgang Wagner (BU Wuppertal) Daniel Wickeroth (Uni Köln) Julia Woithe (CERN, TU Kaiserslautern) Thomas Zügge (BU Wuppertal)

Oliver Passon Thomas Zügge Johannes Grebe-Ellis

Inhaltsverzeichnis

Teil I  Fachliche Perspektiven 1 Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Wolfgang Wagner 1.1 Vor- und Nachteile der Elementarteilchenphysik im Schulunterricht. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Quarks im Physikunterricht. Aber wie?. . . . . . . . . . . . . . . . . . . . . . . 5 1.3 Feynman-Diagramme im Schulunterricht?. . . . . . . . . . . . . . . . . . . . 7 1.4 Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 Diskussion zum Vortrag von Wolfgang Wagner . . . . . . . . . . . . . . . . 10 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 2 Erzeugung und Vernichtung von Teilchen. . . . . . . . . . . . . . . . . . . . . . . 13 Robert Harlander 2.1 Einführung und Motivation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.2 Quantenmechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.3 Quantenfeldtheorie und Feynman-Diagramme. . . . . . . . . . . . . . . . . 20 2.4 Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.5 Anhang. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 Brigitte Falkenburg 3.1 Zur Entstehung der Astroteilchenphysik. . . . . . . . . . . . . . . . . . . . . . 38 3.2 Botenteilchen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40 3.3 Teilchen oder Wellen?. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42 3.4 Methoden der Astroteilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.5 Zum Wirklichkeitsverständnis der Astroteilchenphysik . . . . . . . . . . 49 3.6 Multi-Messenger-Astrophysik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50 3.7 Diskussion zum Vortrag von Brigitte Falkenburg . . . . . . . . . . . . . . . 51 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

IX

X

Inhaltsverzeichnis

4 Mit moderner Physik zum mündigen Bürger? . . . . . . . . . . . . . . . . . . . 55 Thomas Zügge 4.1 Zum Bildungsauftrag des Physikunterrichts. . . . . . . . . . . . . . . . . . . 56 4.2 Bildungswert der Elementarteilchenphysik. . . . . . . . . . . . . . . . . . . . 61 4.3 Eine entwicklungssensible Ergänzung. . . . . . . . . . . . . . . . . . . . . . . . 64 4.4 Zusammenführung und Impulse für den Unterricht der Elementarteilchenphysik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72 4.5 Diskussion zum Vortrag von Thomas Zügge. . . . . . . . . . . . . . . . . . . 72 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 5 Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79 Oliver Passon 5.1 Ein kurzer Blick auf die spezielle Relativitätstheorie. . . . . . . . . . . . 80 5.2 Präkonzepte und Konzeptwechsel. . . . . . . . . . . . . . . . . . . . . . . . . . . 80 5.3 Mystifizierung der Quantenmechanik. . . . . . . . . . . . . . . . . . . . . . . . 81 5.4 Trivialisierung der Teilchenphysik. . . . . . . . . . . . . . . . . . . . . . . . . . . 84 5.5 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.6 Diskussion zum Vortrag von Oliver Passon. . . . . . . . . . . . . . . . . . . . 87 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89 Teil II  Didaktische Impulse 6 Eine anschlussfähige Begriffsbildung der Basiskonzepte des Standardmodells für die Schule . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Michael Kobel und Philipp Lindenau 6.1 Einleitung und Motivation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 6.2 Die Basiskonzepte des Standardmodells. . . . . . . . . . . . . . . . . . . . . . 95 6.3 Zusammenfassung und Schlussbemerkungen. . . . . . . . . . . . . . . . . . 105 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 7 Hands-on- & Minds-on- Teilchenphysikexperimente im ­CERN-Schülerlabor S’Cool LAB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 Julia Woithe, Jochen Kuhn, Andreas Müller und Sascha Schmeling 7.1 Das Schülerlabor S’Cool LAB am CERN – Geschichte und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 7.2 Didaktisches Design der S’Cool LAB-Workshops. . . . . . . . . . . . . . 109 7.3 A Hands-on Tour Through Particle Physics on a Small Budget . . . . 117 7.4 Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118 8 Das Wuppertaler Curriculum der Elementarteilchenphysik. . . . . . . . 121 Thomas Zügge und Oliver Passon 8.1 Grundlagen des Wuppertaler Curriculums. . . . . . . . . . . . . . . . . . . . . 122 8.2 Die vier Bausteine. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 8.3 Zusammenfassung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

Inhaltsverzeichnis

XI

9 Diskussion der didaktischen Impulse und Abschlussdiskussion . . . . . 143 Oliver Passon und Thomas Zügge 9.1 Diskussion zu den didaktischen Impulsen. . . . . . . . . . . . . . . . . . . . . 143 9.2 Abschlussdiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Herausgeber- und Autorenverzeichnis

Herausgeber Oliver Passon  Bergische Universität Wuppertal, Wuppertal, Deutschland Thomas Zügge  Bergische Universität Wuppertal, Wuppertal, Deutschland Johannes Grebe-Ellis  Bergische Universität Wuppertal, Wuppertal, Deutschland

Autorenverzeichnis Brigitte Falkenburg  Technische Universität Dortmund, Dortmund, Deutschland Robert Harlander  RWTH Aachen University, Aachen, Deutschland Michael Kobel  Technische Universität Dresden, Dresden, Deutschland Jochen Kuhn  TU Kaiserlautern, Kaiserlautern, Deutschland Philipp Lindenau  Technische Universität Dresden, Dresden, Deutschland Andreas Müller  Université de Genève, Geneva, Schweiz Oliver Passon  Bergische Universität Wuppertal, Wuppertal, Deutschland Sascha Schmeling CERN, Education, Communication, and Outreach Group, Geneva, Schweiz Wolfgang Wagner  Bergische Universität Wuppertal, Wuppertal, Deutschland Julia Woithe  CERN, Education, Communication, and Outreach Group, Geneva, Schweiz; TU Kaiserlautern, Kaiserlautern, Deutschland Thomas Zügge  Bergische Universität Wuppertal, Wuppertal, Deutschland

XIII

Teil I

Fachliche Perspektiven

1

Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht? Wolfgang Wagner

Inhaltsverzeichnis 1.1 1.2 1.3 1.4 1.5

Vor- und Nachteile der Elementarteilchenphysik im Schulunterricht . . . . . . . . . . . . . . . . . . Quarks im Physikunterricht. Aber wie? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Feynman-Diagramme im Schulunterricht? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskussion zum Vortrag von Wolfgang Wagner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 5 7 9 10

Im Rahmen der Erarbeitung eines Wuppertaler Vorschlags für ein Curriculum der Elementarteilchenphysik in der gymnasialen Oberstufe wurde intensiv darüber diskutiert, anhand welcher Inhalte sich das Gebiet der Elementarteilchenphysik am besten erschließen lässt. Zwei Fragen standen in diesem Prozess besonders im Fokus der Diskussion: 1. In welcher Weise sollen die Quarks im Unterricht eingeführt werden? 2. Sollen Feynman-Diagramme im Unterricht behandelt werden oder nicht? Diese beiden konkreten curricularen Fragen werden im vorliegenden Beitrag eingehend erörtert. Es ist jedoch lohnenswert, zuvor einen breiteren Kontext für die Diskussion herzustellen, indem das Für und Wider der Behandlung der Elementarteilchenphysik im Schulunterricht im Allgemeinen betrachtet wird.

W. Wagner (B) Fakulät für Mathematik und Naturwisschenaften, Experimentelle Teilchenphysik, Bergische Universität Wuppertal,Wuppertal, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_1

3

4

1.1

W. Wagner

Vor- und Nachteile der Elementarteilchenphysik im Schulunterricht

Die Beschränkung auf einige wenige Unterrichtsstunden – im Wuppertaler Curriculum werden vier Doppelstunden zugrunde gelegt – stellt eine prägende Rahmenbedingung für die Behandlung der Elementarteilchenphysik im Schulunterricht dar. Es muss folglich in der beschränkten Zeit um die Vermittlung fundamentaler Konzepte der Elementarteilchenphysik gehen. Womit sich die Frage stellt, welche Inhalte diesen fundamentalen Charakter aufweisen und somit als Basiswissen Teil eines schulischen Curriculums sein sollten. Eine weitere wichtige Randbedingung im Schulunterricht sind die begrenzten mathematischen Kenntnisse der Schülerinnen und Schüler. Der mögliche Kompetenzerwerb ist auch von dieser Seite her eingeschränkt. Aus den beiden angesprochenen Einschränkungen lassen sich Argumente gegen die Behandlung der Elementarteilchenphysik im Unterricht ableiten. Durch die Hinzunahme eines weiteren Themenfeldes wird Unterrichtszeit gebunden, die ansonsten für andere wichtige Themen der modernen Physik genutzt werden kann. Dazu gehören vor allem die Quantenmechanik und die Kernphysik. Es erscheint auf den ersten Blick sinnvoller, diese Themen ausführlicher und intensiver zu behandeln, als dies möglich ist, wenn die Elementarteilchenphysik ebenfalls abgedeckt werden muss. Die Komplexität der Elementarteilchenphysik kann zudem in der kurzen zur Verfügung stehenden Unterrichtszeit nicht abgebildet werden, vor allem, weil den Schülerinnen und Schülern die dafür notwendigen mathematischen Kenntnisse fehlen. Insofern besteht die Gefahr, dass nur Halbwissen verbreitet wird und Missverständnisse entstehen, die im schlimmsten Fall sogar bereits richtig Gerlerntes gefährden. Dies kann z. B. den Dualismus von Teilchen- und Wellenbild betreffen, der im Unterricht der Quantenmechanik etabliert wird und der durch die in vielen Unterrichtsmaterialien anzutreffende Darstellung von Elementarteilchen als bunte Kugeln wieder in Frage gestellt wird. Auf der anderen Seite spricht eine Vielzahl von Argumenten für die Behandlung der Elementarteilchenphysik im Schulunterricht. Die Struktur der Materie sollte in Grundzügen auf dem aktuellen Stand des Wissens behandelt werden. Die Struktur des Atomkerns als ein Objekt, das aus Protonen und Neutronen besteht, wird im Physik- und im Chemieunterricht angesprochen. Es wäre falsch, wenn die Schülerinnen und Schüler die Schule in der Annahme verlassen, dass Protonen und Neutronen Elementarteilchen, d. h. strukturlose Objekte, sind. Ein weiteres Argument für die Aufnahme der Elementarteilchenphysik in den Schulunterricht ergibt sich daraus, dass Begriffe und Phänomene aus der Elementarteilchenphysik häufig in gesellschaftlichen Kontexten, in der Literatur, der Publizistik oder in Kinofilmen aufgegriffen und umgedeutet werden. Ein Beispiel dafür ist der Begriff „Antimaterie“. In dem Buch Angels & Demons (deutscher Titel: Illuminati) des amerikanischen Autors Dan Brown (2000) und dem nach dem Buch gedrehten Kinofilm (Sony Pictures 2009), geht es darum, dass der Vatikan durch einen Geheimbund mit einer Antimateriebombe bedroht wird. Schülerinnen und Schüler sollten in der Lage sein, derartige Adaptionen dem relevanten wissenschaftlichen

1

Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht?

5

Kontext zuzuordnen und gegebenenfalls durch weitere Recherche richtig einzuordnen. In diesem Sinne gehört ein Basiswissen über Elementarteilchen zur heutigen Allgemeinbildung. Das Argument, dass die Behandlung der Kernphysik in der Oberstufe durch die Hinzunahme der Elementarteilchenphysik ins Curriculum des Unterrichts geschwächt wird, greift zu kurz. Dem Autor erscheint es vielmehr wichtiger, Elementarteilchenphysik zu unterrichten als Kernphysik, denn die Phänomene der Kernphysik ergeben sich aus der Elementarteilchenphysik und nicht umgekehrt. Die starke Kernkraft, die Protonen und Neutronen im Kern zusammenbin det, ist nur eine Restwechselwirkung der fundamentalen starken Wechselwirkung zwischen den Quarks. Die phänomenologisch motivierten Modelle der Kernphysik lassen sich von der Elementarteilchenphysik ausgehend besser motivieren und qualitativ verstehen. Ein solches Beispiel ist das Tröpfchenmodell zur Beschreibung der Bindungsenergie von Atomkernen und die ihm zugrunde liegende Nächste-Nachbar-Wechselwirkung zwischen Nukleonen. Ein Lehrbuch für die Hochschule, das weitgehend dieser Logik folgt und die Teilchenphysik vor der Kernphysik behandelt, ist z. B. das von (Povh et al. 2006). Auch im Hinblick auf die Quantenmechanik sollte die Bedeutung der Elementarteilchenphysik nicht unterschätzt werden. In der (nicht-relativistischen) Quantenmechanik werden Kraftfelder und Potenziale klassisch als Kontinuum behandelt. Die Elementarteilchenphysik zeichnet jedoch eine einheitliche Behandlung von Teilchen und Feldern aus. Teilchen werden als quantisierte Anregungszustände der Materieund Kraftfelder mit definiertem Impuls beschrieben. Dementsprechend spricht man nicht mehr von Kräften, sondern von Wechselwirkungen, die durch den Austausch von Teilchen vermittelt werden. Die quantisierten Zustände der Kraftfelder werden als Wechselwirkungsteilchen bezeichnet. In diesem Sinne stellt die Elementarteilchenphysik eine Erweiterung der Quantenmechanik dar und führt neue, allgemeinere Konzepte und Fachbegriffe ein. Diesen Punkt den Schülerinnen und Schülern näherzubringen, sollte ein Grundanliegen des Unterrichts der Elementarteilchenphysik sein. Ein weiterer Pluspunkt der Behandlung der Elementarteilchenphysik im Unterricht liegt in der Möglichkeit, Bezüge zur aktuellen Forschung herzustellen, z. B. durch Verweis auf die Forschung am Large Hadron Collider des CERN. In diesem Zusammenhang kann deutlich gemacht werden, dass Forschung ein nie abgeschlossener Prozess ist. Insgesamt betrachtet überwiegen aus Sicht des Autors die Argumente für eine Aufnahme der Elementarteilchenphysik in das Curriculum des Physikunterrichts in der Schule.

1.2

Quarks im Physikunterricht. Aber wie?

Grundsätzlich sind zwei verschiedene Zugänge zur Einführung von Quarks im Unterricht möglich. Ein Zugang nutzt das statische Quarkmodell und knüpft historisch an die Überlegungen Murray Gell-Manns an (Gell-Mann 1964). Quarks werden

6

W. Wagner

Abb. 1.1 Problematische Darstellung eines Protons. Die Quarks im Proton sind als ausgedehnte Kreise mit schwarzem Rand dargestellt. Sie nehmen einen substanziellen Teil des Volumens des Protons ein und sind mit Federn verbunden. Die Federn repräsentieren Gluonen, die die Quarks aneinanderbinden. Die Quarks sind von einem grauen Kreis umgeben („Quarks in einem Sack“). Bildquelle: (BBC 2018)

als Konstituenten der Hadronen eingeführt. Sie bringen Ordnung in den Teilchenzoo. Ein zweiter Zugang baut auf die tief-inelastische Elektron-Nukleon-Streuung auf. Diese Experimente wurden erstmals am Stanford Linear Accelerator Center (SLAC) Ende der 1960er Jahre durchgeführt und motivierten das Partonmodell der Hadronen (Bjorken und Paschos 1969). Diesen Zugang kann man als den „dynamischen Zugang“ bezeichnen. Die Vor- und Nachteile beider Zugangsmöglichkeiten werden hier im Folgenden diskutiert. Ein großer Vorteil der Nutzung des statischen Quarkmodells ist die Möglichkeit, an ein bekanntes Konzept anzuknüpfen: das Periodensystem der Elemente. So wie die Atome des Periodensystems Ordnung in Millionen von chemischen Verbindungen bringen, so bringen einige wenige Quarks Ordnung in den Zoo von Hadronen. Ein Nachteil des statischen Quarkmodells wird jedoch bereits in dessen Namen angedeutet. Hadronen werden als starre Objekte wahrgenommen. Immer wieder finden sich in Lehrbüchern oder sonstigen Materialien zur Elementarteilchenphysik Darstellungen, in denen die Quarks im Proton als durch Stangen verbunden gezeigt werden, ähnlich wie beim Atomium in Brüssel. Andere Darstellungen zeigen „Quarks in einem Sack“, die durch Federn verbunden sind, wobei die Federn Gluonen repräsentieren. Abb. 1.1 zeigt ein Beispiel für eine solche Darstellung (BBC 2018). Bildliche Darstellungen dieser Art sind dazu geeignet, Fehlvorstellungen bei den Schülerinnen und Schülern auszulösen oder zu fördern. Eine tiefer gehende Diskussion und Vorschläge für verbesserte Darstellungen finden sich bei Hossenfelder (2017). Ein weiterer Nachteil des statischen Zugangs besteht darin, dass Quarks lediglich als abstraktes Ordnungsprinzip eingeführt werden, die Schülerinnen und Schüler aber keinen experimentellen Zugang kennenlernen, mit dem die Quarks im übertragenden Sinne „sichtbar“ gemacht werden. Diesen Aspekt adressiert der dynamische Zugang. Die tief-inelastische Streuung von Elektronen and Protonen (oder allgemein Nukleonen) thematisiert die experimentelle Zugänglichkeit der Mikrowelt auf subnuklearer Skala. Streuexperimente werden als zentrale Methode zur Sichtbarma-

1

Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht?

7

chung von Quarks vorgestellt. In diesem Kontext kann auch über den experimentellen Nachweis von Quarks gesprochen werden, im Gegensatz zum statischen Quarkmodell, in dem von der Quark-Hypothese die Rede ist. Einen curricularen Anknüpfungspunkt bildet das Rutherfordsche Streuexperiment, das als Prototyp von Streuexperimenten im Allgemeinen verstanden werden kann. So wie der beim Rutherford-Experiment (Rutherford 1911) beobachtete differenzielle Wirkungsquerschnitt dazu dient, das Thomsonsche Atommodell zu widerlegen, so zeigt das in der tief-inelastischen Streuung beobachtete Skalenverhalten (Bjorken 1969) und die damit verbundene Abweichung von der elastischen Streuung am Proton, dass in diesem Experiment fundamental Neues passiert. Man beobachtet keine Streuung am Proton als Ganzes, sondern Streuung an dessen punktförmigen Konstituenten. Einen weiteren curricularen Anknüpfungspunkt zur tief-inelastischen Streuung bilden klassische Streuexperimente. Auch hier haben die Schülerinnen und Schüler bereits gelernt, dass in Streuexperimenten lediglich die Energie-Impulserhaltung zur Beschreibung herangezogen wird und die konkrete Teilchenbahn keine Rolle spielt. Ein solcher Zugang wird in bestimmten Fällen auch in der Quantenmechanik gewählt, z. B. bei der Beschreibung der Compton-Streuung. Lediglich Energie- und Impulserhaltung werden in diesem Fall benötigt, um den Ausdruck für die Wellenlänge der gestreuten Röntgenstrahlung herzuleiten (Demtröder 2015, Abschn. 3.1.6). Mit Verweis auf die Ergebnisse moderner Experimente am HERA-Speicherring am DESY in Hamburg erlaubt die Behandlung der tief-inelastischen Streuung das Proton als hoch-dynamisches Objekt zu erkennen (Blümlein 2013). In diesem Zusammenhang kann auch auf die bereits in der Quantenmechanik gewonnene Erkenntnis verwiesen werden, dass der Messvorgang selber Teil der Beschreibung eines Objekts ist. Die Vorstellung eines Quantenobjekts „an sich“ ist sinnlos, es muss vielmehr in einen funktionalen Kontext gestellt werden. Vor dem Hintergrund der hier angeführten Vorteile erscheint der dynamische Zugang zu Quarks über die tief-inelastische Streuung der besserer Weg zu sein, um Schülerinnen und Schülern eine angemessene Vorstellung von diesen Quantenobjekten zu vermitteln.

1.3

Feynman-Diagramme im Schulunterricht?

Über die Frage, ob Feynman-Diagramme im Schulunterricht behandelt werden sollten, ist bereits manche Kontroverse ausgefochten worden. Sind die Diagramme für Schüler schädlich, gar Teufelszeug oder bieten sie den Schülerinnen und Schülern die Möglichkeit, Schlüsselkompetenzen in Bezug auf die Elementarteilchenphysik zu erwerben? Im Folgenden wird die zweite Sichtweise vertreten und dargelegt, inwiefern Feynman-Diagramme als Ermöglicher angesehen werden können. Feynman-Diagramme geben Schülerinnen und Schülern eine Bildsprache an die Hand, mit der sie die Wechselwirkungen der Elementarteilchen untereinander beschreiben können. Die in den Diagrammen auftretenden Vertices kodieren die für die Wechselwirkungen jeweils gültigen Erhaltungssätze. Auf diese Weise erlaubt die Kombination von Vertices den Nutzern mit relativ einfachen Mitteln herzu-

8

W. Wagner

Abb. 1.2 Kombination zweier Vertices der Quantenelektrodynamik zu einem FeynmanDiagramm, das den Prozess der Bottom-Quark-Antiquark-Paarerzeugung durch Elektron-PositronAnnihilation in führender Ordnung der Störungstheorie repräsentiert

Abb. 1.3 Interferenz zweier Amplituden im Prozess der Myon-Antimyon-Paarproduktion in der Elektron-Positron-Annihilation. Im linken Diagramm wird ein Photon ausgetauscht, im rechten Diagramm ein Z 0 -Boson

leiten, welche Prozesse möglich sind und wie man bestimmte Teilchen erzeugen (und beobachten) kann. Abb. 1.2 zeigt die Kombination zweier Vertices der Quantenelektrodynamik zum Prozess der Bottom-Quark-Antiquark-Paarerzeugung durch Elektron-Positron-Annihilation. Die Schülerinnen und Schüler können auf diese Weise mit den Diagrammen arbeiten und aktiv werden. Sie können sich verschiedene Streuprozesse überlegen und recherchieren, ob bereits Experimente in diese Richtung durchgeführt wurden. Im obigen Beispiel kann auf die Experimente BABAR und BELLE an den B-Fabriken verwiesen werden. Mit Hilfe der Feynman-Diagramme kann auch das Thema Interferenz von Amplituden, das aus der Quantenmechanik bekannt ist, wieder aufgegriffen und im Kontext der Elementarteilchenphysik vertieft werden. Ein Beispiel ist in Abb. 1.3 zu sehen. Hier interferieren zwei Amplituden. In einem Fall wird ein Photon, im anderen Fall ein Z -Boson zwischen Anfangs- und Endzustand ausgetauscht. Als curricularer Anknüpfungspunkt zum Thema Interferenz kann auch das in der Optik behandelte Youngsche Doppelspalt-Experiment herangezogen werden. Die Bedeutung der Feynman-Diagramme als grafische Darstellung von Übergangsamplituden und die damit verbundene statistische Interpretation stellt einen weiteren Bezug zur Quantenmechanik dar, der im Unterricht aufgegriffen werden kann. Als Beispiel können die Feynman-Diagramme für verschiedene Zerfälle des Z -Bosons dienen. Für einen bestimmten Zerfallsmodus kann nur eine Wahr-

1

Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht?

9

scheinlichkeit angegeben werden, die wiederum proportional zum Betragsquadrat der Übergangsamplitude ist. Im Fall der schwachen Wechselwirkung ermöglichen Feynman-Diagramme ein besseres Verständnis von Hadronzerfällen. So ist es möglich, den radioaktiven β-Zerfall in einen größeren Zusammenhang einzuordnen und zu einem tieferen Verständnis zu kommen. Statt der Reaktion n → p + e− + ν¯ wird die Reaktion d → u + e− + ν¯ diskutiert. Dieser Aspekt wird im Wuppertaler Curriculum der Elementarteilchenphysik aufgegriffen, siehe Kap. 8 (hier vor allem Baustein 4). Mit Hilfe der Feynman-Diagramme kann der Neutronenzerfall als ein Spezialfall der allgemeinen schwachen geladenen Stromwechselwirkung verstanden werden. Durch das Ersetzen der Vertices können sich die Schülerinnen und Schüler andere, verwandte Reaktionen überlegen. Trotz all der genannten Vorteile und Möglichkeiten des Einsatzes von FeynmanDiagrammen im Unterricht ist es erforderlich, sich auch möglicher „Gefahren“ gewahr zu sein. Die Linien in den Diagrammen werden allzu leicht als Orts-ZeitKurven oder Teilchen-Trajektorien interpretiert. Selbst wenn explizit darauf hingewiesen wird, dass dies nicht der Fall ist, lässt sich der unterbewusste Eindruck durch die Anschaulichkeit der Diagramme nicht ganz vermeiden. Fast unweigerlich werden Feynman-Diagramme außerdem mit einem zeitlichen Ablauf in Verbindung gebracht. Sie suggerieren eine „Geschichte“, obwohl im Allgemeinen keine Zeitordnung besteht und topologisch äquivalente Diagramme nicht mehrfach berücksichtigt werden dürfen, denn sie entsprechen derselben Amplitude. Die tatsächliche Relevanz der Diagramme, nämlich die Übersetzung in eine Formel für die Übergangsamplituden eines Streuprozesses, kann in der Schule nicht näher thematisiert werden, da den Schülerinnen und Schülern die mathematischen Grundlagen dafür fehlen. Außerdem sind die Diagramme Teil eines störungstheoretischen Ansatzes und verbauen damit den Blick darauf, dass viele Systeme oder Fragestellungen der Elementarteilchenphysik nicht störungstheoretisch behandelt werden können. Wie bei allen didaktischen Konzepten verbleibt letztlich die Entscheidung über die Nutzung von Feynman-Diagrammen im Unterricht unter Abwägung der Vor- und Nachteile in der Verantwortung der einzelnen Pädagogin (bzw. des Pädagogen) vor Ort. Aus Sicht des Autors überwiegen die Vorteile und Möglichkeiten der FeynmanDiagramme jedoch deren „Gefahren“.

1.4

Zusammenfassung

Es gibt gute Gründe für die Einbindung der Elementarteilchenphysik in das PhysikCurriculum der gymnasialen Oberstufe. Ein Basiswissen über Elementarteilchen sollte in der heutigen Zeit als Teil der Allgemeinbildung verstanden werden. Grundkenntnisse im Bereich der Elementarteilchenphysik sind wichtiger als Kenntnisse im Bereich der Kernphysik, denn die Phänomene der Kernphysik lassen sich mit Hilfe der Elementarteilchenphysik besser verstehen. Auch zur Quantenmechanik steht die Elementarteilchenphysik nicht in Konkurrenz, sondern stellt eine Erweiterung derselben dar.

10

W. Wagner

Die Einführung von Quarks mit Hilfe eines dynamischen Zugangs über die tief-inelastische Streuung bietet Vorteile gegenüber der Behandlung des statischen Quarkmodells. Durch die Messung der kinematischen Eigenschaften der Teilchen im Endzustand des Streuprozesses werden die Quarks gewissermaßen „sichtbar“ gemacht. Es kann vom experimentellen Nachweis der Quarks gesprochen werden, während das statische Modell die Quarks lediglich als Hypothese zur Erklärung der Vielzahl an hadronischen Zuständen einführt. Wenn es die zur Verfügung stehende Unterrichtszeit erlaubt, ist selbstverständlich die Behandlung beider Zugänge ideal. Der Einsatz von Feynman-Diagrammen erscheint sinnvoll. Sie sollten als Ermöglicher verstanden werden, die es den Schülerinnen und Schülern erlauben, den Stoff aktiv zu verarbeiten, indem sie aus den Vertices der Diagramme mögliche Streuprozesse zusammensetzen und deren realen Hintergrund recherchieren. Mit dem vorliegenden Beitrag zum Symposion Kohärenz im Unterricht der Elementarteilchenphysik hofft der Autor, Lehrkräften im Fach Physik an Gymnasien sinnvolle Denkanstöße zur Umsetzung des Unterrichts im Bereich der Elementarteilchenphysik zu geben.

1.5

Diskussion zum Vortrag von Wolfgang Wagner zusammengefasst von O. Passon

Oliver Passon bemerkt zunächst, dass ein zusätzlicher Grund für die Behandlung der Elementarteilchenphysik in der Schule darin liege, im Unterricht einen Eindruck von der Offenheit und Unabgeschlossenheit der Physik zu vermitteln. Andreas Schulz bemerkt, dass ohne eine Behandlung der Teilchenphysik die Kernphysik auf ungute Weise „in der Luft hängt“. Zudem könne die Diskussion der FeynmanDiagramme dazu beitragen, den in allen Gebieten wichtigen Aspekt der Modellbildung zu vertiefen. Robert Harlander widerspricht diesem letzten Hinweis. Die Feynman-Diagramme sollten nicht als Modell aufgefasst werden, sondern seien lediglich die grafische Repräsentation von Rechentermen innerhalb einer Theorie (vgl. hierzu auch Kap. 2). Den zuvor gemachten Hinweis, zwischen verschiedenen Teilchenarten zu unterscheiden, lehnt er ebenfalls ab. Schließlich sei es ein zentrales Resultat der QFT, dass kein fundamentaler Unterschied zwischen Materie- und Kraftteilchen begründet werden könne. Diese Sichtweise teilen die Anwesenden mit großer Mehrheit. Michael Kobel hebt hervor, dass mit dem sog. Standardmodell ja tatsächlich die erfolgreichste Theorie in der Geschichte der Physik vorläge. Ihre Nichtbeachtung in der Schule wäre deshalb geradezu absurd. Es wäre jedoch von großem Nutzen, wenn die Autoren der entsprechenden Materialien sich auf die Verwendung einheitlicher Bezeichnungsweisen einigen könnten (etwa: „Elementarteilchen“ als Objekt ohne Substruktur). Stefan Brackertz bemerkt, dass die große wissenschaftliche Bedeutung des Standardmodells sicherlich von niemandem bestritten würde, die didaktische Herausforderung ihrer Vermittlung davon aber unberührt sei. Der Vortrag enthielt etwa Hinweise auf irrtümliche Darstellungen (etwa: Feynman-Diagramme sollten nicht

1

Quarks und Feynman-Diagramme: Basiswissen im Schulunterricht?

11

als Raum-Zeit-Diagramme aufgefasst werden). Es gelte aber auch die schwierige Frage zu beantworten, welche anderen Darstellungen angemessen seien. Er plädiert dafür, dem Wahrscheinlichkeitsbegriff eine zentrale Rolle zuzuweisen. Hilfreich an dieser Stelle sei zudem, dass der Mathematikunterricht hier viele Begriffe bereits eingeführt habe. Philipp Lindenau unterstützt diesen Hinweis ausdrücklich. Der stochastische Charakter der Vorhersagen berühre ja z. B. die ganz praktische Frage, warum in der experimentellen Teilchenphysik so große Datenmengen aufgezeichnet würden. Ulrich Heinen bemerkt, dass im Chemieunterricht die Frage des Aufbaus der Materie bereits am Ende der Mittelstufe behandelt werde. Sinnvoll wäre es, eine Verbindung zwischen den Naturwissenschaften herzustellen. Eine weitere „Verbrückungsmöglichkeit“ bestehe mit dem Kunstunterricht, wenn beim Zeichnen die Frage nach dem „Punkt und dem Nichts“ angesprochen werde. Gemeint ist damit das Folgende: Betrachtet man den (mathematischen) Punkt als „Nichts“, so wird die Linie – als Punktsumme aufgefasst – ebenfalls zum Nichts, und dasselbe gelte für die Fläche als Liniensumme. Bei Leonardo da Vinci findet sich nun die Idee, dass der Punkt (auch hier: „Nichts“) aus sich heraus in Bewegung geraten die Linie ergibt. Herr Heinen sieht hier eine Verbindung zur physikalischen Geste, aus punktförmigen Teilchen Materie zu konstituieren.

Literatur BBC, Bitesize (2018) Seite mit dem Bild. https://www.bbc.co.uk/bitesize. Zugegriffen: 14. Okt. 2018 Blümlein J (2013) The theory of deeply inelastic scattering. Prog Part Nucl Phys 69:28 Bjorken JD (1969) Asymptotic sum rules at infinite momentum. Phys Rev 179:1547 Bjorken JD, Paschos EA (1969) Inelastic electron proton and gamma proton scattering, and the structure of the nucleon. Phys Rev 185:1975 Brown D (2001) Angels & demons. Pocket Books, New York Demtröder W (2015) Experimentalphysik 3 – Atome, Moleküle und Festkörper, 5. Aufl. Springer Spektrum, Heidelberg Gell-Mann M (1964) A schematic model of baryons and mesons. Phys Lett 8:214 Hossenfelder S (2017) Get your protons right! http://backreaction.blogspot.com/2017/12/get-yourprotons-right.html. Zugegriffen: 14. Okt. 2018 Povh BK, Rith C, Zetsche Scholz F, Rodejohann W (2006) Teilchen und Kerne, 7. Aufl. Springer Spektrum, Heidelberg Rutherford E (1911) The scattering of alpha and beta particles by matter and the structure of the atom. Phil Mag Ser 6(21):669 Sony Pictures (2009) Angels & demons. https://www.sonypictures.com/movies/angelsdemons. Zugegriffen: 14. Okt. 2018

2

Erzeugung und Vernichtung von Teilchen Robert Harlander

Inhaltsverzeichnis 2.1 2.2 2.3 2.4 2.5

Einführung und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantenmechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Quantenfeldtheorie und Feynman-Diagramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

2.1

Einführung und Motivation

2.1.1

Vorbemerkungen

13 16 20 30 31

Hauptthema dieses Aufsatzes sind Feynman-Diagramme. Dabei soll es allerdings schwerpunktmäßig nicht um deren Anwendung gehen, auch wenn dies vermutlich der für den Schulunterricht attraktivere Aspekt ist. Schließlich lassen sich mit Hilfe der Feynman-Diagramme auf sehr einfache und anschauliche Weise Prozesse in der Elementarteilchenphysik im weitesten Sinn „verstehen“. Hier soll stattdessen ein Blick auf den theoretischen Hintergrund der Feynman-Diagramme geworfen werden. Wo kommen sie her? Inwieweit erlauben sie eine Interpretation? Zuallererst sind Feynman-Diagramme die grafische Darstellung von mathematischen Termen, deren Herleitung tiefgreifende quantenfeldtheoretische Elemente erfordert. Umso erstaunlicher ist es, dass man auch ohne diese theoretischen Grundlagen sinnvolle und nichttriviale Aussagen allein mit Hilfe der Feynman-Diagramme (und der zugehörigen Feynman-Regeln) machen kann. Dennoch ist es gerade für Lehrkräfte an Schulen

R. Harlander (B) Fakultät für Mathematik, Informatik, Naturwissenschaften, Institut für Theoretische Teilchenphysik und Kosmologie, RWTH Aachen, Aachen, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_2

13

14

R. Harlander

wichtig, mehr als den anwendungsbezogenen Umgang mit Feynman-Diagrammen zu kennen. Dies bringt mich zu den Nebenthemen dieses Aufsatzes. Sie sind allesamt in Abschn. 2.5 diskutiert und behandeln meine persönliche Sicht auf einige eher philosophische, aber auch didaktische Themen, auf die man bei der Beschäftigung mit der Quantenfeldtheorie und deren Vermittlung stößt. Im Haupttext wird an den entsprechenden Stellen auf diese Abschnitte verwiesen. Viele dieser Gedanken mögen nicht besonders originell sein, und die Themen wurden vermutlich schon oft diskutiert. Als philosophischem und didaktischem Laien möge man mir dies nachsehen, ebenso wie die wenig rigorose Darstellung und das Fehlen jeglicher Referenzen auf entsprechende Literatur.

2.1.2

Zentrale Elemente der Teilchenphysik

Meiner Meinung nach gibt es drei Themenfelder, die bei der Vermittlung der Teilchenphysik relevant sind. Das erste betrifft die Teilchen und ihre Wechselwirkungen: Welche Teilchen gibt es? Welche Eigenschaften haben sie? Das bedeutet zum einen eine Einführung in das Standardmodell, zum anderen gehört in diesen Bereich aber z. B. auch das statische Quarkmodell. Aus Gründen der Fokussierung möchte ich auf diesen Bereich im Folgenden aber nicht weiter eingehen. Der zweite Themenbereich betrifft die Methodik, mit der Elementarteilchen erforscht werden, allem voran die Streuexperimente. Oft werden diese als etwas sehr Abstraktes wahrgenommen, ohne zu realisieren, dass beispielsweise der Prozess des Sehens nichts anderes als ein Streuexperiment ist, an dessen Beispiel sich die einzelnen Komponenten eines solchen Experiments sehr klar verdeutlichen lassen. Ich möchte den Aufsatz dementsprechend mit einer kurzen Ausführung zu dieser Analogie beginnen. Streuexperimente bieten zudem einen exzellenten Zugang zu den Konzepten der Quantenmechanik bzw. der Quantenfeldtheorie, dem dritten Themenbereich, der mir für einen ersten Einblick in die Teilchenphysik wichtig erscheint. Natürlich kann man im Schulunterricht nicht Quantenfeldtheorie in aller Tiefe behandeln. Allerdings bieten Feynman-Diagramme einen hervorragenden Kompromiss zwischen Rigorosität und Anschaulichkeit. Noch dazu kann man deren theoretischen Ursprung mit Hilfe von Elementen aus der Quantenmechanik illustrieren, die ja bereits Teil des Schulunterrichtes sind. Dieser Themenbereich wird den Hauptteil dieses Aufsatzes bilden. Die Darstellung geht dabei deutlich über das Schulniveau hinaus, um eine Brücke zwischen rigoroser Herleitung und naiver Anschaulichkeit zu schlagen.

2.1.3

Streuexperimente

Fragt man in einer Physikvorlesung danach, was den Studierenden als Erstes zum Thema „Streuexperiment“ einfällt, dann ist die Antwort in den allermeisten Fällen Rutherfords Streuung von α-Teilchen an einer Goldfolie und die daraus gefolgerte

2

Erzeugung und Vernichtung von Teilchen

15

Konzentration fast der gesamten Masse des Atoms im positiv geladenen Kern, dessen Radius nur 0,001 % des Atomradius beträgt. Dass eine Streureaktion ein völlig alltäglicher Vorgang ist, ist den meisten dagegen nicht bewusst. So lässt sich das Konzept auf sehr anschauliche Weise am Vorgang des Betrachtens etwa einer Kaffeetasse erläutern. Genauso wie beim Rutherford-Experiment wird dabei ein Objekt (Kaffeetasse/Goldfolie) mit Projektilen (Photonen aus einer Deckenlampe/αTeilchen aus radioaktivem Präparat) beschossen. Die gestreuten Projektile werden in einem Detektor (Auge/fluoreszierender Schirm) registriert, deren (Energie-, Winkel-, …)Verteilung analysiert, und daraus Schlussfolgerungen über das Objekt gezogen. Die Analyse erfolgt in beiden Fällen in einem menschlichen Gehirn. Im Unterschied zur Beobachtung der Kaffeetasse lagen allerdings bei der Interpretation des Rutherford-Experiments keine Erfahrungswerte vor, die eine direkte Schlussfolgerung („dies ist eine Kaffeetasse“/„der Atomkern ist 10.000 mal kleiner als das Atom“) erlaubt hätten. Stattdessen musste Rutherford eine Theorie aufstellen, mit der sich die Verteilung der gestreuten α-Teilchen reproduzieren ließ. Bei heutigen Streuexperimenten wird die Analyse meist stark von Computern unterstützt, die den Vergleich entweder mit Bekanntem („Background“) oder Modellvorhersagen erleichtern. Man beachte, dass in beiden Fällen die Anzahl der Projektile die Zuverlässigkeit erhöht, mit der sich die Schlussfolgerung ziehen lässt: Je „heller“ die Deckenlampe, desto besser ist das Objekt erkennbar; bzw. lässt sich durch einen „schnellen Blick“ (d. h. nur wenige Photonen) das Objekt oft nicht eindeutig identifizieren („im ersten Moment dachte ich, das wäre ein Wolf, aber bei näherem Hinsehen hat es sich als Hund herausgestellt“). So lässt sich leicht vermitteln, wie Nachrichten in der Tagespresse zu verstehen sind, in denen steht, dass man sich in der Physik so gut wie sicher ist, diesen oder jenen Effekt beobachtet zu haben, für ein endgültiges Statement allerdings noch weitere Daten abgewartet werden müssen. In der modernen Teilchenphysik spielen Streuexperimente eine zentrale Rolle, um Theorien wie das Standardmodell zu überprüfen und nach Hinweisen auf Physik jenseits des Standardmodells zu suchen. Insbesondere werden dafür sog. Wirkungsquerschnitte für bestimmte Streureaktionen einerseits auf Grundlage der Theorie berechnet, und andererseits am Teilchenbeschleuniger gemessen. Der Vergleich der beiden Ergebnisse liefert dann eine Überprüfung der Theorie. Der Wirkungsquerschnitt ist dabei grob gesprochen die Wahrscheinlichkeit, dass in der Kollision zweier gegebener Teilchen (Anfangszustand) ein bestimmter Endzustand entsteht. Die Wahrscheinlichkeitskomponente kommt hier ins Spiel, weil es sich um quantenmechanische Prozesse handelt. Allerdings reicht die nicht-relativistische Quantenmechanik für die Physik an Teilchenbeschleunigern nicht aus: Zum einen werden die Teilchen in der Regel auf ultra-relativistische Geschwindigkeiten beschleunigt.1 Was uns in diesem Artikel besonders interessieren soll, ist aber das Phänomen der Teilchenerzeugung und -vernichtung, die an Hochenergie-Teilchenbeschleunigern

1 Die

Lichtgeschwindigkeit beträgt exakt c ≡ 299.792.458 m/s = 1.079.252.848,8 km/h. Ein Proton am LHC hat eine Geschwindigkeit von etwa c−3,2 km/h = 1.079.252.845,6 km/h.

16

R. Harlander

stattfindet. Letzteres ist im Formalismus der Quantenmechanik nicht enthalten. Es ergibt sich aber zwangsläufig in der relativistischen Quantenfeldtheorie. Im Physikstudium wird Letztere in der Regel erst auf dem Niveau des Masterstudiengangs behandelt, oft über mehrere Semester. Es versteht sich daher von selbst, dass wir hier keine rigorose, in sich geschlossene Erläuterung des Konzepts der Erzeugung und Vernichtung von Teilchen darstellen können. Ich denke aber, dass es mit Hilfe von Schulwissen der Oberstufe (Quantenmechanik) zumindest plausibel vermittelt werden kann, was dann auch einen vertieften Blick auf die Feynman-Diagramme erlaubt. Es mag also hilfreich sein, zunächst einige der wichtigsten Elemente der Quantenmechanik in Erinnerung zu rufen.

2.2

Quantenmechanik

Beim Studium, der Beschreibung, und dem Verständnis der Quantenwelt steht der Mensch vor einer fundamentalen Schwierigkeit: Quantenprozesse spielen in unserer makroskopischen Welt nur eine sehr indirekte Rolle. Zum Jagen und Sammeln sind sie vollkommen irrelevant, und deshalb hat die Evolution unserem Gehirn keine Intuition für Quantenphänomene eingebaut. Umso erstaunlicher ist es, dass sich der Mensch dennoch solche Intuitionen erarbeiten kann (siehe dazu auch Abschn. 2.5.1). Notwendige Voraussetzung dafür ist natürlich ein gewisses Verständnis der zugrunde liegenden Zusammenhänge. Dazu gehört auch ein gewisses Maß an Vertrautheit mit dem entsprechenden mathematischen Formalismus, insbesondere dem Konzept des quantenmechanischen Zustandes, beispielsweise repräsentiert durch die Wellenfunktion, sowie der Korrespondenz zwischen Observablen und mathematischen Operatoren. Um ein Gefühl für die Quantenphysik zu entwickeln, ist ein Blick auf die Quantennatur des Lichtes hilfreich. Monochromatisches Licht der Wellenlänge λ (Frequenz ν = c/λ) kann Energie nur in Vielfachen von E ν = hν transportieren, mit h dem Planckschen Wirkungsquantum.2 Der zugehörige Impuls ist gegeben durch3 | p| = hν/c, so dass die Ruhemasse E 2 − p 2 c2 = 0. Wir wollen im Folgenden davon ausgehen, dass dieses Konzept bekannt ist. Es lässt sich beispielsweise durch die Beobachtung des photoelektrischen Effektes motivieren, oder die beim ComptonEffekt beobachtete Frequenzänderung des gestreuten Lichtes. Etwas schwieriger, historisch aber vermutlich interessanter ist die Motivation über die Plancksche Strahlungsformel.

2 In

der Teilchenphysik wird Energie meist in Elektronvolt (eV) gemessen, wobei 1 eV ≈ 1,6 · 10−19 Joule. Das Plancksche Wirkungsquantum hat einen Zahlenwert von etwa h = 4,14 · 10−15 eV·s. Später verwenden wir auch die Einheiten MeV=106 eV und GeV=109 eV sowie das „reduzierte Wirkungsquantum“  = h/(2π ). 3 Der Einfachheit halber werden wir hier durchweg in nur einer Raumdimension arbeiten. Die Verallgemeinerung auf drei Dimensionen ist unkompliziert.

2

Erzeugung und Vernichtung von Teilchen

2.2.1

17

Wahrscheinlichkeit und Zufall

Akzeptiert man die Quantennatur des Lichtes, dann führt dies unweigerlich auf die Einschränkung theoretischer Vorhersagen auf Wahrscheinlichkeiten. Man betrachte dazu einen linear polarisierten Lichtstrahl und einen Polarisationsfilter, der um einen Winkel θ gegen die Polarisationsrichtung des Strahls verdreht ist. Nach Durchlaufen des Polarisationsfilters ist die Intensität des Lichtstrahls bekanntermaßen um einen Faktor cos2 θ reduziert. Man stelle sich nun einen monochromatischen Lichtstrahl vor, dessen Intensität so weit reduziert wird, dass nur noch ein einzelnes Photon auf den Filter trifft. Es gibt dann zwei Möglichkeiten: Entweder das Photon durchläuft den Filter oder eben nicht. Um das klassische Ergebnis, das dem Limes unendlich vieler Photonen entspricht, zu reproduzieren, muss das Photon mit einer Wahrscheinlichkeit von cos2 θ den Filter passieren, und entsprechend mit sin2 θ nicht. Da ein Photon außer seinem Impuls p und seinem Polarisationszustand keine weiteren Unterscheidungsmöglichkeiten besitzt, kann es für die Theorie nicht möglich sein, eine genauere Aussage zu machen, als dass ein einzelnes Photon den Filter mit einer Wahrscheinlichkeit von cos2 θ passiert. Damit wird der Zufall zum fundamentalen Bestandteil der Natur, allerdings in quantifizierbarer Art und Weise. Zwei identisch präparierte Systeme können sich zeitlich unterschiedlich entwickeln: Im einen Fall passiert das Photon die Blende, im anderen nicht. Die Wahrscheinlichkeiten, mit denen die unterschiedlichen Zeitentwicklungen auftreten, sind aber berechenbar und lassen sich in der statistischen Verteilung vieler Versuchswiederholungen überprüfen.

2.2.2

Interferenz

Die analoge Betrachtung der Interferenz am Doppelspalt führt uns noch einen Schritt weiter: Solange einzelne Photonen, die eine Doppelspaltblende passieren, nur mittels ihres Auftreffens auf einen dahinterstehenden Schirm beobachtet werden können, und nicht deren Passieren der Blende selbst, gibt die Quantenmechanik keine Antwort auf die Frage, welchen der beiden Spalte der Blende das Photon passiert hat. Die Wahrscheinlichkeit des Auftreffpunkts auf dem Schirm ergibt sich aus dem Betragsquadrat der komplexwertigen Wahrscheinlichkeitsamplituden für den Durchgang durch jeweils einen der beiden Spalte. Der Zustand des Teilchens vor dem Auftreffen auf dem Schirm ist die kohärente Überlagerung des Zustands eines Teilchens, das den einen Spalt passiert, mit dem Zustand eines Teilchens, das den anderen Spalt passiert. Dies wird oft so formuliert, dass das Teilchen „beide Spalte gleichzeitig“ passiert. Jedoch ist dieser Überlagerungszustand selbst nicht beobachtbar; von daher ist die Frage, was zwischen dem Loslaufen des Teilchens und seinem Auftreffen auf dem Schirm „wirklich passiert“, im Rahmen der Quantenmechanik nicht beantwortbar.

18

2.2.3

R. Harlander

Ebene Wellen

Die vermutlich bekannteste Manifestation des intrinsischen Zufalls der Quantenmechanik ist die Heisenbergsche Unschärferelation x ·  p ≥ /2, gemäß der das Produkt der Unsicherheiten, mit denen Ort und Impuls eines Teilchens gleichzeitig bestimmt sind, immer ungleich null ist. Dementsprechend ist der Aufenthaltsort eines „Teilchens“, dessen Impuls scharf definiert ist, völlig unbestimmt. Dies widerspricht offensichtlich der intuitiven Vorstellung dessen, was man im Alltagsleben unter einem Teilchen versteht, was uns aber nicht davon abhalten sollte, den Begriff entsprechend zu erweitern (siehe dazu auch Abschn. 2.5.3). In der Teilchenphysik, insbesondere im Zusammenhang mit Streuexperimenten, wie sie am Large Hadron Collider (LHC) stattfinden, ist das Konzept des Teilchens mit festem Impuls p und damit unbekanntem Ort sehr nützlich. Theoretisch wird es als sogenannte ebene Welle erfasst, i

ψ p (x, t) ∼ C p e  ( px−Et) ,

E=

p2 , 2m

(2.1)

mit einer (im Allgemeinen komplexwertigen) Normierungskonstanten C p . Der Leser überzeugt sich leicht davon, dass ψ p (x, t) eine in positive x-Richtung laufende Welle d E= mit Phasengeschwindigkeit E/ p = p/(2m) und Gruppengeschwindigkeit dp p/m darstellt. Anwendung des quantenmechanischen Energie- und Impulsoperators liefert andererseits i

d ψ p (x, t) = Eψ p (x, t), dt



i d ψ p (x, t) = pψ p (x, t),  dx

(2.2)

also ist ψ p (x, t) in der Tat mit einem festen Impuls p assoziiert, und die zugehörige Energie ist E. Lokalisierte Teilchen kann man daraus als kohärente Überlagerungen unendlich  vieler nicht-lokalisierter Teilchen darstellen, als sog. Wellenpakete, ψ(x, t) = dp f ( p) ψ p (x, t), mit einer geeigneten Funktion f ( p) (vgl. FourierTransformation). Andererseits beziehen sich die Messgrößen von Teilchenbeschleunigern ohnehin nicht auf die Streuung einzelner Teilchen, sondern vielmehr auf die Raten (Ereignisse pro Zeit) bei einem unendlich ausgedehnten Teilchenstrom. Neben der obigen Orts-Impuls-Unschärfe gibt es auch eine Unschärferelation in Energie und Zeit: E · t ≥

 . 2

(2.3)

Sie besagt beispielsweise, dass die Genauigkeit, mit der die Energie eines Systems gemessen werden kann, umgekehrt proportional zu der zur Verfügung stehenden Zeit ist. Andererseits impliziert sie, dass ein Zustand, der nur eine endliche Zeitspanne t existiert, Energieerhaltung nur innerhalb eines Intervalls E = /(2t) erfüllen muss: Schließlich kann man eine Energieverletzung innerhalb dieses Intervalls prinzipiell nicht nachweisen. Dies wird für die Formulierung der Quantenfeldtheorie, wie wir sie weiter unter diskutieren, eine essenzielle Rolle spielen.

2

Erzeugung und Vernichtung von Teilchen

2.2.4

19

Harmonischer Oszillator

Eines der wichtigsten physikalischen Systeme ist der harmonische Oszillator (HO), nicht zuletzt, weil er sich sowohl in der klassischen Physik als auch in der Quantenmechanik exakt lösen lässt. Zudem lassen sich viele Systeme näherungsweise durch einen HO beschreiben. In der klassischen Physik lässt sich der HO definieren als ein System, dessen Freiheitsgrad (Auslenkung) q(t) folgende Differentialgleichung erfüllt: q(t) ¨ + ω2 q(t) = 0,

(2.4)

wobei q¨ die zweite Ableitung von q nach der Zeit t bezeichnet (q˙ ist entsprechend die erste Zeit-Ableitung). Die Lösung dieser DGL kann bekanntermaßen geschrieben werden als q(t) = A+ eiωt + A− e−iωt ,

(2.5)

wobei die konstanten (d. h. zeitunabhängigen) komplexwertigen Koeffizienten A± sich aus den Anfangsbedingungen ergeben (z. B. aus den Werten von q(t) und q(t) ˙ bei t = 0). Beispielsweise erfüllt ein Federpendel mit Masse m und Federkonstante k diese Gleichung, wenn q die Koordinate ist, in die das Pendel schwingen kann und ω2 = k/m. Die Energie ist dann gegeben als E=

m 2 mω2 2 q˙ (t) + q (t) = 2 mω2 A+ A− . 2 2

(2.6)

Durch geeignete Wahl von A+ A− über die Anfangsbedingungen kann E jeden beliebigen Wert annehmen. Bei der quantenmechanischen Behandlung des HO ist dies nicht der Fall. Ähnlich wie beim Wasserstoffatom sind die Energieniveaus des HO gequantelt. Bei Ersterem sind sie bekanntlich gegeben durch E n = (−13,6 eV)/n 2 , mit n = 1, 2, 3, . . ., und liegen dementsprechend zu höheren Energien hin immer enger zusammen, bis sie bei E = 0 in das kontinuierliche Spektrum eines freien Elektrons übergehen.   Beim HO dagegen sind die Energieniveaus gegeben durch E n = ω n + 21 , n = 0, 1, 2, 3, . . ., mit ω der Frequenz des Oszillators. Der Abstand zwischen den Energieniveaus ist also immer derselbe, E = E n+1 − E n = ω, unabhängig von n. Man beachte, dass der kleinste mögliche Energiewert gegeben ist durch die sog. Nullpunktsenergie E 0 = ω/2, im Gegensatz zum klassischen HO, wo E min = 0. Im Fall eines Federpendels im Gravitationsfeld entspricht dies der Situation, dass das Pendel ruht, also p = 0 und q = 0. Quantenmechanisch muss aber die Unschärferelation gelten (hier: q ·  p ≥ /2), es muss also immer entweder p = 0 oder q = 0 sein. In ersterem Fall erhält das System aber kinetische, in Letzterem potenzielle Energie, so dass stets E = E kin + E pot = 0 gelten muss. Im Folgenden interessieren wir uns aber vorwiegend für Übergänge zwischen einzelnen Energieniveaus, so dass wir nur Energien relativ zur Nullpunktsenergie betrachten wollen. Wir schreiben die Energieniveaus des HO daher etwas salopp als E n = nω.

20

2.3

R. Harlander

Quantenfeldtheorie und Feynman-Diagramme

2.3.1 „Zweite Quantisierung“ Betrachten wir wieder die in Abschn. 2.2.3, Gl. (2.1) eingeführte ebene Welle ψ p (x, t) zur Beschreibung eines vollkommen unlokalisierten „Teilchens“ mit festem Impuls p. Ein Vergleich mit Gl. (2.5) zeigt, dass sie an jedem festen Ort x die Form der Lösung eines klassischen HOs mit Frequenz ω = E/ hat, wobei A+ = 0 und A− = C p e−i px/ . Die Quantenfeldtheorie kann man nun so auffassen, dass diese Beobachtung wörtlich genommen wird: ψ p (x, t) wird so interpretiert, dass es aus einem Kontinuum von klassischen HOs erzeugt wird. Diese HOs werden nun selbst wieder quantisiert. Weil aber ψ p (x, t) schon als Wellenfunktion Teil einer quantenmechanischen Beschreibung ist, spricht man bei der Quantenfeldtheorie oft auch von „zweiter Quantisierung“. Man fragt sich vielleicht, was die Motivation hinter dieser Prozedur ist. Schließlich handelt es sich bei der Wellenfunktion nicht „wirklich“ um klassische HOs. An dieser Stelle müssen wir uns mit der Antwort zufriedengeben: Weil es funktioniert; weil die Konsequenzen, die dieses Vorgehen hat, experimentell beobachtbar sind. Eine derartige Rechtfertigung muss nicht unbefriedigend sein: Sie entspricht in etwa der einer zufälligen Entdeckung. Andererseits ergibt sich die „zweite Quantisierung“ 4 zwangsläufig, wenn man versucht, eine relativistische Verallgemeinerung der Wellenfunktion zu finden, beispielsweise als Lösung der Klein-Gordon-Gleichung. Deren Interpretation als 1-Teilchensystem führt aber zu inneren Widersprüchen; es ergeben sich negative Wahrscheinlichkeiten. Quantisierung der Lösung gemäß obigem Muster beseitigt dann dieses Problem. Gleichzeitig erzwingt dieser Zugang die Einführung von Antiteilchen, also Teilchen mit gleicher Masse, aber umgekehrten Ladungen im Vergleich zu den zugehörigen Teilchen.5 Ein (unlokalisiertes) Teilchen mit festem Impuls in der Quantenfeldtheorie wird damit also eine ebene Welle, die durch ein unendlich dichtes Netz (ein Feld) von quantenmechanischen HOs propagiert, und zwar so, dass sich diese HOs im minimalen Anregungszustand befinden, also die Energie E = E 1 = ω = p 2 /(2m) besitzen. Die zweite Anregungsstufe hat gemäß obiger Diskussion des quantenmechanischen HOs die doppelte Energie, E 2 = 2E 1 , und kann als Zustand von zwei identischen Teilchen mit demselben Impuls interpretiert werden; Entsprechendes gilt für den dreifach angeregten Zustand, usw. Solche mehrfach besetzten Zustände spielen für die Streureaktionen an Teilchenbeschleunigern jedoch keine Rolle, und wir werden

4 In

der theoretischen Teilchenphysik wird dieser Ausdruck nicht gern verwendet. Man spricht stattdessen eher von „Feldquantisierung“. 5 Ungeladene Teilchen wie das Photon sind demnach nicht von ihren Antiteilchen zu unterscheiden.

2

Erzeugung und Vernichtung von Teilchen

21

sie im Folgenden nicht weiter betrachten. Der Grundzustand liegt vor, wenn keines der Quantenfelder angeregt ist; dies entspricht dem Vakuum.6 Um die Propagation eines Teilchens mit beliebigem Impuls zu beschreiben, muss also jedem Ort x ein unendlicher Satz von HOs mit Frequenzen ω = p 2 /(2m) zugeschrieben werden. Dieses unendliche Kontinuum von HOs nennt man ein Quantenfeld.7 Jedes Quantenfeld bezieht sich dabei auf eine bestimmte Teilchensorte: Es gibt ein Quantenfeld für das Photon, für das Elektron, für jede Quarksorte usw. Aus Gründen, die später klar werden, wollen wir die Oszillatoren einer Teilchensorte im Folgenden nicht über ihre Frequenz (Energie), sondern über ihren Impuls p charakterisieren.

2.3.2

Wechselwirkung und Vertices

Obige Beschreibung entspricht der ungestörten Bewegung von einzelnen Teilchen. Wenn dies alles wäre, gäbe es keine Streuung, und man könnte dementsprechend nichts beobachten, vgl. Abschn. 2.1.3. Es gäbe natürlich auch keine gebundenen Systeme (Atome usw.): Alle Teilchen würden einfach ungestört aneinander vorbeifliegen. Es muss also noch irgendwie die Wechselwirkung der Teilchen untereinander berücksichtigt werden. Diese kommt dadurch ins Spiel, dass die HOs der einzelnen Teilchen untereinander gekoppelt sind, ähnlich wie man dies auch klassisch tun kann, beispielsweise indem man zwei Fadenpendel mit einer Feder verbindet. Ebenso wie dabei Energie von einem Pendel auf das andere übertragen werden kann, können auch die Feldoszillatoren untereinander Energie und Impuls austauschen. Da diese aber quantisiert sind und wir stets nur maximal deren erste Anregungen betrachten wollen, kann also beispielsweise ein (einfach) angeregter HO mit Impuls p1 der Teilchensorte 1 seine Energie (und zwar nur vollständig) an zwei HOs der Teilchensorten 2 und 3 mit Impulsen p2 und p3 abgeben. In der Sprache der Quantenfeldtheorie sagt man, dass Teilchen 1 „vernichtet“ und gleichzeitig Teilchen 2 und 3 „erzeugt“ werden: Die Anregung von HO 1 verschwindet, und Anregungen von HO 2 und HO 3 entstehen. In obigem mechanischen Beispiel der Fadenpendel ist die Kopplungsstärke durch die entsprechende Federkonstante bestimmt. Im quantenmechanischen Fall gibt es ebenfalls eine „Kopplungskonstante“, die die jeweilige Wechselwirkung charakterisiert. In der Quantenelektrodynamik (QED) ist das beispielsweise die Feinstrukturkonstante8 α = 1/137. Ähnlich wie beim in Abschn. 2.2.1 diskutierten Durchgang des Photons durch einen Polarisationsfilter bestimmt die Kopplungskonstante die Wahrscheinlichkeit bzw. die Rate, mit der ein Vernichtungs/Erzeugungsprozess stattfindet.

6 Die

Nullpunktsenergie (siehe Abschn. 2.2.4) führt zu den sog. Vakuumfluktuation, die messbare Effekte liefern (Casimir-Effekt, laufende Kopplungen u. ä.). Wir können im Rahmen dieses Aufsatzes leider nicht näher darauf eingehen. 7 Genauer gesagt wird der Freiheitsgrad, der den HO beschreibt, als Quantenfeld bezeichnet. √ 8 Genau genommen ist es g = 4π α.

22

R. Harlander

In einer gegebenen Theorie wie der QED oder dem Standardmodell ist genau festgelegt, welche dieser Feldoszillatoren miteinander gekoppelt sind und wie stark; in der Teilchensprache: welche Teilchen gemeinsam erzeugt und vernichtet werden können und mit welcher Wahrscheinlichkeit. Dies bestimmt dann auch die Erhaltungssätze einer Theorie. So muss in obigem Beispiel die Gesamtladung und der Gesamtimpuls erhalten bleiben, z. B. muss gelten: p1 = p2 + p3 . Die Energie dagegen muss nur im Rahmen der Unschärfe-Relation E · t ≥ /2 erhalten sein. Für einen Zeitraum t = /(2E) kann also durchaus E = E 1 − (E 2 + E 3 ) = 0 sein. Spätestens nach dieser Zeitspanne muss das System wieder in einen anderen Zustand übergehen, indem mindestens eines der beiden Teilchen 2 oder 3 vernichtet und evtl. andere Teilchen erzeugt werden. Dieser Prozess kann an jedem Ort und zu jedem Zeitpunkt geschehen, und ähnlich wie man beim Doppelspalt beide Möglichkeiten für das Passieren der Blende summieren muss, um die Wahrscheinlichkeit zu erhalten, muss hier über alle Orte und Zeitpunkte integriert werden.9 Eine bestimmte Theorie (z. B. das Standardmodell) kann also als Sammlung von Regeln gesehen werden, welche Teilchen gleichzeitig erzeugt und vernichtet werden können. Dabei gilt noch Folgendes: Wenn eine solche Regel besagt, dass ein bestimmtes Teilchen mit Impuls p erzeugt werden kann, dann gibt es immer auch dieselbe Regel, bei der stattdessen das entsprechende Antiteilchen mit Impuls − p vernichtet werden kann. So lässt sich die QED beispielsweise nur mit einer einzigen Regel definieren: Es kann ein Elektron e− und ein Positron e+ mit Impulsen p1 und p2 vernichtet und gleichzeitig ein Photon γ mit Impuls p3 = p1 + p2 erzeugt werden: e− ( p1 ) + e+ ( p2 ) → γ ( p3 ).

(2.7)

Obige Regel impliziert dann aber auch, dass ein Elektron mit Impuls p1 vernichtet, und eines mit Impuls − p2 sowie ein Photon mit Impuls p3 = p1 + p2 erzeugt werden: e− ( p1 ) → e− (− p2 ) + γ ( p3 )

(2.8)

Es können sogar einfach nur drei Teilchen aus dem Vakuum erzeugt werden: ein Elektron mit Impuls − p1 , ein Positron mit Impuls − p2 und ein Photon mit Impuls p3 = p1 + p2 : Vakuum → e− (− p1 ) + e+ (− p2 ) + γ ( p3 ).

(2.9)

Diese müssen dann allerdings kurze Zeit später wieder vernichtet werden, um die Unschärferelation nicht zu verletzen. Der Leser ist aufgefordert, sich die restlichen Möglichkeiten zu überlegen. Diese Regeln lassen sich grafisch darstellen als sog. Vertices. Abb. 2.1a zeigt beispielsweise den oben diskutierten Vertex für die QED. Eine Linie, deren Pfeil in Richtung Kreuzungspunkt zeigt, bedeutet, dass das entsprechende Teilchen (hier das

9 Mit

der Einschränkung, dass stets nur ebene Wellen vorliegen.

2

Erzeugung und Vernichtung von Teilchen

23

Abb. 2.1 a Elektron-Photon-Vertex; b Myon-Higgs-Vertex; c Myon-Photon-Vertex. Da die Elektron- und Myon-Linien sowohl Teilchen (e− , μ− ) oder Antiteilchen (e+ , μ+ ) mit umgekehrtem Impuls bezeichnen können, wird das Superskript ± sowie der Impuls des Teilchens in der grafischen Darstellung der Vertices weggelassen

Elektron) vernichtet bzw. sein Antiteilchen (hier: Positron) erzeugt wird. Zeigt der Pfeil weg vom Kreuzungspunkt, wird entsprechend entweder ein Teilchen erzeugt oder ein Antiteilchen vernichtet. Linien ohne Pfeil entsprechen Teilchen, die nicht von ihrem Antiteilchen unterscheidbar sind (in diesem Fall ein Photon, das üblicherweise als Wellenlinie gezeichnet wird). Andere Beispiele für Vertices des Standardmodells sind in Abb. 2.1b, c gezeigt.10 Die meisten Vertices verbinden drei Teilchen miteinander, wenige vier. Vertices mit mehr als fünf Teilchen gibt es nur in sog. „effektiven Theorien“.

2.3.3

Propagatoren

Wenn wir von der Erzeugung und Vernichtung von Teilchen sprechen, haben wir implizit schon eine Zeitrichtung angenommen: Ein Teilchen, das erzeugt wird, „existiert“ nach diesem Zeitpunkt, eines, das vernichtet wird, hat vor diesem Zeitpunkt „existiert“. Warum wir hier Anführungszeichen verwenden, wird später noch klar werden. Nehmen wir als Beispiel den Vertex des Standardmodells, der ein HiggsBoson mit zwei Myonen verbindet, siehe Abb. 2.1b. Welches Teilchen dabei vernichtet oder erzeugt wird, hängt davon ab, wie wir diesen Vertex bezüglich einer (in unserer Konvention) von links nach rechts laufenden Zeitachse einzeichnen. Beispielsweise wird in Abb. 2.2a ein Higgs-Boson mit Impuls p1 vernichtet, sowie ein Myon μ− und ein Anti-Myon μ+ mit Impulsen p2 und p3 erzeugt, wobei p1 = p2 + p3 . Diesen Prozess nennt man „Zerfall“: Der Anfangszustand enthält ein einzelnes, der Endzustand mehrere Teilchen (zur Verwendung des Begriffs „Zerfall“ siehe Abschn. 2.5.3). In Abb. 2.2b wird dagegen ein Myon mit Impuls p1 vernichtet und ein Higgs-Boson mit Impuls p2 sowie ein Myon mit Impuls p3 erzeugt. Wieder gilt p1 = p2 + p3 . Während jedoch der Prozess in Abb. 2.2a kinematisch erlaubt ist, weil das zerfallende Teilchen mehr als doppelt so schwer wie die erzeugten Teilchen

10 Der

vollständige Satz des Standardmodells ist im Programm FeynGame implementiert, das einen spielerischen Umgang mit Feynman-Regeln bietet. Alle Diagramme dieses Artikels wurden mit FeynGame erzeugt http://www.robert-harlander.de/software/feyngame.

24

R. Harlander

Abb. 2.2 Zwei Möglichkeiten, den Myon-Higgs-Vertex aus Abb. 2.1b relativ zu einer (gedachten) von links nach rechts laufenden Zeitachse einzuzeichnen. Im Gegensatz zu Abb. 2.1 ergibt es hier Sinn, einzuzeichen, ob es sich um ein Teilchen (μ− ) oder ein Antiteilchen (μ+ ) handelt; Gleiches gilt für die Angabe Impulse. Beachte, dass die Pfeile auf den Linien nicht die Richtung des Impulses bezeichnen; siehe dazu die Diskussion in Abschn. 2.3.2

ist,11 ist dies in Abb. 2.2b nicht der Fall: Hier wird mindestens an einer Stelle der Energiesatz verletzt. Wir führen die sog. „Virtualität“ ein, als Differenz zwischen den Quadraten der nach  dem Energiesatz vorliegenden Energie E und der relativistischen Gesamtenergie p 2 + m 2 eines Teilchens mit Impuls p und Masse m: D(E, m, p) := E 2 − m 2 c4 − p 2 c2 .

(2.10)

Wenn für ein Teilchen D(E, m, p) = 0 gilt, sagt man, dass es sich „auf der Massenschale“ befindet, oder kurz: Das Teilchen ist „on-shell“; andernfalls ist es „offshell“.12 Ein Teilchen, das off-shell ist, kann nur für eine endliche Zeit existieren; es muss eine endliche Zeitspanne zwischen seiner Erzeugung und seiner Vernichtung liegen. Man nennt solche Teilchen auch „virtuell“. Direkt beobachtbar (d. h. mit den entsprechenden Detektoren) sind nur reelle Teilchen, also solche mit D(E, m, p) = 0. Virtuelle Teilchen entsprechen unbeobachtbaren quantenmechanischen Zuständen, ähnlich einem Teilchen am Doppelspalt vor dem Auftreffen auf dem Schirm (siehe Abschn. 2.2.2). Nehmen wir an, dass in Abb. 2.2b die beiden erzeugten Teilchen on-shell sind. Dann muss das vernichtete Myon off-shell sein. Es muss also vor endlicher Zeit erzeugt worden sein. Das können wir grafisch darstellen, indem wir seine Linie an einem anderen Vertex „entstehen“ lassen, z. B. an einem, der ein Photon mit zwei Myonen verbindet, siehe Abb. 2.1c. So ergibt sich das Diagramm in Abb. 2.3a. Wir denken uns die äußeren Linien als bis nach t = −∞ (links) bzw. t = +∞ (rechts) verlängert. Dann beschreibt dieses Diagramm im Endeffekt die Vernichtung eines Myons mit Impuls p4 und eines Photons mit Impuls p5 und die Erzeugung eines Myons mit Impuls p3 und eines Higgs-Bosons mit Impuls p2 . Das zwischenzeitlich erzeugte Teilchen ist virtuell; wir können nichts darüber aussagen, wann, wo, nicht mal, ob es existiert hat: Unsere Beschreibung der Quantenfeldtheorie enthält diese virtuellen Zustände, und sie liefert damit überprüfbare (und sehr gut überprüfte) Vorhersagen. Die Frage, inwieweit diese Zustände dem entsprechen, was der Einzelne

11 Es

ist M H ≈ 125,3 GeV/c2 12 Diese Terminologie kommt

und m μ ≈ 105 MeV/c2 . daher, dass die Relation D(E, p, m) = 0 für festes m eine Fläche im vierdimensionalen (E, p)-Raum definiert, die sog. „Massenschale“.

2

Erzeugung und Vernichtung von Teilchen

25

als „Realität“ bezeichnet, wollen wir der Philosophie überlassen. Mit diesem Caveat wollen wir der Bequemlichkeit halber fortfahren, von der „Existenz“ virtueller Teilchen zu sprechen. Gemäß der Heisenbergschen Unschärferelation ist die Existenzdauer eines virtuellen Teilchens umgekehrt proportional zur (Wurzel) seiner Virtualität D(E, m, p). Da wir nur Anfangs- und Endzustand des Prozesses, also die Zustände bei t → ±∞ beobachten können, müssen wir überall Zeiten und Orte, an denen ein virtuelles Teilchen erzeugt und wieder vernichtet wird, integrieren. Damit übersetzt sich die Existenzdauer in einen Anteil, mit dem das jeweilige virtuelle Teilchen zur Wahrscheinlichkeitsamplitude für den Übergang vom Anfangs- in den Endzustand beiträgt, der gegeben ist durch die inverse Virtualität, D −1 (E, m, p): Der Beitrag wird mit zunehmender Virtualität also immer kleiner. Auf eine genaue Herleitung dieser Beziehung müssen wir an dieser Stelle verzichten und uns mit ihrer Plausibilität zufriedengeben.

2.3.4

Feynman-Diagramme

Prozesse von Teilchen können durch beliebiges Aneinanderfügen von Vertices sowie inneren und äußeren Linien beschrieben werden, wobei man als innere Linien – auch „Propagatoren“ genannt – solche bezeichnet, die auf jeder Seite an einem Vertex enden. Äußere Linien enden dagegen nur auf einer Seite an einem Vertex; die andere Seite läuft entweder nach t = +∞, oder sie kommt von t = −∞ (rechter bzw. linker Rand des Feynman-Diagramms). Eine solche Verknüpfung von Vertices, Propagatoren, und äußeren Linien nennt man „Feynman-Diagramm“. Da wir über alle Orte und Zeiten integrieren, an denen virtuelle Teilchen erzeugt und vernichtet werden, ist nur die „Topologie“ des Feynman-Diagrammes relevant, also: (a) die ein- und auslaufenden Linien (Anfangs- und Endzustand) einschließlich der ihnen zugeordneten Impulse und (b) welche Vertices welche Linien miteinander verbinden. Die Lage der Vertices sowie die Neigung und Krümmung der Linien sind dabei vollkommen irrelevant. Wegen der Impulserhaltung an jedem Vertex sind die Impulse für die inneren Linien und damit ihre Virtualitäten festgelegt – solange das Diagramm keine geschlossenen Schleifen enthält; dazu kommen wir in Abschn. 2.3.6. In diesem Sinne kann man das Feynman-Diagramm aus Abb. 2.3a auch wie in Abb. 2.3b zeichnen; für einen Teilchenphysiker sind diese beiden Diagramme gleich. Ich persönlich ertappe mich allerdings oft selbst dabei, die (gedachte) Zeitachse bei einem einzelnen Feynman-Diagramm auch auf die Lage der Vertices anzuwenden und nicht nur auf Anfangs- und Endzustand, die formal bei t = ∓∞ liegen. Bei dieser Interpretation ist ein Feynman-Diagramm als Repräsentant für die Summe über alle topologisch äquivalenten Diagramme zu sehen, also über solche, die sich aus ihm durch beliebiges Verschieben der Vertices ergeben. Diese Sichtweise verdeutlicht noch einmal, wie die Energieerhaltung bei einem Feynman-Diagramm nur in Bezug auf Anfang- und Endzustand gilt, nicht jedoch für einzelne Vertices. In Abb. 2.3b werden bei strenger Interpretation der Zeitachse am linken Vertex drei Teilchen aus dem Vakuum erzeugt: die beiden Teilchen des Endzustands sowie ein virtuelles

26

R. Harlander

Abb. 2.3 a Feynman-Diagramm für den Prozess γ μ− → H μ− . b Dasselbe Diagramm wie in (a), nur anders gezeichnet

Anti(!)-myon, das später am rechten Vertex zusammen mit den einlaufenden Teilchen vernichtet wird (beachte: in Abb. 2.3a ist das Zwischenteilchen bei dieser Interpretation ein Myon). Wir betonen noch einmal, dass es sich im Rahmen der Berechnung des Wirkungsquerschnittes für den Prozess γ ( p5 )μ− ( p4 ) → H (− p1 )μ− ( p2 ) bei Abb. 2.3a und b um ein und dasselbe Diagramm handelt. Deshalb wird bei inneren Linien in Feynman-Diagrammen üblicherweise nicht zwischen Teilchen und Antiteilchen unterschieden (wie wir das in Abb. 2.3a auch getan haben, indem wir das Superskript ± bei μ( p3 ) weggelassen haben): Ein Feynman-Diagramm summiert implizit über beides (und vieles mehr), indem es Abb. 2.3a und b identifiziert. Nach dieser Diskussion sollte es klar sein, dass beispielsweise auch die Abb. 2.4a, b und c dasselbe Diagramm bezeichnen.

2.3.5

Feynman-Diagramme und Wirkungsquerschnitte

Mit Hilfe von Feynman-Diagrammen und zugehörigen Feynman-Regeln lässt sich für einen gegebenen Prozess direkt die entsprechende Wahrscheinlichkeitsamplitude berechnen. Dabei liefert jeder Vertex einen Faktor der Kopplungskonstante der entsprechenden Wechselwirkung und jeder Propagator einen Faktor D −1 (E, m, p). Beispielsweise zeigt Abb. 2.5 ein Feynman-Diagramm für den Prozess e+ ( p1 )e− ( p2 ) → μ+ ( p3 )μ− ( p4 ). Das virtuelle Teilchen ist dabei ein Z -Boson mit Impuls q = p1 + p2 . Im Schwerpunktsystem ist p1 = − p2 , also q = 0. Der Z -

Abb. 2.4 a Feynman-Diagramm zum Prozess μ− μ− → μ− μ− . b, c Dasselbe Diagramm with in (a), nur anders gezeichnet

2

Erzeugung und Vernichtung von Teilchen

27

Abb. 2.5 FeynmanDiagramm zum Prozess e+ e− → μ+ μ− . Die innere Linie bezeichnet ein (virtuelles) Z -Boson Abb. 2.6 Die Funktion |D −1 |2 aus Gl. (2.12b), für M Z = 91 GeV/c2 und drei verschiedene Werte der Breite: Z = 1,25/2,5/5 GeV (schmal/mittel/breit). Die Kurven sind jeweils so normiert, dass das Integral darüber 1 ergibt

Propagator liefert gemäß Abschn. 2.3.3 einen Faktor D −1 (E, q = 0, M Z ) =

E2

1 − M Z2 c4

(2.11)

zur Amplitude, mit der Schwerpunktsenergie der Kollision E und der Z -Masse M Z ≈ 91 GeV/c2 . Der Wirkungsquerschnitt ergibt sich aus dem Betragsquadrat der Amplitude, ist also proportional zu (E 2 − M Z2 c4 )−2 . Als Erstes fällt auf, dass dieser Faktor für E = M Z c2 divergiert, d. h., der Wirkungsquerschnitt wird bei dieser Energie unendlich groß. Das kann natürlich nicht sein, und in der Tat wird diese Singularität abgefangen durch sog. höhere Ordnungen der Störungstheorie (mehr dazu in Abschn. 2.3.6). Durch diese wird der Propagator des Z -Bosons mit dessen endlicher Lebensdauer τ Z modifiziert: D −1 (E, q, M Z ) → D −1 (E, q, M Z , Z ) =



|D −1 (E, q = 0, M Z , Z )|2 =

1 , E 2 − q 2 c2 − M Z2 c4 + i M Z Z c2 (2.12a)

1 , (E 2 − M Z2 c4 )2 + M Z2 2Z c4

(2.12b)

wobei Z = /τ Z als „Breite“ des Z -Bosons bezeichnet wird, aus Gründen, die beim Betrachten von Abb. 2.6 klar werden sollten. Sie zeigt die rechte Seite von Gl. (2.12b) als Funktion der Energie E, gemessen in GeV, bei drei verschiedenen Werten von Z .13 Alle drei Kurven haben bei E ≈ M Z ein ausgeprägtes Maximum („Peak“). Die Größe Z bestimmt offensichtlich die Breite des Peaks (daher der Name): Bei

13 Die

Normierung der Kurven ist so gewählt, dass ihr Integral in allen drei Fällen gleich groß ist.

Cross-section (pb)

28

R. Harlander

10 5

Z 10 4

e+e−→hadrons

10 3

CESR DORIS

10 2

+

WW

PEP PETRA

SLC

TRISTAN

KEKB PEP-II

10

LEP I 0

20

40

60

-

80

100

LEP II 120

140

160

180

200

220

Centre-of-mass energy (GeV)

Abb. 2.7 a Die „Line Shape“ des Z -Bosons, d. h. der Wirkungsquerschnitt e+ e− → Hadronen als Funktion der Schwerpunktsenergie. b Die Funktion auf der rechten Seite von Gl. (2.13) für M Z = 91 GeV/c2 , Z = 2,5 GeV und κ = −,25

der mittleren Kurve ist Z = 2,5 GeV, während bei der schmaleren Kurve dieser Wert halbiert und bei der breiteren verdoppelt wurde.14 Der tatsächlich gemessene Wirkungsquerschnitt für einen sehr ähnlichen Prozess (Quarks statt Myonen im Endzustand) ist in Abb. 2.7a gezeigt.15 Man findet die zentralen Eigenschaften der theoretischen Kurve in der Tat wieder. Durch Vergleich mit der Theorie lassen sich also Masse und Breite (Lebensdauer) des Z -Bosons bestimmen, obwohl dieses Teilchen gar nicht direkt beobachtet wurde. Im Detektor hinterlässt das Z -Boson keine Spur; man sieht dort nur die beiden Myonen. Auf den zweiten Blick fällt auf, dass es doch deutliche Unterschiede zwischen der theoretischen und der gemessenen Kurve gibt, insbesondere bei kleinen Schwerpunktsenergien E. Das liegt daran, dass es neben Abb. 2.5 noch weitere FeynmanDiagramme mit demselben Anfangs- und Endzustand gibt. Da wir die virtuellen Teilchen nicht beobachten können, müssen wir alle diese Diagramme berücksichtigen, ähnlich wie wir beim Doppelspaltexperiment die Wahrscheinlichkeitsamplituden für die beiden Möglichkeiten (Teilchen geht durch linken/rechten Spalt) addieren müssen, um das beobachtete Interferenzmuster zu verstehen. Analog kann es in der Quantenfeldtheorie zu Interferenzeffekten zwischen einzelnen Diagrammen kommen (oder besser: ihren Beiträgen zur Streuamplitude). Im konkreten Fall gibt es beispielsweise noch das Diagramm, in dem statt des Z -Bosons zwischenzeitlich ein virtuelles Photon erzeugt wird. Insgesamt ergibt sich so: 2    κ 1   σ (E) ∼  2 + 2  , E E − M Z2 c4 + i M Z Z c2 

14 Weil die Breite

(2.13)

Z umgekehrt proportional zur Lebensdauer τ Z eines Teilchen ist, spricht man oft von „breiten“ bzw. „schmalen“ Teilchen, und meint damit besonders kurz- bzw. langlebige Teilchen (siehe auch Anhang 2.5.3). 15 Quelle: S. Schael et al., Phys. Rept. 427 (2006) S. 257.

2

Erzeugung und Vernichtung von Teilchen

29

wobei κ sich aus dem Verhältnis der Kopplungskonstanten für die schwache Wechselwirkung (Z -Boson) und die elektromagnetische Wechselwirkung (Photon) ergibt. Für κ = −0,25 findet man Abb. 2.7b; der Vergleich mit dem tatsächlich gemessenen Wirkungsquerschnitt zeigt, dass die Abweichung bei kleinen Energien in der Tat vom zuvor vernachlässigen Photonaustausch herrührt. Wir sehen also, dass • Feynman-Diagramme eine sehr gute Beschreibung von Streureaktionen liefern; • dabei stets alle Feynman-Diagramme mit demselben Anfangs- und Endzustand berücksichtigt werden müssen; • virtuelle Teilchen ein eindeutiges Signal in Wirkungsquerschnitten hinterlassen können.

2.3.6

Schleifendiagramme

Bislang haben wir sog. „Baumdiagramme“ betrachtet, also solche, bei denen die inneren Linien keine geschlossenen Schleifen bilden. Die bisherige Diskussion hat solche Diagramme aber nicht ausgeschlossen, und in der Tat tragen zu jedem Prozess im Prinzip auch Diagramme mit beliebig vielen geschlossenen Schleifen bei. Beispielsweise müssen zu obigem Prozess auch die „1-Schleifendiagramme“ aus Abb. 2.8 mit berücksichtigt werden. Allerdings enthalten Diagramme mit geschlossenen Schleifen auch stets mehr Vertices, und da jeder Vertex einen zusätzlichen Faktor in der Kopplungskonstanten bedeutet, kann man davon ausgehen, dass Diagramme mit geschlossenen Schleifen numerisch unterdrückt sind, solange die Kopplungskonstante hinreichend klein ist. Beispielsweise ist das Diagramm in Abb. 2.5 proportional zu g 2 ∼ α = 1/137 ≈ 0,007. Eine geschlossene Schleife impliziert zwei zusätzliche Vertices, also insgesamt g 4 ∼ α 2 ≈ 0,00005. Da auch experimentelle Ergebnisse immer mit Unsicherheitsabschätzungen behaftet sind, reicht es bei theoretischen Vorhersagen meist aus, Diagramme mit maximal zwei oder drei Schleifen mit einzubeziehen. Dies ist auch gut so, denn man überzeugt sich leicht davon, dass die Impulse von virtuellen Teilchen, die Teil einer geschlossenen Schleife sind, nicht eindeutig durch Impulserhaltung festgelegt sind. Da wir aber über alle Möglichkeiten, den Anfangsin den Endzustand zu überführen, summieren müssen, muss über alle Impulse und, aus Gründen, auf die wir hier nicht eingehen können, auch die Energie der Teilchen integriert werden. Jede geschlossene Schleife impliziert also eine vierdimensionale Energie-Impuls-Integration, so dass die Berechnung von Diagrammen mit geschlossenen Schleifen ungleich schwerer ist als die von Baumdiagrammen. Interessanterweise können solche Schleifendiagramme wichtige Hinweise für die Suche nach möglicher Physik jenseits des Standardmodells geben. Denn über die Schleifen tragen auch Teilchen zur theoretischen Berechnung eines Wirkungsquerschnittes bei, die zu schwer sind, um sie an bestehenden Teilchenbeschleunigern on-shell zu produzieren. Wenn man also Wirkungsquerschnitte sehr präzise misst und mit ebenso präzisen Rechnungen vergleicht, lassen sich Rückschlüsse über bis-

30

R. Harlander

Abb. 2.8 a–d 1-Schleifen- und e, f 2-Schleifendiagramme zum Prozess e+ e− → μ+ μ− . Im Standardmodell können die gewellten Linien Photonen oder Z -Bosonen sein

lang unentdeckte Teilchen ziehen. Auf diese Weise konnte man Anfang der 1990er Jahre beispielsweise die Masse des Topquarks auf etwa 10 % Genauigkeit vorhersagen, noch bevor das Teilchen 1995 am Tevatron entdeckt worden war. Ähnlich gilt für das Higgs-Boson, dessen Masse man auf wenige 10 GeV/c2 eingeschränkt hatte, bevor es 2012 am LHC nachgewiesen wurde. Auch heute versucht man durch aufwändige Berechnung von Schleifendiagrammen und den Vergleich mit experimentellen Daten des LHC etwas über die Physik jenseits des Standardmodells zu lernen.

2.4

Zusammenfassung

Ziel dieses Aufsatzes war es, einen Einblick in den Ursprung und die Bedeutung von Feynman-Diagrammen zu geben, der die quantenfeldtheoretischen Mechanismen dieses faszinierenden Hilfsmittels verdeutlicht. Ein besonderer Schwerpunkt wurde auf den Mechanismus der Teilchenerzeugung und -vernichtung gelegt, wie er den Feynman-Diagrammen zugrunde liegt. Dazu haben wir eine schematische Darstellung der Quantenfeldtheorie als Physik eines Kontinuums quantenmechanischer harmonischer Oszillatoren gewählt. Die Kopplung dieser HOs untereinander beschreibt dann die Wechselwirkungen in der Quantenfeldtheorie als vollständigen, diskontinuierlichen Impulsübertrag zwischen verschiedenartigen, mit den jeweiligen Teilchensorten assoziierten HOs. Die Manifestation virtueller Teilchen wurde anhand des Beispielprozesses e+ e− → μ+ μ− erläutert. Nach all der Anschaulichkeit soll an dieser Stelle noch einmal betont werden, dass sich Feynman-Diagramme aus dem sog. „störungstheoretischen Ansatz“ zur Berechnung von Observablen in der Quantenfeldtheorie ergeben. Sie repräsentieren die Koeffizienten einer mathematischen Entwicklung des exakten Resultates im

2

Erzeugung und Vernichtung von Teilchen

31

Limes kleiner Kopplungskonstanten (siehe Abschn. 2.3.6). Bei einer physikalischen Interpretation der Diagramme sollte dies berücksichtigt werden. Es ist mir bewusst, dass die Fülle, das Niveau und die Form der Präsentation dieses Artikels nicht für eine unmittelbare Übertragung auf den Schulunterricht geeignet sind. Vielmehr war es mir ein Anliegen, Lehrkräften einen Blick auf die Thematik zu bieten, der zu einer verstärkten Sicherheit im Umgang mit Feynman-Diagrammen führen sollte.

2.5

Anhang

In diesem Anhang habe ich einige Gedanken zu philosophischen und didaktischen Themen zusammengefasst, mit denen man sich bei der Teilchenphysik konfrontiert sieht.

2.5.1

Intuition

Intuition ist eine der zentralen Eigenschaften, die dem Menschen (und vermutlich auch anderen Lebewesen) das Leben ermöglichen. Sie bewirkt, dass wir in Situationen, in denen wir die Umstände nicht detailliert analysieren können, trotzdem häufig die richtige Entscheidung treffen. Im Unterschied zum Reflex oder Instinkt wird eine intuitive Entscheidung bewusst gefällt. Es ist möglich, dass Intuition zum Teil vererbt wird; worauf es uns in diesem Aufsatz aber ankommt, ist die Möglichkeit, Intuition zu erarbeiten. Zum größten Teil ist dies ein unbewusster Prozess. Jeder vernunftbegabte Mensch wird in gewohnter Umgebung beispielsweise mit einiger Zuverlässigkeit das Wetter innerhalb der nächsten Stunde vorhersagen können, einfach weil er ähnliche Wetterlagen wie die momentane aus der Erfahrung kennt. Ebenso gibt uns der soziale Umgang ein gewisses Maß an Intuition dafür, ob man einem fremden Menschen, dem man gerade begegnet, vertrauen kann oder nicht. Intuition ist nicht immer richtig, aber sie stellt ein wichtiges Hilfsmittel zur Verfügung, Sachverhalte einzuschätzen, die man zwar in ähnlicher, aber noch nicht in genau dieser Form erlebt hat. Intuition lässt sich auch durch gezieltes Training erwerben oder vergrößern. Ein guter Spielmacher beim Fußball zeichnet sich dadurch aus, dass er oft „intuitiv“ den richtigen Pass zum richtigen Zeitpunkt spielt. Natürlich spielt hier auch das eine Rolle, was man gemeinhin als „Talent“ bezeichnen würde, aber ohne ein gehöriges Maß an Spielerfahrung und dem damit gewonnenen Spielverständnis wäre auch ein Toni Kroos nicht Stammspieler bei Real Madrid geworden. Ein besonders gutes Beispiel lieferte auch der Pilot Chesley B. Sullenberger, als er im Jahre 2009 mit einem Airbus 320 nach Vogelschlag im Hudson River notwasserte, ohne dass eine der 155 Personen an Bord ernsthaft verletzt wurde. Sullenberger hatte dieses Manöver sicherlich nicht geübt: Seine 20.000 Flugstunden und das Trainieren ähnlicher Notsituationen verliehen ihm genügend Intuition dafür, eben diese Entscheidung zu treffen und nicht etwa einen der nahe gelegenen Flughäfen anzusteuern.

32

R. Harlander

Die obigen Beispiele betreffen allesamt reale Situationen, wie sie ein Mensch im täglichen Leben erfahren hat oder erfahren könnte. Erstaunlicherweise lässt sich Intuition aber auch für Bereiche entwickeln, die streng genommen außerhalb unserer eigenen Erfahrungswelt und sogar Vorstellungskraft liegen. Ich möchte behaupten, dass ohne diese Fähigkeit das, was wir unter Wissenschaft verstehen, unmöglich wäre. Beispielsweise ist uns das Newtonsche Gravitationsgesetz von Schulzeiten an geläufig; wir behaupten, dass es uns verstehen lässt, warum ein Apfel auf die Erde fällt und die Planeten um die Sonne kreisen. Die zentrale „Entität“, die die zugrunde liegende Wechselwirkung bewirkt, ist das Gravitationsfeld. Was aber soll man sich darunter vorstellen? Streng genommen ist es ein rein theoretisches Konzept, das es uns erlaubt, Vorhersagen im Rahmen der Schwerkraft zu machen. Als Schüler muss man daher lernen, das Gravitationsfeld als etwas genuin Neues zu akzeptieren. Mit Hilfe von Feldlinien und Pfeilen lässt sich das Gravitationsfeld veranschaulichen, aber die Frage, was es „wirklich ist“, hat im Rahmen des bis dahin Bekannten keine Antwort. Nach einiger Zeit wird man sich an dieses neue Konzept „gewöhnt“ haben; man hört auf, zu versuchen, eine Erklärung dafür zu finden. Stattdessen lernt man, damit umzugehen: Seine Eigenschaften gehen in den Erfahrungsbereich über, man entwickelt Verständnis und Intuition. Verstehen und Sich-daran-gewöhnen sind also zwei eng miteinander verbundende Vorgänge. Ein Gebiet, in dem das Erlangen von Intuition in Bereichen außerhalb unserer Vorstellungswelt noch viel deutlicher zutage tritt, ist die Mathematik. Betrachten wir als einfaches Beispiel den n-dimensionalen Raum. Eine klare Vorstellung hat der Mensch aufgrund seiner evolutionären Voraussetzungen streng genommen nur für n = 3: links/rechts, oben/unten, vorne/hinten sind Konzepte, mit denen wir aufgrund der Struktur des uns umgebenden Raumes intuitiv umgehen können. Ich würde behaupten, dass es keinen Menschen gibt, der sich eine Welt mit mehr als drei Raumdimensionen (oder einer Zeitdimension) bildlich vorstellen kann. In der Tat bereitet uns sogar die Einschränkung auf n < 3 Schwierigkeiten, selbst wenn in (populär)wissenschaftlichen Darstellungen gerne hypothetische zweidimensionale Lebewesen angeführt werden. Die Tatsache, dass selbst ein flacher zweidimensionaler Raum (d. h., ein Raum, in dem die Winkelsumme aller Dreiecke 180◦ beträgt) endlich sein kann, ohne einen Rand zu haben (z. B. Torus), ist ohne dritte Dimension buchstäblich „unvorstellbar“. Dennoch haben Menschen es geschafft, Theoreme aufzustellen, die auch für (oder sogar nur für) n > 3 oder n < 3 gelten, und zwar zu einem großen Teil mit Hilfe von Intuition. Es genügt also, die relevanten Aspekte des mehrdimensionalen Raumes in Gedanken auf unsere dreidimensionale Vorstellungskraft zu projizieren. In gewisser Weise verwendet der Mathematiker also die „Analogie des dreidimensionalen Raumes“, um den mehrdimensionalen Raum zu beschreiben (zum Thema Analogien siehe Abschn. 2.5.2). Nicht umsonst werden dreidimensionale Begriffe wie „Volumen“, „Kugel“, „Fläche“ usw. leichterhand auf mehrere Dimensionen übertragen, bestenfalls noch mit dem Präfix „Hyper“ versehen. Das zugehörige Verständnis erlangt man durch die intensive Beschäftigung mit den mathematischen Eigenschaften der jeweiligen Strukturen; wieder ist es zum großen Teil ein Gewöhnungseffekt, der einem den Umgang mit den Konzepten erleichtert.

2

Erzeugung und Vernichtung von Teilchen

33

Das Erarbeiten von Intuition ist also vergleichbar mit dem Erlernen des Fahrradfahrens: Das Gehirn muss durch intensives Üben zunächst neuartige Bewegungsmuster lernen, bevor man Kunststücke vollführen kann.

2.5.2

Analogien

Analogien sind meiner Ansicht nach äußerst hilfreich beim Verständnis neuartiger Phänomene und damit bei der Entwicklung von Intuition. Die Analogie zwischen einem elektrischen Draht und einem Wasserschlauch mag hierfür beispielhaft herangezogen werden: Stromstärke, Spannung und elektrischer Widerstand lassen sich mit Hilfe dieser Analogie sehr gut veranschaulichen, was sich ja schon in der sprachlichen Ähnlichkeit äußert (Spannung würde man beim Wasserschlauch allerdings als Druck bezeichnen). Umgekehrt ist die Verwendung von Analogien auch stets ein Maß dafür, inwieweit ein bestimmtes Phänomen oder Wissenschaftsfeld wirklich verstanden ist. Erst wenn man die Zusammenhänge und Gesetzmäßigkeiten hinreichend gut verinnerlicht hat, lassen sich die Parallelen zu anderen Systemen auch erkennen. So muss der Studierende der Evolutionstheorie die dahinterstehenden Mechanismen zunächst hinreichend gut verdaut haben, um wie Richard Dawkins einem Gen „Egoismus“ zuzusprechen, ohne dem Gen dadurch tatsächlich überlegtes Handeln zuschreiben zu müssen. Das Beispiel der Raumdimensionen aus Abschn. 2.5.1 führt uns direkt auf eine gängige Analogie, die häufig zur Beschreibung der allgemeinen Relativitätstheorie (ART) herangezogen wird. Sie soll uns als Muster für die Charakteristika einer typischen Analogie dienen. Dabei wird die vierdimensionale Raumzeit zunächst auf zwei Raumdimensionen reduziert, die dann z. B. als gespanntes Tuch dargestellt werden, das sich unter dem Gewicht eines massiven Körpers K trichterförmig verformt. Geraten andere Massen in diesen Trichter, beeinflusst dies ihre Bewegungsrichtung hin zu K . Unkommentiert wird diese Analogie beim Leser viele Fragen offen lassen: Was bewirkt in der ART die Spannung im „Tuch“ der Raumzeit? In der Analogie entsteht die Verformung des Tuches durch die Erdanziehung, die die Masse auf das Tuch drücken lässt, aber eben diese Schwerkraft ist es ja, was wir durch die ART beschreiben wollen; was also bewirkt die Verformung der Raumzeit in der ART? Nur derjenige, der die ART gelernt hat, kann abschätzen, welche Eigenschaften der Theorie durch diese Analogie dargestellt werden sollen, also etwa, dass Massen die sie umgebende Geometrie der Raumzeit beeinflussen (aber nicht wie!) und dass freie Massen (und Licht) sich in gekrümmten Räumen auf Geodäten bewegen. Es lässt sich auch sehr gut die endliche Ausbreitungsgeschwindigkeit der gravitativen Wechselwirkung erläutern oder die Gravitationswellen, nicht aber beispielsweise deren Quadrupolnatur. Ebensowenig lässt die Analogie Schlussfolgerungen über die konkrete Form der durch die Masse verursachten Raumzeit-Geometrie zu. Jede Analogie hat ihre Grenzen. D. h., dass es Bereiche gibt, in denen sich die Analogie und das System, zu dessen Beschreibung sie herangezogen wird, unterscheiden. Andernfalls wären Analogie und zu beschreibendes System per Definition

34

R. Harlander

identisch. Keinesfalls sollte man versuchen, Analogien zu weit zu treiben, wie ich es häufig bei der Beschreibung quantenmechanischer Phänomene mit Hilfe klassischer Konzepte erlebt habe. Die Grenzen der Analogie sollten aber nicht als Manko gesehen werden. Vielmehr dienen sie in ähnlichem Maße wie die Analogie selbst dem vollständigen Verständnis des Phänomens. Denn nur dort, wo die Analogie aufhört, kann Neuartiges beginnen.

2.5.3

Begrifflichkeiten

In der Quantenwelt gibt es Phänomene, die wir aus der Alltagswelt nicht kennen: Tunneleffekt, diskrete Energiesprünge, Interferenz von „Teilchen“ usw. Bei der Beschreibung dieser Phänomene stehen wir vor der Wahl, ob wir bereits bestehende Begriffe verwenden wollen, die den Sachverhalt in irgendeinem Sinne näherungsweise beschreiben, oder ob wir neue Begriffe einführen wollen. Diese Entscheidung wird gewöhnlich von derjenigen Generation an Physikern getroffen, die das jeweilige Phänomen zuerst entdeckt oder beschrieben hat. Neue Begriffe werden dabei vorwiegend für neue Entitäten eingeführt (Elektron, Quark, Quasar usw.), für Prozesse werden dagegen meist bekannte Begriffe verwendet: hüpfen, stößen, austauschen, zerfallen usw. Letzteres führt oft zu anfänglicher Verwirrung oder Fehlinterpretationen. Allerdings sind diese Begriffe meist sehr fest in der Fachwelt verankert, wobei dort auch keine Gefahr der Fehlinterpretationen mehr bestehen sollte. Stattdessen werden die jeweiligen Begriffe entsprechend ihrem Zusammenhang interpretiert, ähnlich wie im Alltagsleben in den allermeisten Fällen klar sein sollte, dass jemand, der sein Geld „zur Bank bringt“, nicht vorhat, es auf einer Parkbank abzulegen, oder dass jemand, der einen Raum „belegt“, dafür in der Regel keine Wurst verwendet. Versuche, derart doppelt belegte(!) Begriffe in der aktiven Lehre zu ersetzen mit dem Ziel, Verwirrung zu vermeiden, haben typischerweise den gegenteiligen Effekt. Die Lehre entwickelt dann eine von der Fachwelt separate Sprache, was die Kommunikation unnötig erschwert und gerade deshalb zu Verwirrung führt. Im Übrigen hat man ja, wenn man eine derartige Ersetzung anstrebt, wiederum die Wahl zwischen einem Alltagsbegriff und einem völlig neuartigen Terminus. Im ersteren Fall wird man erneut vor der Schwierigkeit stehen, dass das zu beschreibende Phänomen eben im Alltag nicht vorkommt, und der Alltagsbegriff deshalb wiederum bestenfalls näherungsweise gelten kann. Betrachten wir zwei konkrete Beispiele. In Abschn. 2.3.3 wurde kurz der Zerfall eines Higgs-Bosons in ein μ+ μ− -Paar angesprochen. Aus klassischer Sicht würde man den Begriff „Zerfall“ vielleicht als Desintegration eines Verbundes von Komponenten in mehrere, kleinere Verbünde eben dieser Komponenten verstehen. Allerdings war das μ+ μ− -Paar im Endzustand niemals Bestandteil des Higgs-Bosons. Letzteres „zerfällt“ also nicht auf dieselbe Weise wie z. B. ein Haus zerfällt, dessen Steine aus dem Mauerverbund herausbrechen, und man mag sich die Frage stellen, ob die Anwendung des Begriffes im Fall des Prozesses H → μ+ μ− seine Berechtigung hat. Die Antwort darauf ist ein klares „ja“, genauso, wie sie für jeden anderen Begriff „ja“ sein müsste, solange er in der Fachwelt zur Bezeichnung dieses Pro-

2

Erzeugung und Vernichtung von Teilchen

35

zesses etabliert ist. Letztendlich wird kein Begriff aus der klassischen Physik zu 100 % auf diesen Prozess passen, und damit ist einer so gut wie der andere. Einmal definiert, wird dem Eingeweihten immer aus dem Kontext klar sein, was gemeint ist – und schließlich geht es im Schulunterricht darum, Eingeweihte aus Uneingeweihten zu machen. Ein Beispiel dazu aus dem Alltag: Jemand, der den Ausdruck „der Hund schlägt an“ das erste Mal hört, wird sich wundern, was damit gemeint sein könnte. Einmal erklärt, wird er dankbar sein für diesen hilfreichen, wenn auch etwas ungewöhnlich anmutenden Begriff, der einen bestimmten Vorgang prägnant und eindeutig beschreibt. Ein ähnlicher Aspekt sollte ebenfalls nicht unterschätzt werden. Das Erlernen spezieller Bedeutungen von Begriffen in der Fachwelt ist ein wenig mit dem Erwerb einer Geheimsprache vergleichbar: Wer die korrekten Ausdrücke verwendet, gehört in gewissem Maße „dazu“. Das gilt in der Wissenschaft in ähnlicher Weise wie beim Sport (Fußball: Er hat „keinen rechten Fuß“), im Berufsleben (eine Schiffsladung „löschen“) oder im sozialen Alltag (Stichwort: Jugendsprache). Das kann gerade im Schulalter ein wichtiger Anreiz zu sein, nicht nur die Fachtermini zu lernen, sondern auch die zugrunde liegenden Bedeutungen genauer zu verstehen. Das zweite Beispiel ist der Begriff des Teilchens, von dem wir für gewöhnlich ebenfalls bestimmte Vorstellungen haben, die aus der klassischen Physik herrühren. Diese Vorstellungen mögen im Rahmen der Quantenmechanik nicht erfüllbar sein; dennoch hindert uns nichts daran, bestimmte Entitäten oder Konzepte der Quantenmechanik oder Quantenfeldtheorie als „Teilchen“ zu bezeichnen, solange wir uns der speziellen Bedeutung dieses Begriffs in diesem Kontext bewusst sind. Man sollte die intellektuellen Fähigkeiten von Schülerinnen und Schülern nicht unterschätzen: Wer sich Hunderte von Lateinvokabeln merken kann, dem sollte es auch nicht schwer fallen, Fachbegriffe, die dem Alltag entlehnt sind, in der Teilchenphysik richtig zu interpretieren.

3

Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse Brigitte Falkenburg

Inhaltsverzeichnis 3.1 3.2 3.3 3.4 3.5 3.6 3.7

Zur Entstehung der Astroteilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Botenteilchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Teilchen oder Wellen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Methoden der Astroteilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zum Wirklichkeitsverständnis der Astroteilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Multi-Messenger-Astrophysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskussion zum Vortrag von Brigitte Falkenburg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

38 40 42 45 49 50 51

Die Astroteilchenphysik (ATP) ist ein neueres Teilgebiet der Physik, das die Brücke zwischen Mikrokosmos und Makrokosmos, von der Welt der subatomaren Teilchen zum Universum schlägt. Sie untersucht mit Teleskopen, die aus Teilchendetektoren zusammengesetzt sind, die kosmische Strahlung, um auf deren Quellen im Universum zurückzuschließen, und spannt so den Bogen von der Teilchenphysik zur Kosmologie. Dabei betrachtet man die kosmische Strahlung als Botenteilchen, die Information aus kosmischen Strahlungsquellen zur Erde transportieren. Wenn man hier von „Botenteilchen“ spricht, so hat dies eine lange Tradition, aber es ist zu beachten, dass der Teilchenbegriff heute keine klassische Bedeutung mehr hat. Die kosmische Strahlung besteht aus ungeladenen und geladenen subatomaren Teilchen, die bei ihrer Messung den üblichen Welle-Teilchen-Doppelcharakter von Quantenphänomenen aufweisen. Mit „Teilchen“ meint man zunächst nur, was die Teilchendetektoren messen. Und „Information“ bezieht sich auf die Signalübertragung von einer kosmischen Strahlungsquelle zum Messgerät und das daraus gewonnene Wissen. Bemerkenswert daran ist, wie man hier die Brücke von der Teilchenphysik

B. Falkenburg (B) Institut für Philosophie und Politikwissenschaft, Technische Universität Dortmund, Dortmund, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_3

37

38

B. Falkenburg

zur Kosmologie schlägt, obwohl es nach wie vor keine einheitliche physikalische Theorie gibt, die beide Gebiete begründen könnte. Die ATP erweitert die empirischen Grundlagen der Kosmologie heute von rein astronomischen Daten zu einer „Multi-Messenger-Astrophysik“, die alle Arten von kosmischer Strahlung misst, vom sichtbaren Licht über hochenergetische Gammastrahlen, Neutrinos und geladene Teilchen bis hin zu Gravitationswellen, deren Messung unter anderem Informationen über Schwarze Löcher liefert. Hier skizziere ich zunächst (Abschn. 3.1) die Entstehung der Astroteilchenphysik. Sodann stelle ich die zugrunde liegenden Konzepte vor: (Abschn. 3.2) das Konzept der Botenteilchen, (Abschn. 3.3) den Welle-Teilchen-Dualismus der kosmischen Strahlung, (Abschn. 3.4) die Phänomene, Methoden und Strategien der ATP, (Abschn. 3.5) Wirklichkeitsverständnis und Konsequenzen der ATP für das physikalische Weltbild, sowie in Abschn. 3.6 die heutige Erweiterung der Astronomie zur Multi-Messenger-Astrophysik.

3.1

Zur Entstehung der Astroteilchenphysik

Obwohl die Astroteilchenphysik unter dieser Bezeichnung ein recht junges Forschungsgebiet ist, greift sie auf ältere Ansätze zur Erforschung der „Höhenstrahlung“ oder „cosmic rays“ zu Beginn des 20. Jahrhunderts zurück (Falkenburg und Rhode 2007, 2012). Dabei hat sie ihren Ursprung nicht nur in den Anfängen der Atom-, Kern- und Teilchenphysik, sondern auch in der Klimaforschung. Die kosmische Strahlung wurde im Gefolge der Erforschung der Ionisation von Luft und anderen Gasen entdeckt, als Physiker Eichmessungen für ihre Elektroskope durchführten. Die Astroteilchenphysiker datieren den Beginn ihrer Disziplin meist auf die Entdeckung der kosmischen Strahlung durch Victor Hess (1883–1964), der die Ionisation der Luft bei Ballonfahrten maß und 1912 feststellte, dass die ionisierende Strahlung in großer Höhe viel stärker ist als auf dem Erdboden. Bis Mitte des 20. Jahrhunderts entwickelte sich zunächst die Teilchenphysik aus den Messungen der kosmischen Strahlung. Seit 1912 konnte man Spuren der α- und β-Strahlung aus radioaktiven Quellen in der Wilsonschen Nebelkammer sichtbar machen, wobei schon bekannt war, dass α-Strahlen aus Heliumkernen und β-Strahlen aus Elektronen bestehen. In den späten 1920er Jahren wiesen die Physiker mit der Nebelkammer anhand der gekrümmten Spuren, die geladene Teilchen der „Höhenstrahlung“ in einem Magnetfeld hinterlassen, nach, dass die Strahlung extraterrestrischen Ursprung hat. Seitdem nannte man sie kosmische Strahlung bzw. cosmic rays. Ab den 1930er Jahren entdeckten Physiker in den USA mit der Wilson-Kammer eine Vielzahl von neuartigen Teilchen in der kosmischen Strahlung, angefangen mit dem Positron, einem positiv geladenen Teilchen mit der Masse und Ladung des Elektrons (siehe Abb. 3.1a). Später konnten die Messmethoden verfeinert werden. Um die Masse der neu entdeckten Teilchen genauer zu bestimmen, ließ man auf Ballonfahrten Fotoplatten mit Kernspuremulsionen, die sich der Kernphysik verdankten, belichten (Abb. 3.1b). So ließen sich das Pion und das Myon als geladene Teilchen unterscheiden, deren Masse zwischen der Protonmasse und der Elektronmasse lag (Falkenburg 2007, S. 114 ff.).

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

39

Abb. 3.1 Teilchenspuren aus der kosmischen Strahlung. a Die Spur des Positrons (Anderson 1933, S. 492); b Protonspuren (Powell et al. 1959, S. 31)

In der Teilchenphysik verlor die Erforschung der kosmischen Strahlung ungefähr ab 1960 an Bedeutung. Man baute Teilchenbeschleuniger, die geladene Teilchen immer höherer Energie produzierten, und entwickelte zu ihrem Nachweis neuartige, präzisere Teilchendetektoren wie die Blasenkammer. Die Physik der Atmosphäre bildete eine Nische, in der die kosmische Strahlung weiter erforscht wurde, bis sich ihre Untersuchung schließlich in die Astrophysik verschob. Ausgangspunkt dafür war die extraterrestrische Herkunft der Strahlung. Eine Reihe technischer Entwicklungen, vor allem in der Funktechnik, favorisierte die Rückkehr zu Experimenten mit unbemannten Ballons. Die Apparaturen wurden leichter; Radiosender machten es möglich, die gemessenen Daten noch während der Messung zu übermitteln; die übermittelten Werte wurden nun mit Oszilloskopen sichtbar gemacht und auf Film aufgezeichnet. Der Aufstieg von Ballons in die Stratosphäre wurde zur Grundlage für die späteren Experimente mit Satelliten. In der Astrophysik wies die Untersuchung der kosmischen Strahlung dann einen unerwarteten spektakulären Erfolg auf. 1964 entdeckten A. Penzias und R. W. Wilson mit einer (zu einem ganz anderen Zweck gebauten) Radioantenne die 3K-Mikrowellen-Hintergrundstrahlung des Universums, die das Standardmodell der heutigen Kosmologie stützte: das Urknall- oder big bang-Modell, das sich nun gegen das konkurrierende steady state-Modell eines statischen Universums durchsetzen konnte. Damit war die Brücke von der Erforschung der kosmischen Strahlung zur Kosmologie geschlagen. Die 3K-Strahlung war schon in den 1940er Jahren als Effekt einer Abkühlung des frühen, heißen Universums nach dem big bang vorhergesagt worden (Goenner 1994, S. 34). Ihre Homogenität über Bereiche des Universums hinweg, die nach der speziellen Relativitätstheorie längst nicht mehr kausal verbunden sind, wurde durch die Inflation des frühen Kosmos erklärt (Goenner 1994, S. 203 ff.). Der 1989 gestartete COBE-Satellit (Cosmic Background Explorer) konnte eine Inhomogenität in der 3K-Hintergrundstrahlung messen, d. h. geringfügige Schwankungen, die ebenfalls große Bedeutung für das big bang-Modell der Kosmologie haben. Als neue, relativ eigenständige Teildisziplin der Physik zwischen Teilchenphysik, Astrophysik und Kosmologie formierte sich die Astroteilchenphysik schließlich Ende der 1980er Jahre. Anlass dafür war, dass die damaligen Teilchenbeschleuniger ihre Leistungsgrenzen erreichten und die Planung neuer Beschleunigerexperimente

40

B. Falkenburg

immer personalintensiver, teurer und langwieriger wurde. Die Begründer der ATP stammten aus der Teilchenphysik, sie konnten auf ihre Erfahrungen mit dem Bau von Teilchendetektoren und der Analyse von Teilchenspuren aus den hochenergetischen Streuexperimenten an den Teilchenbeschleunigern zurückgreifen. Damit flossen die Erkenntnisse der Teilchenphysik zuletzt wieder zurück in die Erforschung der kosmischen Strahlung.

3.2

Botenteilchen

Angefangen mit der Rede von Botenteilchen oder kosmischen Boten („cosmic messengers“) teilt die ATP ihre grundlegenden Begriffe mit der Teilchen- und der Astrophysik. Der historische Hintergrund des Konzepts der Botenteilchen ist die Astronomie der frühen Neuzeit (Falkenburg 2012b). Galilei veröffentlichte seine Entdeckung der Jupitermonde durch Beobachtung mit dem Fernrohr in der Schrift Sidereus Nuncius (Galilei 1610), auf Deutsch: Der Himmelsbote. Der Titel ist doppeldeutig. Einerseits ist Galileis Schrift der Bote, der die Nachricht von neuen, mit dem bloßen Auge nicht sichtbaren Himmelskörpern oder Sternen überbringt. Andererseits ist es das mit dem Fernrohr beobachtete Licht selbst, das diese Nachricht transportiert. Galilei folgend hat es sich in der späteren Astronomie und Astrophysik eingebürgert, das Licht metaphorisch als einen kosmischen Boten zu bezeichnen, der Information aus den Weiten des Universums auf die Erde überträgt. Im 20. Jahrhundert verallgemeinerten die Physiker diese Redeweise auf die elektromagnetische Strahlung von Radiowellen im Infrarotbereich bis hin zur hochenergetischen γ -Strahlung im Ultraviolettbereich sowie auf die Feldquanten, die nach den heutigen Quantenfeldtheorien physikalische Wechselwirkungen vermitteln. Heute bezeichnet man die Feldquanten dieser Wechselwirkungen gern anschaulich als Austauschoder Botenteilchen, vom Photon, Lichtquant oder γ -Quant, das elektromagnetische Kräfte vermittelt, über die W ± - und Z -Bosonen der elektroschwachen Kraft bis hin zu den Gluonen als Trägern der starken Wechselwirkung, deren Prozesse die Protonen und Neutronen im Innern des Atomkerns zusammenhalten. In der ATP flossen beide Bedeutungen zusammen. Hier betrachtet man die subatomaren Teilchen, aus denen die kosmische Strahlung besteht, als Botenteilchen, die Information von kosmischen Strahlungsquellen auf Teilchendetektoren auf der Erdoberfläche, aber auch auf Weltraumteleskope wie das berühmte Hubble-Teleskop überträgt. Das Konzept der Botenteilchen ist in der Astroteilchenphysik weitverbreitet. In der ATP ist von einer „Multi-Messenger-Astronomie“ (Halzen 2003) die Rede, und insbesondere von den Neutrinos als „wertvollen kosmischen Boten, die einzigartige Informationen aus dem Kern der Sonne und aus den tiefsten Bereichen des Universums liefern“ (McDonald 2010, meine Übersetzung). Die kosmische Strahlung wird dabei in einem heuristischen nachrichtentechnischen Modell als ein Träger physikalischer Information betrachtet, die von kosmischen Objekten ausgesandt wird, sich durch das Universum zur Erde ausbreitet und schließlich auf der Erde (oder von Satelliten und Weltraumteleskopen)

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

41

aufgenommen wird (Abb. 3.2). Die kosmischen Objekte sind Sterne, Supernovae und ihre Reste (SNR), aktive galaktische Kerne (AGN), Ausbrüche hochenergetischer γ -Strahlen (GBR), aber auch die 3K-Hintergrundstrahlung, die aus allen Richtungen zur Erde gelangt und als Nachhall des Urknalls gilt. Ungeladene Botenteilchen wie Photonen (γ ) oder Neutrinos (ν) breiten sich geradlinig durch das Universum aus, d. h., die Richtung, aus der sie kommen, weist direkt auf ihre kosmische Quelle hin. Dagegen werden geladene Botenteilchen wie Protonen (p) oder Elektronen (e) durch interstellare Magnetfelder abgelenkt. Deshalb zielen viele Experimente der ATP auf die Messung von Photonen oder Neutrinos. Die Primärteilchen der kosmischen Strahlung erzeugen sekundäre Teilchenschauer in der Atmosphäre, die auf der Erde gemessen werden und aus denen man dann auf die Primärteilchen und ihre Energie zurückschließt. Insgesamt passen die Experimente der ATP bestens zu einem generalisierten Konzept der Beobachtung, das am Beispiel der Solarneutrinos entwickelt wurde (Shapere 1982). Danach besteht eine Beobachtung – in dem weiten Sinne, in dem Physiker von Beobachtungen sprechen – in der Übertragung von Information. Dabei hat man (i) einen Sender, (ii) ein Signal, das sich ausbreitet, und (iii) einen Empfänger, der die vom Signal übertragene Information ausliest. Der Sender ist ähnlich wie in der Nachrichtentechnik eine Quelle elektromagnetischer oder anderer Strahlung. Die Signale sind elektromagnetische Wellen innerhalb und außerhalb des sichtbaren Bereichs: Licht, Infrarotstrahlung (Radiowellen, Wärmestrahlung), Ultraviolettstrahlung (Gammastrahlung); hochenergetische geladene subatomare Teilchen

Abb. 3.2 Botenteilchen: kosmische Quellen, Ausbreitung durch das Universum und Messung (Wagner 2004)

42

B. Falkenburg

wie die Protonen (Wasserstoffatomkerne) oder ungeladene Teilchen wie Neutrinos (die bei radioaktiven Kernzerfällen und anderen Prozessen der schwachen Wechselwirkung entstehen). Die Empfänger bestehen aus Teilchendetektoren. Sie messen die kosmische Strahlung mit einem Kollektiv von Detektoren, die zusammen als Teleskop fungieren, welches wie einst Galileis Fernrohr ein Bild kosmischer Objekte liefern soll. Sender und Signale sind dabei extraterrestrischen Ursprungs. Die Teilchendetektoren, die man als Empfänger einsetzt, sind technische Konstrukte, deren physikalische Eigenschaften man aus der Teilchenphysik kennt. Die ATP setzt also Laborphysik ein, um kosmische Signale aufzunehmen und Information über die Strahlungsquellen, die sie ausgesandt haben, zu gewinnen. Dabei nimmt sie den Standpunkt eines wissenschaftlichen Realismus ein, d. h.: Sie unterstellt, dass im Experimentierlabor grundsätzlich dieselben Naturgesetze gelten wie außerhalb des Labors, in den extraterrestrischen und kosmischen Prozessen und Objekten, aus denen die kosmische Strahlung herrührt. Wie bei jeder Informationsübertragung versucht man dann, den Inhalt der Information, die man empfängt, zu entschlüsseln. Die Teilchendetektoren der ATP zeichnen Signale auf, aus denen man durch penible Datenanalyse auf die Natur der Strahlungsquelle zurückschließen will. Die Botschaft, die entschlüsselt werden soll, ist Information über die physikalische Beschaffenheit der Quellen der kosmischen Strahlung. Bis die Botenteilchen in einem Teilchendetektor auf der Erde eintreffen, haben sie eine weite Reise durch das Universum hinter sich. Dabei kann die Information unterwegs durch Wechselwirkung des Signals mit anderen kosmischen Objekten verzerrt oder verfälscht worden sein. In dem Prozess der Informationsübertragung ist neben Sender, Signalen und Empfänger oft noch ein Medium involviert, das die Signalausbreitung und damit die Informationsübertragung stört, wie im Fall geladener Teilchen die interstellaren elektromagnetischen Felder (Abb. 3.2). In den Experimenten will man solche Störfaktoren natürlich so weit wie möglich ausschalten.

3.3

Teilchen oder Wellen?

Zunächst betrachteten die Erforscher der Höhenstrahlung die kosmische Strahlung als Wellen. Die Messung von Teilchenspuren aus der kosmischen Strahlung mit der Wilson-Kammer wies dagegen darauf hin, dass es sich um geladene Teilchen handelte. Auch nach der Begründung der Quantenmechanik und der Quantenelektrodynamik ließ sich die Entstehung der Teilchenspuren in der Wilson-Kammer näherungsweise im klassischen Teilchenbild erklären (Heisenberg 1930, S. 50 ff.). Mit der philosophischen Diskussion um die Deutung der Quantenmechanik wurde jedoch klar, dass die kosmische Strahlung den typischen Welle-Teilchen-Dualismus von Quantenphänomenen zeigt. Die Gedankenexperimente der Bohr-Einstein-Debatte (Bohr 1949) zum Durchgang subatomarer Teilchen durch einen Doppelspalt konnten in den letzten Jahrzehnten realisiert und in vielen Hinsichten verfeinert werden (Falkenburg (2002) sowie (Falkenburg 2007, S. 265 ff.)). Sie zeigen, dass sich subatomare Teilchen als Wellen (genauer: als Schwingungen von Quantenfeldern)

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

43

ausbreiten, wobei sie Interferenzphänomene zeigen, wie sie bei der Überlagerung von Wellen entstehen; dagegen werden sie bei der Messung durch Teilchendetektoren als einzelne Teilchen (bzw. Feldquanten) registriert (Abb. 3.3). Ähnliche Ergebnisse erhält man mit einem Mach-Zehnder-Interferometer, das mit einem halbdurchlässigen Spiegel einen Laserstrahl teilt und die beiden Lichtstrahlen anhand von zwei Spiegeln und eines zweiten Strahlteilers am Ende wieder zusammenführt (Abb. 3.4). Zu diesem und verwandten Experimenten, die den Welle-Teilchen-Dualismus der Photonen demonstrieren, gibt es umfangreiches Unterrichtsmaterial für die Quantenphysik (Müller und Wiesner o. J.). Die Ergebnisse der Experimente mit Lichtquanten sind auf geladene subatomare Teilchen wie Elektronen oder Protonen zu verallgemeinern. In der heutigen Quantenoptik werden auch Interferenzexperimente mit einzelnen Atomen durchgeführt. Was ist beim Welle-Teilchen-Dualismus der Quantenphänomene mit „Welle“ und „Teilchen“ gemeint? Entscheidend ist: Um Wellen und Teilchen im klassischen Sinn handelt es sich dabei nicht. Typisch für Quantenphänomene ist, dass Photonen, Elektronen oder Protonen – je nach der Experimentierapparatur, mit der man sie misst – wellenartige Interferenzphänomene oder aber teilchenartige Phänomene wie Teilchenspuren erzeugen. Unter geeigneten experimentellen Bedingungen kann man auch beide Arten von Phänomenen beobachten, wie beim Doppelspaltexperiment oder im Mach-Zehnder-Interferometer mit einem Laser extrem niedriger Intensität. Nach der üblichen Wahrscheinlichkeitsdeutung der Quantenmechanik (Born 1926; Neumann 1932) zeigt sich der Teilchencharakter von Quantenobjekten bei der Messung, wenn es in einem Teilchendetektor einmal oder

Abb. 3.3 Doppelspaltexperiment mit einzelnen Photonen. (Nach 2003, S. 336)

44

B. Falkenburg

Abb. 3.4 Mach-Zehnder-Interferometer nach (Müller und Wiesner o. J., S. 2)

mehrfach hintereinander „Klick“ macht: z. B. in einem Geigerzähler, Photomultiplier, in der Wilsonschen Nebelkammer der Frühzeit der Quantenphysik (Abb. 3.1a), den Kernspuremulsionen der Physik der kosmischen Strahlung (Abb. 3.1b) oder in der Blasenkammer der späteren Beschleunigerphysik. Dagegen drückt sich der Wellencharakter von Quantenobjekten in der theoretischen Beschreibung des Geschehens durch die quantenmechanische Wellenfunktion ψ aus, deren Betragsquadrat |ψ|2 die physikalische Bedeutung einer Wahrscheinlichkeitsdichte hat, oder allgemeiner: des Erwartungswerts für eine quantenmechanische Observable. Im Fall der Photonen besagt die probabilistische (statistische) Deutung der Quantentheorie, dass der Erwartungswert für die Besetzungszahl des (quantisierten) elektromagnetischen Felds der relativen Häufigkeit der „Klicks“ in einem Teilchendetektor entspricht. Viel mehr als diese „Klicks“ und die Erhaltungssätze für Masse bzw. Energie und Ladung bleibt in der Quantentheorie vom klassischen Teilchenkonzept nicht übrig (Falkenburg 2007, 2012a). Auch in der Astroteilchenphysik macht sich der Welle-Teilchen-Dualismus der kosmischen Strahlung bemerkbar. Man nimmt die Spuren geladener Teilchen aus der kosmischen Strahlung mit Teilchendetektoren auf; in den 1930er bis 1950er Jahren waren das die Wilson-Kammer oder Kernspuremulsionen (Abb. 3.1a und b), während die Experimente der heutigen ATP moderne Teilchendetektoren wie Cerenkov-Zähler einsetzen. Daneben spielt aber auch die Interferenz von Wellen oder Quantenfeldern eine Rolle, wie die Neutrinooszillationen zeigen. Zu den ersten Experimenten der ATP gehörten die Messungen der Solarneutrinos mit dem SuperKamiokande-Detektor im Jahre 1999 Die Flussmessung der Sonnenneutrinos gilt als experimenteller Nachweis der Neutrinooszillationen. Sie ergab, dass weniger Neutrinos aus den kernphysikalischen Prozessen der Sonne auf der Erde eintreffen als erwartet. Dies wird als Effekt einer quantentheoretischen Superposition von zwei Neutrinosorten erklärt, die sich während der Ausbreitung der Neutrinos von der Sonne zur Erde ineinander umwandeln. Die Wellennatur der kosmischen Strahlung zeigt sich auch an Gravitationslinsen. Sie beugen das Licht um große Massen im Universum herum, so dass Galaxien, die sich dahinter befinden, ringförmig mehrfach abgebildet werden (Einstein-Ringe). Dies ist kein Quantenphänomen, sondern ein allgemein-relativistischer Effekt, bei dem klassische elektromagnetische Wellen bei ihrer Ausbreitung durch ein Schwerefeld abgelenkt werden.

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

3.4

45

Methoden der Astroteilchenphysik

Die kosmische Strahlung umfasst viele Phänomene, nämlich alle Arten extraterrestrischer Strahlung hoher und niedriger Energie, von Radiowellen über sichtbares Licht, γ -Strahlen, Elektronen, Myonen, Pionen, Neutrinos und andere geladene oder ungeladene subatomare Teilchen, von der 3K-Hintergrundstrahlung des Universums bis hin zu extrem hochenergetischen Teilchen von 1020 eV. All diese Phänomene sind nur zum geringsten Teil mit bloßem Auge sichtbar. Einem wissenschaftlichen Realismus entsprechend, der typisch für die meisten Physiker ist und wie ihn die Philosophen Bogen und Woodward (1988) vertreten, gelten sie als Tatsachen der Natur. Die Phänomene der kosmischen Strahlung sind äußerst divers. Sie reichen von der Teilchenphysik zur Astrophysik und Kosmologie; von den subatomaren Teilchen, die Spuren in Teilchendetektoren hinterlassen, über die Radiowellen der kosmischen Hintergrundstrahlung bis zu Ausbrüchen hochenergetischer γ -Strahlung bei Sternexplosionen und -kollapsen in fernen Galaxien. Die Astroteilchenphysiker fassen diese Phänomene in einem Diagramm mit einer doppelt-logarithmischen Skala zusammen (Abb. 3.5). Die verschiedenen Beiträge zum „Allteilchenspektrum“ stammen aus vielen Experimenten zur Messung spezifischer Arten von Teilchen (geladene Teilchen, Photonen, Neutrinos) bei unterschiedlichen Energien. All diese Messergebnisse in einem einzigen Diagramm darzustellen, leistet eine phänomenologische Vereinheitlichung (siehe Abb. 3.5). Durch die Zusammenführung aller verfügbaren Daten von sehr niedrigen bis extrem hohen Energien wird hier die Brücke von der Kosmologie zu subatomaren Teilchen geschlagen. Die Stärke der Strahlung nimmt näherungsweise nach einem Potenzgesetz ab. Das Spektrum reicht von sehr niedrigen bis zu extrem hohen Energien, von der 3K-Hintergrundstrahlung bis zu einigen wenigen Protonen von 1020 eV, das sind subatomare Teilchen mit der kinetischen Energie eines Tennisballs! Die kosmischen Strahlen der niedrigsten Energie stammen aus der kosmischen Hintergrundstrahlung, die als Effekt der Standard-Kosmologie gedeutet wird. Die Strahlung der höchsten Energien wird auf der Grundlage des Standardmodells der Teilchenphysik aus Teilchenschauern sekundärer kosmischer Strahlung rekonstruiert, die hochenergetische Primärteilchen in der Atmosphäre auslösen. Die Experimente und Modelle der Astroteilchenphysik zielen darauf, diese Phänomene zu erklären. Ziel ist, den Ursprung der verschiedenen Typen der kosmischen Strahlung zu klären, Rückschlüsse auf ihre kosmischen Quellen zu ziehen und die physikalischen Prozesse zu verstehen, denen sie ihre Energie verdanken. Ein Problem ist, dass es nur wenige Daten gibt; so stammen die meisten Neutrinos, die auf der Erde gemessen werden, aus der Sonne oder aus Sekundärreaktionen in der Atmosphäre. In der ATP handelt es sich darum um Hochpräzisionsexperimente, bei denen die Trennung von Signal und Hintergrund eine große Rolle spielt. Die Modelle der ATP zielen unter anderem darauf, die Abweichungen vom Potenzgesetz im Allteilchenspektrum zu verstehen. Es gibt zwei Energiebereiche mit Strahlung stärkerer Intensität, das „Knie“ (knee) und den „Knöchel“ (ankle) (Abb. 3.5); durch astrophysikalische Modelle der Strahlung, die Supernovae (SN), Supernovae-Überreste (SNR) und aktive galaktische Kerne (AGN) aussenden,

46

B. Falkenburg

Abb. 3.5 Das Allteilchen-Spektrum der kosmischen Strahlung (Becker 2008)

lassen sie sich grob erklären (Abb. 3.6). Die Modelle beruhen auf astrophysikalischen Daten, die aus Messungen der Luminosität und der Spektren der kosmischen Quellen sowie deren zeitlicher Entwicklung gewonnen werden. Aktive galaktische Kerne werden auf schwarze Löcher im Zentrum von Galaxien zurückgeführt. Eine weitere, bislang ungeklärte Frage ist, woher die extrem hochenergetischen Teilchen mit 1020 eV kommen. Die Astroteilchenphysik ist insgesamt eine sehr besondere Disziplin der Physik. Sie zielt auf die Klärung fundamentaler Probleme der Physik, indem sie die Brücke von der Teilchenphysik zur Kosmologie schlägt. Sie beruht auf disparaten Standardmodellen der Teilchenphysik und der big bang-Kosmologie, die inkompatible theoretische Grundlagen haben. Es gibt nach wie vor keine einheitliche Fundamentaltheorie der Physik, die es leisten könnte, die Standardmodelle der Teilchenphysik und der Kosmologie zu vereinheitlichen sowie deren Erklärungslücken (die u. a. die Neutrinomassen betreffen) zu beheben. Die ATP ist deshalb Patchwork-Physik im Sinne von Nancy (Cartwright 1983, 1999).

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

47

Abb. 3.6 Unterschiedliche Beiträge zum Allteilchenspektrum, nach astrophysikalischen Modellen von Supernovae (SN), Supernovae-Überresten (SNR) und aktiven galaktischen Kernen (AGN); vgl. Rhode (2002)

Die Physik findet sich jedoch nie mit den fehlenden einheitlichen Grundlagen ab, sondern die Suche nach theoretischer Einheit bleibt in der Tradition von Newton, Maxwell und Einstein ihr Programm. Die Astroteilchenphysik verfolgt eine pragmatische Vereinheitlichungsstrategie. Diese pragmatische Vereinheitlichung ist vorläufige Physik im Sinne von Audretsch (1989), und sie erfolgt auf vier Stufen einer Kombination der Ansätze unterschiedlicher Teildisziplinen der Physik Falkenburg (2012b): 1. Vereinheitlichung der Phänomene: Das Allteilchenspektrum (Abb. 3.5) vereinheitlicht alle Arten kosmischer Strahlung phänomenologisch in ein einziges Diagramm, das den Teilchenfluss in Abhängigkeit von der Energie darstellt. Weitere, etwas spezifischere Diagramme stellen den Teilchenfluss der geladenen Teilchen, der Photonen oder der Neutrinos in Abhängigkeit von der Energie dar, ebenfalls über alle Energiebereiche. 2. Begriffliche Vereinheitlichung: Phänomene der Physik ohne theoretische Erklärung sind Effekte mit unbekannter Ursache. Das Ziel der Physik ist es, diese Effekte durch Angabe ihrer Ursachen zu erklären; und sie beschreibt diese Ursachen durch Kräfte bzw. Felder und subatomare Teilchen. Bei der kosmischen Strahlung sind die Ursachen Gegenstand der Standardmodelle der Kosmologie und der Teilchenphysik. Da es keine einheitliche Theorie gibt, die beiden Standardmodellen zugrunde liegt, ist es nicht möglich, die Entstehung, Ausbreitung und Messung der kosmischen Strahlung durch Naturgesetze, die den gesamten Prozess abdecken, lückenlos als kausalen Prozess zu rekonstruieren. Darum benö-

48

B. Falkenburg

tigen die Physiker ein informelles, heuristisches Verständnis der kausalen Mechanismen, die bei der Produktion und Detektion der kosmischen Strahlung im Spiel sind – und hier kommt das heuristische Konzept der Botenteilchen (Abb. 3.2) ins Spiel, das ursprünglich aus der Astronomie stammt und heute auf Begriffe der Nachrichtentechnik zurückgreift. 3. Vereinheitlichung der Messmethoden: Man kombiniert die Messmethoden der Teilchen- und der Astrophysik, indem man viele Teilchendetektoren, die auf eine bestimmte Art von kosmischer Strahlung ansprechen, zu großflächigen Teleskopen zusammensetzt (Abb. 3.7). Die Teleskope messen γ -Quanten, Neutrinos oder sekundäre Teilchenschauer, die durch hochenergetische Primärteilchen in der Atmosphäre ausgelöst werden, und sie dienen dazu, kosmische Quellen abzubilden. Bei der Datenanalyse greift man auf das Wissen aus der Teilchenphysik zurück; neuerdings setzt man darüber hinaus Methoden des maschinellen Lernens ein, die eine probabilistische Datenanalyse vornehmen, und lässt damit die traditionelle Analyse einzelner Teilchenspuren hinter sich (Falkenburg 2012c). 4. Vereinheitlichung der Erklärung: Die zentrale Frage der ATP ist natürlich: Woher kommt die kosmische Strahlung? Um den Ursprung und die Energie der verschiedenen Arten kosmischer Strahlung zu erklären, kombiniert die ATP bewährte Modelle der Kern- und Plasmaphysik, der Teilchenphysik, der Astrophysik sowie der Kosmologie (Abb. 3.6). Die Kernphysik erklärt die Sternentwicklung sowie auch die Entstehung von Supernovae, die Teilchenphysik die Entstehung und Ausbreitung der kosmischen Strahlung und die Plasmaphysik die Beschleunigung geladener Primärteilchen durch Schockwellen in den extrem heißen kosmischen Quellen. Die Kosmologie schließlich erklärt die kosmische Hintergrundstrahlung, die Entstehung Schwarzer Löcher sowie deren Rolle für die Ausbrüche von Gammablitzen (gamma ray bursts) im Universum, die man heute als die Aussendung von Jets hochenergetischer Gammastrahlung durch die Akkretionsscheibe einer Galaxie mit aktivem galaktischem Kern erklärt.

Abb. 3.7 Das Neutrinoteleskop MAGIC am Roque de Los Muchachos, La Palma (Bildnachweis: https://commons.wikimedia.org/wiki/File:The_MAGIC_Telescope.jpg)

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

49

Die Kombination all dieser Methoden und Modelle aus den unterschiedlichsten Bereichen der Physik beruht auf einem heuristischen Glauben an eine fundamentale Einheit der Natur, und sie erfolgt ganz so, als ob es die gesuchte einheitliche Fundamentaltheorie der Physik bereit s gäbe. Damit steht die Astroteilchenphysik in der Tradition der gesamten neuzeitlichen Physik, die seit Galilei und Newton eine einheitliche Erklärung der Phänomene in der Natur als ihr Ziel betrachtete.

3.5

Zum Wirklichkeitsverständnis der Astroteilchenphysik

Wegen der indirekten Messmethoden und der zum Teil schmalen Datenbasis der ATP werfen diese Modelle jedoch die Frage auf, inwieweit sie die physikalische Wirklichkeit beschreiben, also im Sinne eines wissenschaftlichen Realismus gedeutet werden dürfen. Dem zentralen Konzept der Botenteilchen liegt ja ein realistisches gedeutetes Modell der Informationsausbreitung zugrunde. Dieses Modell hat großen heuristischen Wert. Es handelt es sich nur um ein grobes Modell, aber die Astroteilchenphysiker unterstellen, dass es ein ziemlich wirklichkeitsgetreues Bild der physikalischen Natur der kosmischen Strahlung liefert. Die physikalischen Details der Entstehung und Ausbreitung der kosmischen Strahlung in den unterschiedlichen Bereichen des Energiespektrums sind weniger gut gesichert. Kein Physiker wird denken, dass die Natur wirklich so beschaffen ist, wie es die Beiträge zum Allteilchenspektrum in (Abb. 3.6) indizieren, d. h., dass sich die einzelnen Anteile der kosmischen Strahlung tatsächlich so grobschlächtig aus Supernovae, SupernovaeÜberresten und aktiven galaktischen Kernen zusammensetzen, wie im Diagramm skizziert. Es handelt sich nur ein grobes, stark idealisiertes kausales Modell des Allteilchenspektrums, das präzisierungsbedürftig ist. Die Praxis der Astroteilchenphysik verbindet mit ihren Modellen unterschiedliche Aspekte eines wissenschaftlichen Realismus (Falkenburg 2012b): 1) einen Realismus der Entitäten, die Gegenstand der ATP sind, d. h. die Überzeugung, dass die Teilchen bzw. Wellen der kosmischen Strahlung und ihre Strahlungsquellen im Kosmos tatsächlich existieren; 2) einen Realismus der Phänomene, d. h. die Überzeugung, dass die gemessene Strahlung ein realer Bestandteil der Natur ist; 3) einen kausalen Realismus, d. h. die Überzeugung, dass die Ursachen dieser Strahlung sowie der kausale Prozess der Informationsübertragung von den Strahlungsquellen auf die Detektoren der ATP nach dem heuristischen Modell der Botenteilchen grundsätzlich richtig verstanden werden; 4) einen Realismus der Naturgesetze, d. h. die Überzeugung, dass die Gesetze, mit denen die Entstehung, Ausbreitung und Messung der kosmischen Strahlung beschrieben wird, wahr sind – was insbesondere für den quantentheoretischen Welle-Teilchen-Dualismus der kosmischen Strahlung gilt; 5) sowie das Ziel, wirklichkeitsgetreue kausale Modelle der kosmischen Strahlung, ihrer Entstehung, Ausbreitung und der durch sie übertragenen Information zu entwickeln. Die Wissenschaftsphilosophen konzentrieren sich in der Regel nur auf die eine oder andere spezifische Version eines wissenschaftlichen Realismus, um mit viel Scharfsinn für oder wider sie zu argumentieren (Psillos 1999). Dies wird der Praxis der Physik aber nicht gerecht. In der Astroteilchenphysik koexistieren viele

50

B. Falkenburg

Versionen eines wissenschaftlichen Realismus friedlich. Die realistischen Überzeugungen, welche die Physikerinnen und Physiker mit ihnen verbinden, sind teils stärker, teils schwächer ausgeprägt. Die Idealisierung von Wirklichkeitsausschnitten gehört ebenso zum Handwerk der Physik wie die andauernde Auseinandersetzung mit den Grenzen dieser Idealisierung. Die Suche nach einer allumfassenden physikalischen Theorie der Natur bleibt das Ziel, doch in der alltäglichen Forschungspraxis stellt sich weniger die Frage, ob ein Modell oder eine Theorie wahr ist, als vielmehr die Frage, wie gut ein Modell oder eine Theorie ist und wie realistisch die Idealisierungen sind, auf denen es beruht. Nicht nur in der Philosophie, sondern auch in der Didaktik der Physik sollte man sich deshalb davor hüten, die physikalische Forschungspraxis und ihre Ergebnisse vorschnell im Sinne einer bestimmten Position bezüglich des wissenschaftlichen Realismus zu verallgemeinern. Die „Ismen“ der Philosophen werden der komplexen Erforschung der Wirklichkeit durch die Physik nicht gerecht. Weder die Verallgemeinerung der heutigen Naturerkenntnis der Physik auf ein allumfassendes physikalisches Weltbild wird durch den gegenwärtigen Kenntnisstand der Physik gerechtfertigt noch die wissenschaftsskeptische Festschreibung auf das Gegenteil, einen Konstruktivismus, Instrumentalismus, Empirismus oder eine andere anti-realistische Position (Falkenburg 2008, 2011). Das gilt in besonderem Maße für die Astroteilchenphysik. Sie konstruiert Modelle des Naturgeschehens, die weit über den irdischen Erkenntnishorizont hinausgehen, und baut mit ihnen Brücken von der Teilchenphysik zur Kosmologie. Niemand in der Astroteilchenphysik denkt, dass diese Modelle uneingeschränkt wahr sind. Aber jede Physikerin und jeder Physiker verbindet mit ihnen sehr wohl den Anspruch, dass sie unsere Naturerkenntnis erweitern können.

3.6

Multi-Messenger-Astrophysik

Die Zukunft die Astroteilchenphysik liegt darin, alle möglichen Messmethoden der kosmischen Strahlung aller Arten über das gesamte Energiespektrum zu kombinieren. Das Ziel ist eine multi-messenger-Astrophysik, die Daten aus erdgebundenen Detektorfeldern und Teleskopen mit Daten von Satelliten und Weltraumteleskopen verbindet, alle Arten subatomarer Teilchen registriert, insbesondere Neutrinos und Photonen, und den Bereich von den niedrigsten bis zu den höchsten Energien möglichst lückenlos vermisst, in Erweiterung der früheren Astrophysik, die sich auf Licht, Radiowellen und ultraviolette Strahlung beschränkt hatte. Der Übergang zur „Multi-Messenger-Astrophysik“ verbreitert nicht nur die Datenbasis der Kosmologie, sondern er verändert auch das Verhältnis zwischen Theorie und Experiment in der Physik gravierend (Falkenburg 2014). Der „Multi-Messenger“-Ansatz zielt darauf ab, einen „Weltdetektor“ zu konstruieren, der aus möglichst vielen Experimenten verschiedener Art besteht. Zu diesen Entwicklungen kommen nun Gravitationswellen als die neuen kosmischen Boten. Neue Experimente sollen untersuchen, wie die kosmische Strahlung mit Gravitationswellen korreliert ist. Sie dienen etwa der Suche nach rotierenden

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

51

Schwarzen Löchern. Die Frage ist, ob die kosmische Strahlung höchster Energie ihren Ursprung in aktiven galaktischen Kernen hat, und ob die hochenergetischen Gammablitze aus der Verschmelzung Schwarzer Löcher resultieren. Dafür sollen auch die Daten räumlich getrennter Experimente kombiniert werden. Die Fusion der Astroteilchenphysik und der Gravitationsforschung, die damit angestrebt wird, erfolgt in der Hoffnung auf eine künftige Einheit der Physik. Die geplanten Multi-Experimente dienen dem Ziel, die physikalische Naturerkenntnis weitestmöglich zu vervollständigen. Allerdings wird vollständige Naturerkenntnis letztlich wohl nie erreicht – dafür ist die Natur vermutlich zu komplex.

3.7

Diskussion zum Vortrag von Brigitte Falkenburg zusammengefasst von O. Passon

In der Diskussion wird zunächst die Bedeutung des historisch-genetischen Zugangs hervorgehoben. Auf diese Weise könne etwa die Fallibilität von Wissenschaftlern und Wissenschaft illustriert werden. Ebenfalls besitzt die Untersuchung der Begriffsgeschichte einen hohen Bildungswert. Ulrich Heinen erinnert daran, dass der Begriff „Nuncius“ bereits bei Giambattista della Porta (1535–1615) verwendet wird. Hier jedoch ist der Gegenstand noch in ein magisches Weltverständnis eingebunden, nämlich im Sinne der alchemistischen Übertragung von Kräften, wie sie im 16. Jahrhundert noch weitverbreitet war. An dieser Stelle kann der Übergang zum empiristischen Verständnis der Naturwissenschaft nachvollzogen werden – ein Wechsel, der auch aus der Perspektive vieler Schülerinnen und Schüler sehr anspruchsvoll ist. Frau Falkenburg bemerkt in diesem Zusammenhang, dass die Arbeiten von Jens Pukies aus den 1970er Jahren zu „aristotelischen“ Schülervorstellungen in eine ähnliche Richtung wiesen. Zu den wenigen Autoren, die die Rolle eines magischen Weltbildes im Verhältnis zu den Naturwissenschaften thematisieren, gehöre Ernst Cassirer mit seiner Philosophie der symbolischen Formen. Dort fände eine Auseinandersetzung mit der Differenz zwischen Mythos und Wissenschaft statt. Oliver Passon bemerkt zunächst, dass der Begriff des „Botenteilchens“ zu der Verwechslung mit Eichbosonen einlädt. Diese Bedeutung ist hier natürlich nicht gemeint. Er hebt hervor, dass die Astroteilchenphysik ein besonders attraktiver Zugriff auf die Thematik dieser Tagung sei, da hier auf natürliche Weise die beiden bisher inkompatiblen Theorieansätze (Quantentheorie und RaumzeitTheorien) in ihrer Verbindung zueinander behandelt würden. Natürlich würde auf diese Weise jedoch eine Thematisierung des Teilcheninhalts nicht so leicht gelingen – immerhin enthielt der Vortrag nichts zu z. B. „Quarks“ oder der starken Wechselwirkung. Brigitte Falkenburg wendet ein, dass aber immerhin die Neutrinos eine herausragende Rolle innerhalb der Astroteilchenphysik spielten. Deren Oszillationen wären ein glänzendes Beispiel für quantenmechanische Superpositionen auf sehr großen Längenskalen. Wolfgang Wagner drückt seine Zustimmung aus, dass die Vortragende den Bildungswert der Teilchenphysik in so großer Nähe zu den fachlichen Inhalten sieht. Anschließend wendet er sich der Frage des Teilchennachweises im Detektor zu.

52

B. Falkenburg

Der in Wuppertal entwickelte curriculare Vorschlag zur Teilchenphysik würde zwar alleine schon aus Zeitgründen diesen Aspekt ausklammern, jedoch spräche noch ein anderer Aspekt dafür, ihm keine zentrale Rolle zuzuweisen. Bei genauerer Betrachtung nämlich, so die These, würde z. B. bei der Impulsmessung an einem Myon gar keine Teilchenphysik zur Anwendung kommen. Dieses Myon könne vielmehr wie ein klassisches Objekt behandelt werden. Frau Falkenburg widerspricht energisch. Für das Beispiel des Myons könne sie hier zwar zustimmen, aber beim Photon erfolgt der Nachweis über die Absorption, die klassisch nicht verstanden werden könne. Wagner schränkt ein, dass zumindest für alle Spurmessungen an geladenen Teilchen mit einer typischen Präzision von ca. 10−5 m Quanteneffekte gar keine Rolle mehr spielten. Frau Falkenburg gesteht zu, dass dies auf dem Niveau der Analyse einzelner Spuren zutreffe, jedoch anschließend auf der Ebene des Ensembles quantenfeldtheoretische Korrekturen durchaus eine Rolle spielten. Thomas Zügge trägt zur Klärung bei, indem er auf die unterschiedlichen Ebenen hinweist, die von Wagner und Falkenburg adressiert werden. In einem operationalen bzw. technischen Sinne können einzelne Teile der Analyse klassisch erfolgen. Dies wäre jedoch von der erkenntnistheoretischen Frage „Was beobachte ich da?“ zu unterscheiden. Brigitte Falkenburg erinnert hier an Niels Bohr, der die Notwendigkeit einer letztendlich klassischen Beschreibung jeder Messung in vielen Zusammenhängen hervorhob. Stefan Brackertz plädiert im Zusammenhang mit dem historisch-genetischen Zugang für eine stärkere Einbeziehung von auch gesellschaftlichen Bezügen. Er sieht eine Vernachlässigung dieser Aspekte bei der modernen Physik des 20. Jahrhunderts. Johannes Grebe-Ellis bittet Frau Falkenburg, aus ihrer Sicht zu erläutern, welche naturphilosophischen Aspekte für die Teilchenphysik spezifisch seien. Frau Falkenburg sieht hier vor allem die Wandlungen des Teilchenbegriffs, die sie als „Geschichte enttäuschter Erwartungen“ charakterisiert. Schließlich habe die genauere experimentelle Untersuchung jeweils ergeben, dass weder die Atome noch die Atomkerne kleinste, undurchdringliche Materiebestandteile seien. Auch sei die Gegenüberstellung von „Teilchen“ und „Leere“, die aus der Antike stamme, angesichts der modernen Quantenphysik des Vakuums obsolet. Ulrich Heinen schlägt den Bogen zu neurobiologischen Phantasien über die Steuerbarkeit von Lernprozessen, die sich sehr naiv ausnehmen, wenn man die Fallibilität der Naturwissenschaften betrachtet, wie sie sich als Leitmotiv durch den Vortrag gezogen habe. Die Bedeutung von wissenschaftstheoretischen Inhalten in der Lehrendenbildung würde dadurch noch einmal deutlicher. Michael Kobel spricht das Problem an, dass der historisch-genetische Ansatz zu langweilen droht, wenn keine strikte Auswahl getroffen wird. Brigitte Falkenburg schlägt vor, „zentrale Begriffe“ zur Richtschnur einer solchen Auswahl zu machen. Im Falle der Teilchenphysik hieße das konkret, nicht auf die Details des Teilchenzoos einzugehen, sondern dem Symmetrie- und Gruppenbegriff eine zentrale Rolle zuzuweisen.

3 Teilchen und Wellen als kosmische Boten: Eine philosophische Analyse

53

Literatur Anderson CD (1933) The positive electron. Phys Rev 43(1933):491–498 Audretsch J (1989) Vorläufige Physik und andere pragmatische Elemente physikalischer Naturerkenntnis. In: Stachowiak H (Hrsg.) Pragmatik, Bd III. Hamburg, Meiner, S 373–392 Becker JK (2008) High-energy neutrinos in the context of multimessenger astrophysics. Phys Rep 458:173–246 Bogen J, Woodward J (1988) Saving the phenomena. Phil Rev 97:303–352 Bohr N (1955) Diskussion mit Einstein über erkenntnistheoretische Probleme in der Atomphysik. In: Schilpp Paul A (Hrsg) Albert Einstein als Philosoph und Naturforscher. Stuttgart, Kohlhammer, S 115–150 Born M (1926) Zur Quantenmechanik der Stoßvorgänge. Z Physik 37: 863–867 und Quantenmechanik der Stoßvorgänge. Z Physik 38:803–827 Cartwright N (1983) How the laws of physics lie. Clarendon, Oxford Cartwright N (1999) The dappled world – a study of the boundaries of science. Cambridge University Press, Cambridge Falkenburg B (2002) Metamorphosen des Teilchenkonzepts. Praxis der Naturwissenschaften – Physik in der Schule 4(51):14–23 Falkenburg B (2007) Particle metaphysics. A critical account of subatomic reality. Heidelberg, Springer Falkenburg B (2008) Zum Wirklichkeitsverständnis der Physik. Glaube und Lernen 1:52–63 Falkenburg B (2009) Der Welle-Teilchen-Dualismus. Quantenphysik und Wirklichkeitsverständnis. der blaue reiter. J Philos 27:98–103 Falkenburg B (2011) Subatomare Teilchen: Hergestellt oder entdeckt? In: Gamm G, Kertscher J (Hrsg), Philosophie in Experimenten. Versuche explorativen Denkens. Transcript. Bielefeld, S 115–136 Falkenburg B (2012a) Was sind subatomare Teilchen? In: Esfeld M (Hrsg) Philosophie der Physik. Suhrkamp, Frankfurt a. M., S 158–184 Falkenburg B (2012b) Pragmatic Unification, Observation and Realism in Astroparticle Physics. General J Philos Sci 43:327–345 Falkenburg B (2012c) From waves to particles and quantum probabilities. In: Falkenburg B, Rhode W (Hrsg), From ultrarays to astroparticles. A historical introduction to astroparticle physics. Springer, Dordrecht, S 265–295 Falkenburg B (2014) On the contributions of astroparticle physics to cosmology. Stud Hist Philos Mod Phys 46:97–108 Falkenburg B, Rhode W, Falkenburg B (Hrsg) (2007) Astroteilchenphysik: Die Brücke zwischen Mikro- und Makrokosmos. Natur – Kultur – Technik. Mentis, Paderborn, S 57–90 Falkenburg B, Rhode W (Hrsg.) (2012) From ultrarays to astroparticles. A historical introduction to astroparticle physics. Springer, Dordrecht Galilei G (1610) Sidereus Nuncius. In: Blumenberg H (Hrsg) Nachrichten von neuen Sternen. Insel Verlag. Frankfurt a. M Goenner H (1994) Einführung in die Kosmologie. Spektrum Akademischer Verlag, Heidelberg Halzen F (2003) Multi-messenger astronomy: cosmic rays, gamma rays and neutrinos. arXiv:astro-ph/0302489vI Heisenberg W (1930) Physikalische Prinzipien der Quantentheorie. Hirzel, Leipzig (Nachdruck 1958) McDonald AB (2010) Abstract of Segré Lecture: understanding Neutrinos Using Deep Dark Science. https://physics.berkeley.edu/segre-lecture-understanding-neutrinos-using-deep-darkscience. Zugegriffen: 3. Sept. 2019 Müller R et al (o. J.) MILQ – Quantenphysik in der Schule. 3. Wellen und Teilchen. http://milq.tubs.de/3-wellen-und-teilchen/. Zugegriffen: 1. Aug. 2019 Müller R, Wiesner J (o. J.) Photonen im Mach-Zehnder-Interferometer – ein Zugang zur Deutung der Quantenphysik. https://www.tu-braunschweig.de/Medien-DB/ifdn-physik/interferometer. pdf. Zugegriffen: 21. Okt. 2019

54

B. Falkenburg

Powell C, Fowler PH, Perkins DH (1959) The study of elementary particles by the photographic method. Pergamon, London Psillos S. (1999) Scientific realism. How science tracks truth. Routledge, London Rhode W (2002) Neutrinos, muons and monopoles: Particle physical aspects of neutrino astronomy with large volume underground detectors. Habilitationsschrift. Universität Wuppertal Shapere D (1982) The concept of observation in science and philosophy. Philos Sci 49:485–525 von Neumann J (1932) Mathematisch Grundlagen der Quantenmechanik. Springer, Berlin Wagner W (2004) Design and realisation of a new AMANDA data acquisition system with transient waveform records, PhD thesis, Universität Dortmund. https://eldorado.tu-dortmund.de/ bitstream/2003/20247/1/Wagner.pdf Walborn SP, Terra Cunha MA, Pádua S, Monken C (2003) Quantum Erasure. Am Sci 91:336–343

4

Mit moderner Physik zum mündigen Bürger? Thomas Zügge

Inhaltsverzeichnis 4.1 4.2 4.3 4.4 4.5

Zum Bildungsauftrag des Physikunterrichts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bildungswert der Elementarteilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eine entwicklungssensible Ergänzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenführung und Impulse für den Unterricht der Elementarteilchenphysik . . . . . . Diskussion zum Vortrag von Thomas Zügge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

56 61 64 72 72

Wenn wir von der Schule als Bildungsinstitution sprechen, stellen sich zwingend zwei Fragen: Was ist mit „Bildung“ in diesem Zusammenhang eigentlich gemeint? Sowie: Welche Teilbereiche davon fallen in das Aufgabenfeld der Schule? Für den Unterricht der (modernen) Physik stellt sich die zweite Frage noch pointierter. In der öffentlichen Wahrnehmung werden den Naturwissenschaften eher selten genuin allgemeinbildende Qualitäten zugeschrieben (vgl. hierzu beispielsweise die Ergebnisse von van Ackeren et al. 2007). Vielleicht ist es also überhaupt nicht die Aufgabe des Physikunterrichts, zur Menschenbildung der daran teilnehmenden Schülerinnen und Schüler beizutragen und sie kann verlustlos anderen Disziplinen übertragen werden. Dass dem nicht so ist, sondern gerade der Unterricht der Elementarteilchenphysik Bildungsgelegenheiten erschließen kann, wird in den folgenden Abschnitten dargelegt. Den Unterricht in anspruchsvoller bildungstheoretischer Form (Terhart 2019, S. 154 f.) zu fundieren, wird sich dabei als gewinnbringend erweisen. Umso mehr, als im Abschn. 4.3 zusätzliche Hinweise auf sein bildendes Potenzial aus der Lebenssituation der Schülerinnen und Schüler gewonnen werden. Solche Impulse sind auch

T. Zügge (B) Fakultät für Mathematik und Naturwissenschaften, Physik und ihre Didaktik, Bergische Universität Wuppertal, Wuppertal, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_4

55

56

T. Zügge

bei der Entwicklung eines Curriculums für den Unterricht der Elementarteilchenphysik relevant. In Abschn. 4.2 und 4.3 erläutere ich, welche bildenden Potenziale sich meiner Meinung nach im Unterricht der Elementarteilchenphysik nutzen lassen. Zuvor möchte ich im folgenden Abschnitt aber noch kurz erläutern, welche Definition des Bildungsbegriffs (mit welchen historischen Differenzierungen und physikdidaktischen Perspektivierungen) diesen Überlegungen zugrunde liegt.

4.1

Zum Bildungsauftrag des Physikunterrichts

Schulischer Bildungsauftrag Die Schule ist nur eine Institution unter vielen, die alle mit der Bildung junger Menschen beauftragt sind. Mitunter führt dies zu dem Missverständnis, sie (d. h. im Besonderen die Fachdidaktik) solle sich zuvorderst der fachlichen (Aus-)Bildung widmen und Akteurinnen und Aktueren anderer pädagogischer Fachrichtungen (um nur einige zu nennen: Friedenspädagogik, Politische Bildung, Naturpädagogik, Sexualpädagogik usw.) kümmerten sich dann um den Rest des komplexen Pakets, welches wir Bildung nennen. Tatsächlich geht die sog. „Klieme-Expertise“ zur Entwicklung nationaler Bildungsstandards nur am Rande darauf ein, wie die Schule einen umfänglichen Bildungsauftrag aufnehmen kann (Klieme et al. 2004, S. 69). Das darf aber nicht davon abhalten, nach den Aufgaben schulischer Bildung zu fragen. Zum einen kann die Expertise selbst als deutliches Votum dafür gelesen werden, schulische Bildung durch die Definition von Zielen zu strukturieren, d. h. von ihrem Ergebnis her zu denken. Zum anderen sind diese Ziele, welche schulische Bildung in Deutschland anstrebt, viel weiter gesteckt, als die bloße Vermittlung von Kompetenzen und Wissensbeständen. Exemplarisch für viele Bundesländer kann dies im Schulgesetz des Landes Nordrhein-Westfalen gelesen werden. In § 2, Absatz 2 ist der Auftrag der Schule ausformuliert: Ehrfurcht vor Gott, Achtung vor der Würde des Menschen und Bereitschaft zum sozialen Handeln zu wecken, ist vornehmstes Ziel der Erziehung.1 Die Jugend soll erzogen werden im Geist der Menschlichkeit, der Demokratie und der Freiheit, zur Duldsamkeit und zur Achtung vor der Überzeugung des anderen, zur Verantwortung für Tiere und die Erhaltung der natürlichen Lebensgrundlagen, in Liebe zu Volk und Heimat, zur Völkergemeinschaft und zur Friedensgesinnung. (SchulGNRW 2018, § 2.2)

1 Das

Schulgesetz nutzt die Begriffe Bildung und Erziehung nahezu synonym. Auch wenn die Abgrenzung der Begriffe bis heute in Deutschland (im Englischen gibt es die Unterscheidung nicht) Gegenstand intensiver Diskurse ist, lassen sich grobe Faustregeln zur Unterscheidung angeben: In bildenden Prozessen „bildet“ sich das Subjekt selbst, während das Objekt erzieherischer Anstrengungen hin zu normativen Zielen „erzogen“ wird. Insofern das Schulgesetz also einheitliche Ziele benennt, kann es nur von Erziehungszielen sprechen. Insofern diese aber freiheitlich-demokratische Haltungen mit einschließen, können sie nur durch Bildung erreicht werden.

4

Mit moderner Physik zum mündigen Bürger?

57

Der schulische Bildungsauftrag lässt sich also nicht auf die Vermittlung von Wissensbeständen und Kompetenzen reduzieren. Als Kriterium, nach dem die Unterrichtsgestaltungen bewertet werden kann, schlägt Hartmut von Hentig die folgende Frage vor: Hat sie am Ende das bildende Potenzial des Themas ausgeschöpft (von Hentig 1999, S. 179 f.)? Dabei wird die Art und Weise, in der das Schulgesetz den Bildungsauftrag ausformuliert, nur eingeschränkt Assoziationen bzgl. des „bildenden Potenzials“ der Elementarteilchenphysik auslösen. Darum scheint es mir sinnvoll, einen Schritt zurückzutreten und sich dem Bildungswert der Elementarteilchenphysik von einem abstrakten Bildungsbegriff aus zu nähern. Ein Bildungsbegriff und zwei nützliche Differenzierungen Der Begriff „Bildung“ ist vielschichtig (von Hentig 1999, S. 37 ff.) und seine Begriffsgeschichte so dynamisch, dass an dieser Stelle lediglich eine zweckmäßig oberflächliche Auswahl seiner Bedeutungsdimensionen nachgezeichnet werden kann. Diese wird durch entsprechende Schlaglichter aus der physikdidaktischen Auseinandersetzung mit dem Bildungsbegriff ergänzt. So vermittelt sich ein Eindruck davon, was es bedeuten kann, wenn sich ein schulisches Curriculum, wie das der Elementarteilchenphysik, an seinem Beitrag zur Bildung der Schülerinnen und Schüler messen lassen soll. Zu Beginn soll eine aktuelle Begriffsnäherung stehen. Sie lässt (auch wenn sie allgemeiner gehalten ist) eher als das Schulgesetz ahnen, was es bedeuten kann, bildende Potenziale im Unterricht auszuschöpfen. Dörpinghaus et. al. (2012) beschreiben Bildung als […] Nachdenken, Durchdenken und Weiterdenken darüber, dass und wie Menschen sich mit sich, mit anderen und mit der Welt, sprachlich-gedanklich vermittelt, auseinandergesetzt haben, gegenwärtig auseinander setzen und zukünftig vielleicht auseinandersetzen können. (S. 10)

Als Physiklehrerin oder Physiklehrer fühlt man sich auf den ersten Blick vor eine schwer lösbare Aufgabe gestellt: Während für andere Fächer direkt oder indirekt einleuchtend scheint, wie im Rahmen des Unterrichts eine Auseinandersetzung mit sich selbst, dem sozialen Umfeld und der Welt gefördert werden kann, scheint gerade die Loslösung vom Individuum eine notwendige Bedingung des Physiktreibens zu sein. In diesem Sinne merkt Theodor Litt an, dass die reine Orientierung an den Anforderungen der naturwissenschaftlichen Methode letztlich drohe, das Subjekt auszuschließen (vgl., Litt 1959, S. 96). Bildung aber geschehe gerade durch den Nachvollzug des Wechselspiels zwischen Subjekt, Methode und Objekt. Letzteres erscheint dem Subjekt im Licht der Methode, durch deren Entwicklung und Anwendung das Subjekt selbst sich bildet (vgl., Litt 1959, S. 56 ff.). Während die Strenge der Methode also vom Menschsein weg führe, berge die Auseinandersetzung mit ihren Erkenntniswegen und -grenzen auch das Potenzial, den Menschen ganz zu erfassen und zu verwandeln. Diese Widersprüchlichkeit nachzuvollziehen, so Litt, sei das Ziel naturwissenschaftlicher Bildung (ebd., S. 99 f.). Es ist umsetzbar, wenn Physik als Beispiel dafür, wie „Menschen sich […] mit der Welt, sprachlich-gedanklich

58

T. Zügge

vermittelt, auseinander gesetzt haben“, gelehrt wird. Der immer wieder gescholtene Abstraktionsgrad und die Alltagsferne physikalischer Erklärungen sind also (zumindest zum Teil) vermittelbare Kulturleistungen. Physikunterricht, der nicht nur Instrumente zur Beschreibung der unbelebten Natur vermittelt, sondern darüber hinaus auch ihre Entstehungs- und Deutungsgeschichte, erfüllt bereits das von von Hentig formulierte Kriterium. Die Komponente der Persönlichkeitsentwicklung (das Durch- und Weiterdenken darüber, wie sich Menschen mit sich selbst auseinandergesetzt haben) bleibt von diesem Vorgehen in der Regel noch unberührt. Sich ausschließlich von ihm bei der Entwicklung des Physikunterrichts leiten zu lassen, ließe also mindestens eine wichtige Dimension des Bildungsbegriffs außen vor. Dass es auch im (scheinbar) entanthropomorphisierten Fach Physik nicht nur möglich ist, den veränderten Weltbezug zum Ziel zu haben, sondern sich darüber hinaus am Reifeprozess der Lernenden zu orientieren, wird in den Abschn. 4.2 und 4.3 gezeigt werden. Zunächst sollen noch zwei historisch wichtige Differenzierungen des (ja immer noch sehr abstrakten) Begriffs „Bildung“ eingeführt werden. An ihnen wird seine praktische Transferierbarkeit auf die curriculare Entwicklung noch einmal deutlicher. Die erste Differenzierung des allgemeinen Bildungsbegriffs, die ich als hilfreiche Orientierungsmarke hervorheben möchte, findet sich bei Wilhelm von Humboldt (1809): Denn beide Bildungen – die allgemeine und die specielle – werden durch verschiedene Grundsätze geleitet. Durch die allgemeine sollen die Kräfte, d. h. der Mensch selbst gestärkt, geläutert und geregelt werden; durch die specielle soll er nur Fertigkeiten zur Anwendung erhalten. (S. 188)

Humboldt unterscheidet die allgemeine Bildung (wie sie oben bereits skizziert wurde) und die specielle, die man heute wohl am ehesten mit Begriffen wie Berufsvorbereitung oder Ausbildung identifizieren würde. In den 1950er Jahren versuchte Wolfgang Klafki in seiner Dissertation, diese beiden Dimensionen von Bildung in der „kategorialen Bildung“ zu vereinen (Klafki 1957/1963). Später erweiterte er den Begriff der Allgemeinbildung als Antwort auf die von ihm in der Didaktik wahrgenommene Vernachlässigung des Individuums und der politischen Dimensionen der Fachinhalte. Als Lösungsvorschlag identifizierte er Themenfelder, in denen bildende Prozesse sowohl der persönlichen wie der gesellschaftlichen Entwicklung zuträglich sind. Er nannte sie „epochaltypische Schlüsselprobleme“ (Klafki 1991/2007). Ziel der daraus abzuleitenden Didaktik sei die Entwicklung des solidaritätsfähigen und selbstbestimmten „mündigen Bürgers“ (vgl. Klafki 1991/2007, S. 276). In dieser Tradition sieht sich Heinz Muckenfuß, als er 40 Jahre später feststellt, dass die allgemeindidaktisch überwunden geglaubte Trennung in der Physikdidaktik noch sehr lebendig ist: Ausgehend von Humboldts Unterscheidung (und seinem Appell zur strikten Trennung der beiden Bildungen) sei der naturwissenschaftliche Unterricht erst an den Rand des Bildungskanons gerückt und später seine didaktische Weiterentwicklung in einen „ideologischen Schraubstock“ gezwängt geworden (vgl. Muckenfuß 1995, S. 132 f.). Dieser verhindere auch noch in den 1990er

4

Mit moderner Physik zum mündigen Bürger?

59

Jahren eine konstruktive Einheit von Menschenbildung und Qualifizierung (ebd.). In diesem physikdidaktischen Gegeneinander sei zunehmend die Vermittlung von „Verfügungswissen“, d. h. Wissen, welches nicht der Erkenntnis, sondern der Anwendung in Prüfungen, Ausbildung, Studium etc. dient, zum primären Ziel des Physikunterrichts geworden. Das allgemeinere, zur Klärung des Verhältnisses von Mensch und Natur notwendige, „Orientierungswissen“ sei dabei beiseite gedrängt worden (ebd., S. 65 ff.) – mit der Folge, dass Schülerinnen und Schüler dem Unterricht immer weniger persönliche Relevanz zumessen. Muckenfuß’ Vorschlag, den Physikunterricht durch größere „Rahmenkontexte“, also ganze Themengebiete umfassende, lebensnahe Anwendungsfelder (ebd., S. 268 ff.), zu strukturieren, kann als weiterer Versuch der Integration der beiden von Humboldt gegeneinander gestellten Bildungen verstanden werden. Zur ganzen Bildung des mündigen Bürgers ergänzen sich also Elemente, die seinem kognitiv-emotionalen Reifeprozess zuträglich sind, und solche, die ihn auf seine spätere Rolle vorbereiten. Diese Unterscheidung hilft, die möglichen Inhalte für den Unterricht der Elementarteilchenphysik zu ordnen. Z. B. löst sich dieser aus dem manchmal formulierten Anspruch, primär Vorbereitung auf ein späteres Studium der Physik oder einen naturwissenschaftlich-technisch geprägten Beruf zu sein. Eine zweite Differenzierung, die weitestgehend quer zu der von Humboldt liegt, stammt aus Theodor Adornos „Theorie der Halbbildung“ (Adorno 1959, S. 94 ff.). Auch sie stiftet hilfreiche Orientierung für die curriculare Entwicklung. Adorno beschreibt Bildung als kulturellen Vorgang im Spannungsfeld zwischen der Entwicklung individueller Reifung und sozialer Funktion, zwischen reiner Geisteskultur, d. h. losgelöster Auseinandersetzung mit dem Gegenstand als Selbstzweck, und Hilfe zur praktischen „Gestaltung des realen Lebens“ (ebd.). Als „Halbbildung“ kritisiert er das Ersterben dieser dialektisch gewollten Beziehung: Erstarrt das Kraftfeld, das Bildung hieß, zu fixierten Kategorien, sei es Geist oder Natur, Souveränität oder Anpassung, so gerät jede einzelne dieser isolierten Kategorien in Widerspruch zu dem von ihr Gemeinten und gibt sich her zur Ideologie, befördert die Rückbildung. (S. 96)

Für unsere Zwecke erlaube ich mir zu verkürzen: Der Unterricht soll weder ausschließlich theoretisch-mathematische Geistesübung noch angewandte-technische Welterklärung sein.2 Ein Appell, der physikdidaktisch unter anderem von Martin Wagenschein in den 1960er Jahren aufgenommen wurde. Als Korruptionen des Naturverstehens, also das „Abspeisen“ mit minderwertig unzureichendem Erkennen, bezeichnet er die Fokussierung auf die uns umgebenden technischen Geräte und die Reduktion von Phäno-

2 Die zweite, im Zitat anklingende Differenzierung von Adorno kann von uns als Appell verstanden

werden, einen verständigen Umgang mit dem üblichen Fachjargon zu üben, aber auch die kompetente Souveränität sein, Unzulänglichkeiten zu kritisieren. Eine emanzipatorische Geste, auf die ich in Abschn. 4.3 zurückkomme.

60

T. Zügge

menen auf abgelöste, wissenschaftlich-theoretische Erklärungen, die den Lernenden blindes Vertrauen in die Methode abverlangen (vgl. Wagenschein 1995, S. 100 f.). Naturwissenschaftliche Bildung entstünde eben nicht aus der Reduktion und „Verkümmerung“ auf das Spezielle, sondern das „Vernetzen und Abzweigen“ ins Ganze (Wagenschein 1995, S. 119). Damit mahnt er, weder ausschließlich das entindividualisierte System der Physik zu lehren, welches für die Lernenden letztlich unverstanden bleiben muss, noch ausschließlich im Lebensweltbezug zu verharren, welcher nur fragmentarische Bruchstücke des Erkennens liefern kann (ebd.). Diesem Motiv ähnlich ist eine weitere Mahnung Adornos. Mit Blick darauf, dass viele Unterrichtsmaterialien dem Missverständnis Vorschub leisten, die Phänomene der Elementarteilchenphysik könnten mit Modellen des nicht-quantenphysikalischen, dinglichen Makrokosmos erklärt werden, ohne dabei auf ihre Einbettung in die wissenschaftlichkulturelle Praxis hinzuweisen,3 erscheint sie mir bemerkenswert: Im Klima der Halbbildung überdauern die warenhaft verdinglichten Sachgehalte von Bildung auf Kosten ihres Wahrheitsgehaltes und ihrer lebendigen Beziehung zu lebendigen Subjekten. Das etwa entspräche ihrer Definition. (S. 103)

Dabei bezieht er sich natürlich nicht auf den Unterricht der Quantenphysik. Gemeint ist aber die Vermittlung von lückenhaftem, oberflächlichem Wissen, welches allein dem Zweck der Anpassung nutzt und tieferer Erkenntnis letztlich im Wege steht. Ein Teil dieser tieferen Erkenntnis ist der von Martin Wagenschein so genannte „Aspektcharakter der Physik“. Nichts lehre deutlicher als das genaue Studium der Physik, dass „die genannten Elemente dieser Modellwelt nicht das eigentlich Wirkliche genannt zu werden verdienen“, schreibt er (Wagenschein 1995, S. 31). Der von Wagenschein befürchteten Korruption des Naturverstehens ist also auch dadurch zu begegnen, dass das System der Physik nicht mit der Weltbeschreibung selbst verwechselt, sondern als Methode der Weltbeschreibung vermittelt wird. Auch Muckenfuß plädiert dafür, physikalische Bildung als notwendige Klärung des Verhältnisses von real (erlebter) Welt und physikalischem System zu verstehen (vgl. Muckenfuß 1995, S. 174). Einsicht in den Aspektcharakter der Physik erreiche man am ehesten durch die „bewußte und gezielte Konfrontation der naiven Weltwahrnehmung mit den Idealgestalten der Physik“ (ebd., S. 182). Ein Beispiel für eine derart lückenhafte und oberflächliche Ähnlichkeiten betonende Darstellung findet sich im folgenden Abschnitt. Ich fasse zusammen, zu welcher Arbeitsdefinition die dargelegten Überlegungen führen: Bildender Unterricht ermöglicht es den Schülerinnen und Schülern, den physikalischen Fachinhalt, seine Entstehung, Deutung und Erkenntnisbereiche in Bezug zu setzen zu sich selbst, ihrem Umfeld und der Welt. Er bietet Gelegenheiten zur persönlichen Reifung, Orientierung und Kompetenzentwicklung, indem er individuelle Bezüge und gesellschaftliche Funktionen, abstrakte Zusammenhänge und praktische Anwendungen gleichermaßen aufnimmt.

3 Vergleiche die Ausführungen in Abschn. 4.2 sowie den Beitrag von Passon (Kap. 5) in diesem Band.

4

Mit moderner Physik zum mündigen Bürger?

4.2

61

Bildungswert der Elementarteilchenphysik

Verpasste Gelegenheiten Gerne würde ich diesen Abschnitt mit einer kurzen Zusammenfassung des fachdidaktischen Diskurses über den Bildungswert der Elementarteilchenphysik beginnen. Leider gibt es diesen nicht. Auch jenseits der vielleicht als ambitioniert wahrgenommenen Forderungen obiger Arbeitsdefinition gibt es keinen nennenswerten Diskurs darüber, welchen Inhalten des Fachgebiets bildendes Potenzial zugeschrieben werden kann. Die Diskussion über eine angemessene Elementarisierung wird allenfalls randständig geführt. Ernüchtert muss man feststellen, dass manche (Schul)Materialien zum Thema auch andere physikdidaktische „Standards“ nicht erfüllen. Mitunter sind sie weder anschlussfähig (vgl. etwa KMK (2019)) bzgl. der Quantenmechanik, noch nutzen sie Gelegenheiten, Konzeptwechsel (Posner 1982) dort anzubahnen, wo diese angezeigt wären. Manchmal verstellen sie dabei sogar den Blick auf die neuen (bildungswerten) Elemente der Elementarteilchenphysik. Anhand des folgenden Beispiels wird dies diskutiert. Die Darstellung in Abb. 4.1 ist typisch für die Art und Weise, wie die Elementarteilchenphysik Lernenden häufig präsentiert wird: als weitere Wiederholung eines altbekannten Musters. Vom Großen ins Kleine(re) ist jede Iteration davon geprägt, dass sich ausgedehnte Objekte vollständig aus einer begrenzten Anzahl von Konstituenten nach einfachen Regeln zusammensetzen lassen. Ist der Unterricht historisch inspiriert, wird jedes Mal erneut die Geschichte der Forschenden erzählt, welche irritiert von der Vielfalt der Moleküle/Elemente/Atome/Hadronen nach einem neuen Ordnungsprinzip gesucht und dabei kleinere „Bausteine“ gefunden haben. Bedauerlicherweise ist die Elementarteilchenphysik auch genau so in die Lehrpläne eingebunden. In Nordrhein-Westfalen beispielsweise schließt sie nicht, wie man historisch und physikalisch erwarten könnte, an die Quantenmechanik an, sondern die Inhaltsfelder „Strahlung und Materie“ (Grundkurs), bzw. „Atom-, Kern- und Teilchenphysik“ (Leistungskurs) (Lehrplan SII Physik NRW 2014) ab.

Abb. 4.1 Typische Schulbuchabbildung zur Einbettung der c Ernst Klett Verlag GmbH Quelle: (Blüggel et al. 2015, S. 163) 

Elementarteilchenphysik.

62

T. Zügge

In solch einem Narrativ wird die Elementarteilchenphysik zur glanzlosen Wiederholung eines zu diesem Zeitpunkt bereits wohl installierten Konzepts über den Aufbau der Materie. Neues, abgesehen von einigen Vokabeln, wird nicht eingeführt, und es steht zu vermuten, dass es den Schülerinnen und Schülern schwer plausibel zu machen ist, warum die diesmal eingeführten Entitäten nun wirklich elementar, d. h. strukturlos, sein sollen. Schlimmer noch: Es leistet dem reduktionistischen (Miss)Verständnis Vorschub, das Ganze sei im Wesentlichen die Summe seiner Einzelteile und ließe sich auch vollständig so erklären. Dass dem in der Regel nicht so ist, lässt sich am linken Rand der Grafik bereits erahnen: Auch das detaillierte Studium von Molekülbindungen ist zwar in der Lage, deren Geometrie abzubilden, nicht aber die des Wassertropfens links daneben. Der Übergang zur Elementarteilchenphysik in der rechten Hälfte der Grafik bekräftigt diese Beobachtung in besonderem Maße. Die als Kugeln abgebildeten Quarks konstituieren das Proton nicht in dem Sinne, dass die Summe ihrer Massen annähernd ausreichte, um die Masse des Protons zu bilden (vgl. hierzu auch die Ausführungen zu Beginn des nächsten Abschnitts). Im Gegenteil: Anders als in den zuvor dargestellten Reduktionsschritten kann die Gesamtmasse nicht sinnvoll aus den Konstituenten erklärt werden; die Bindungsenergie muss berücksichtigt werden. Ich würde demnach sogar behaupten, die Forderungen bezüglich dessen, was Unterricht leisten soll, sind mindestens doppelt gebrochen: Nicht nur fügt eine solche Darstellung dem Bestehenden nichts Neues hinzu. Sie verstellt zusätzlich den Blick auf die wesentlichen Neuerungen, welche die Elementarteilchenphysik dem physikalischen Weltbild der Schülerinnen und Schüler anbieten könnte (Vgl. hierzu auch die Beiträge von Harlander (Kap. 2) und Passon (Kap. 5) in diesem Band.). Inhaltliche Bildungsanlässe für den Unterricht der Elementarteilchenphysik Aber gibt es überhaupt Inhalte, die sich im Rahmen des Unterrichts der Elementarteilchenphysik erstmalig einführen lassen und ermöglichen diese es, den Schülerinnen und Schülern zu reflektieren, mit Hilfe welcher „sprachlich-gedanklichen Vermittlungen sich Menschen mit der Welt auseinandergesetzt“ haben? Es gibt sie. Drei meiner Meinung nach besonders relevante Inhalte werden im Folgenden dargestellt. Welche Vorstellung vom Aufbau und der Art der uns umgebenden Materie zum Ende der Schulzeit nicht vermittelt werden soll, wurde bereits im vorherigen Abschnitt angedeutet. Aus Perspektive der modernen Physik ist die Abb. 4.1 schon darum nicht richtig, weil Quarks nicht im Sinne von „Bausteinen“, wie bereits erwähnt und aus anderen Teilbereichen der Chemie und Physik bekannt, die Hadronen zusammensetzen (vgl. Anderson 2014 und die Anmerkungen von Wagner (Kap. 1) in diesem Band). Mit der Einführung der Quarks wird man ohnehin auf ihre Massen4 zu sprechen kommen, und mit dem (durch eine aufmerksame Schülerin oder die Lehrperson initiierten) Vergleich mit den Massen der Nukleonen liegt es auf der Hand, die eingeübten mereologischen Vorstellungen zu hinterfragen

4 Masse

versteht sich hier in einem vereinfachten Sinn, wie er für die Quarks zwar nur begrenzt anwendbar, aber in der (Fach-)Literatur häufig anzutreffen ist.

4

Mit moderner Physik zum mündigen Bürger?

63

Anderson 2014. Ein vollständiges Bild ergibt sich erst durch die verknüpfte Betrachtung von Quarks und starker Wechselwirkung. Wohl aber werden andere, bereits bekannte Eigenschaften von Proton und Neutron durch die sie konstituierenden Quarks definiert – es sind Erhaltungsgrößen wie die elektrische Ladung. Eine dies in den Vordergrund rückende Beschreibung erhebt die Quarks (samt ihrer Erhaltungsgrößen) nicht nur über die reduzierte Darstellung als kleine Massenpunkte. Sie erlaubt es auch, die starke Wechselwirkung und ihren Beitrag zur Masse der Nukleonen zu den anderen fundamentalen Wechselwirkungen in Bezug zu setzen. So wird nicht nur eine qualitative Einschätzung ermöglicht, um wie viel stärker die starke Wechselwirkung wirkt; auch der Begriff Wechselwirkung wird durch den (im Fall der Quarks und Hadronen besonders großen) Beitrag zur Masse der Wechselwirkungspartner erweitert. Indem die Quarks also nicht fälschlich als „Bausteine der Materie“ eingeführt werden, eröffnen sich für die Lernenden direkt mehrere Gelegenheiten, anders über die sie umgebende Welt nachzudenken. Das bildende Potenzial des statischen Quarkmodells liegt in der Thematisierung seiner Grenzen und der Klärung des Verhältnisses zwischen dem gut handhabbaren physikalischen Modell und den nicht mehr makroskopisch-naiv zu beschreibenden Dynamiken auf Ebene der Elementarteilchen. Eine weitere Gelegenheit zur Auseinandersetzung mit dem eigenen physikalischen Weltbild ergibt sich für die Lernenden aus der Nichterhaltung der Gesamtteilchenzahl in der Quantenfeldtheorie. Die Thematisierung von Erzeugungs- und Vernichtungsprozessen ist nicht nur in der Lage, populärwissenschaftliche Reifizierungstendenzen der Quantenwelt weiter zu kompromittieren, sondern vermag es auch, einen abermals stärkeren Fokus auf die erhaltenen Größen zu legen. Für eine Behandlung spricht nicht nur das bildende Potenzial im Sinne einer Perspektivänderung auf die Umwelt. Darüber hinaus ergibt sich aus der Ladungserhaltung bei Erzeugungs- und Vernichtungsprozessen auch eine Gelegenheit, das Konzept Antimaterie einzuführen5 und die den Schülerinnen und Schülern wohlbekannte Einsteinsche Energie-Massenäquivalenz-Formel anzuwenden. Um ein drittes bildendes Potenzial im Sinne obiger Definition zu nennen, möchte ich auf den Beitrag von Harlander (Kap. 2) und das Wuppertaler Curriculum (Kap. 8) in diesem Band verweisen. Beide diskutieren, warum die Interpretation von FeynmanDiagrammen im Sinne raumzeitlich eingebetteter „Geschichten“ problematisch ist.

5 Die

weit überwiegende Mehrzahl der Schulbücher verpasst es, Antimaterie adäquat, d. h. unter Bezugnahme auf die Ladungen, einzuführen. Zwei Narrative sind etabliert: (1) In Zusammenhang mit dem β − -Zerfall wird das Elektron-Antineutrino mit Verweis auf die Energieerhaltung eingeführt (vgl. etwa Grehn und Krause 2016, S. 486). Warum es sich bei dem abgestrahlten Teilchen um ein Antiteilchen handeln muss, ist für die Schülerinnen und Schüler, die ja die Leptonenzahlerhaltung nicht kennen, nicht nachvollziehbar. (2) Die negativen Lösungen der Dirac-Gleichung werden mit Positronen identifiziert (vgl. Kilian 2015, S. 157) was für die Schülerinnen und Schüler ebenso schwer nachvollziehbar ist. Die Beobachtungen der Spuren von Erzeugungs- und Vernichtungsprozessen in Nebelkammern bieten einen intuitiven Anlass, über die Ladungen und Eigenschaften der entstandenen Teilchen zu sprechen, wie es Grehn und Krause (Grehn und Krause 2016, S. 529) in Ansätzen tun.

64

T. Zügge

Bereits im Unterricht der Quantenmechanik haben die Schülerinnen und Schüler (beispielsweise im Doppelspaltexperiment) gelernt, dass Aussagen über Vorgänge zwischen Präparation und Messung prinzipiell nicht möglich sind. In der Behandlung der Elementarteilchenphysik nun bietet sich die Gelegenheit, diese konzeptionelle Unbeschreibbarkeit weiter zu vertiefen. Die in der Forschung angewandten mathematischen Methoden der Störungstheorie sind für den Unterricht zwar zu komplex; mit den Feynman-Diagrammen steht aber eine in der Forschung ebenso etablierte grafische Repräsentation zur Verfügung. Gerade durch ihre populäre, weil intuitiv zugängliche, falsche Lesart (in der häufig verschwiegen wird, dass sie lediglich Beiträge zur Streuamplitude darstellen), bieten sie Gelegenheit, den Aspektcharakter der Physik in den Vordergrund zu rücken. In Anlehnung an Litt merkt Wagenschein an, dass die Physik nur eine von vielen Arten der Weltbefragung ist. So zuverlässig ihre Antworten auch sein mögen, es bleiben Antworten auf eine ganz bestimmte Art, Fragen an die Natur zu formulieren (Wagenschein 1995, S. 128). Die Frage, die durch die Feynman-Diagramme beantwortet wird, ist diese: Welche mathematischen Beiträge sind notwendig, um mit Mitteln der Störungstheorie die Streuamplitude für gegebene Anfangs- und Endzustände zu berechnen? Immer, wenn aus der suggestiven Bildsprache der Feynman-Diagramme geschlossen wird, sie wären zusätzlich auch zu anderen Fragen antwortfähig, werden sie letztlich zweckentfremdet. Es darf nicht wundern, dass dies zu gravierenden Missverständnissen führt.6 Entsprechend vermittelt können die Feynman-Diagramme aber in der Quantenmechanik erarbeitete Konzepte vertiefen und erweitern. Zusammenfassend schöpft die Elementarteilchenphysik einen großen Teil ihres Bildungswerts aus der konzeptionellen Nähe zur Quantenmechanik und sollte, will man tatsächlich Neues vermitteln, auch an diese anknüpfend gelehrt werden.

4.3

Eine entwicklungssensible Ergänzung

Scheinbar entsteht besonders für die Physikdidaktik durch die in Abschn. 4.1 formulierte Arbeitsdefinition ein Spannungsfeld zwischen persönlicher Reifung und Entwicklung von Kompetenz. Spannungsfeld, weil die Verknüpfbarkeit von fachwissenschaftlichen und persönlichkeitsbildenden Inhalten besonders im Physikunterricht der gymnasialen Oberstufe herausfordernd ist. Naheliegender scheint es, in anderen Fächern (Gesellschaftslehre, Philosophie, Deutsch, Religion, etc.) nach solchen Synergien zu suchen. Nur scheinbar besteht dieses Spannungsfeld aber, weil sich bereits heute Beispiele im Physikunterricht finden lassen, in denen beide Zieldimensionen verknüpft werden. So ist die Orientierung an der kognitiven Entwicklung Heranwachsender eine ebenfalls entwicklungspsychologisch motivierte Perspektive und etablierte Praxis in lehr-lerntheoretischen Zugriffen auf die Unterrichtsgestaltung (siehe

6 Siehe

beispielsweise die Abb. 4.2.

4

Mit moderner Physik zum mündigen Bürger?

65

Kap. 7). Das didaktische Kernanliegen dieser Verbindung formuliert Walter Jung (1993) als Frage an die Entwicklungspsychologie: […] ob es so etwas wie natürliche Zugänge‘ gibt, und ob es von Physikdidaktikern aus ’ Fachinteresse konstruierte Zugänge gibt, die entwicklungsbedingt erfolglos sein müssen? (S. 100)

Dem möchte ich hinzufügen, dass es auch jenseits der Betrachtung kognitiver Entwicklung gilt, Unterricht so zu gestalten, dass er nicht in Konkurrenz mit persönlichen Zielen um die kognitiven Ressourcen der Lernenden ringen muss (Hofer 2014). Dass dies auch in den Naturwissenschaften möglich ist, lässt sich an Beispielen nachvollziehen: Die Sexualkunde im Biologieunterricht orientiert sich zwar an der Geschlechtsreife seiner Schülerinnen und Schüler, weist inhaltlich aber mit Themen wie „Paarbindung“, „Partnerschaft“ und „Familienplanung“ (Lehrplan SI Biologie NRW 2008, S. 36 f.) weit über fachwissenschaftliche Inhalte hinaus auf die Entwicklungsaufgaben der Heranwachsenden. In ähnlicher, über rein physikalische Inhalte hinausweisender Form findet sich der Punkt „Nutzen und Risiken der Kernenergie“ im Kernlehrplan des Landes NRW für den Physikunterricht (Lehrplan SII Physik NRW 2014, S. 50) als dezidierter Fachinhalt und nicht lediglich als vorgeschlagener Kontext. Damit nehmen die Lehrplanautorinnen und -autoren eine sehr konkrete Dimension der Bildung/Entwicklung zum mündigen Bürger im Sinne Klafkis epochaltypischer Schlüsselprobleme auf. Die Verknüpfung von naturwissenschaftlichen Inhalten und individueller Persönlichkeitsentwicklung ist also weder eine gänzlich neue Idee, noch in ihrer Umsetzung präzedenzlos. Trotzdem bleibt sie seltene Ausnahme. Den in Abschnitt 4.1 gewählten Bildungsbegriff aufnehmend möchte ich für die Elementarteilchenphysik vorschlagen, die aus fachimmanenter Sicht bildenden Inhalte mit solchen zu verknüpfen, die durch die Betrachtung der Entwicklung der Lernenden in den Vordergrund treten. Die Entwicklungsaufgaben junger Erwachsener während des Unterrichts der Elementarteilchenphysik Notwendige Bedingung, um Fachinhalte mit der Entwicklung Heranwachsender verknüpfen zu können, ist es, die Themen und Herausforderungen von Schülerinnen und Schülern zu einem gegebenen Zeitpunkt identifizieren zu können. Um entwicklungsbedingte Themen und Herausforderungen zu beschreiben, wurde durch Havighurst (1948) der Begriff der „Entwicklungsaufgaben“ geprägt: Aufgaben also, die sich Individuen zu bestimmten Zeitpunkten ihres Lebens stellen und deren Bewältigung für eine weitere positive Entwicklung notwendig ist. Indem menschliche Entwicklung als etappenhafter Kanon von individuell zu bewältigenden Aufgaben (manchmal auch Krisen genannt) beschrieben wird, drückt sich auch unmittelbar die Eigenverantwortlichkeit, Selbstinitiative und vermutete intrinsische Motivation der sich Entwickelnden aus. Es liegt auf der Hand, dass sich die jeweiligen Aufgaben interindividuell unterscheiden und in hohem Maße von der Biografie der Lernenden und ihren Lebenssi-

66

T. Zügge

tuationen abhängig sind. Persönliche Krisen und Herausforderungen, beispielsweise aufgrund von Umzug, Gesundheit oder Beziehungssystem, lassen sich grundsätzlich nicht extern antizipieren. In Abgrenzung zu diesen „individuellen Entwicklungsanlässen“ lassen sich aber auch „normative Entwicklungsanlässe“ identifizieren, deren Relevanz für die überwiegende Mehrheit von Jugendlichen im selben Umfeld empirisch nachgewiesen werden konnte (vgl. etwa Flammer und Alsaker 2002, S. 59 ff).7 Zusammengefasste Bündel solcher Aufgaben werden als Entwicklungsphasen (Kindheit, Adoleszenz etc.) bezeichnet. Für den Unterricht der Elementarteilchenphysik besonders interessant ist die häufig „späte Adoleszenz“ genannte Phase, also der Übergang von der Lebenswelt der Jugendlichen zu der des Erwachsenen (jeweils mit ihren eigenen Freiheiten und Pflichten). Das Lebensalter der Lernenden kann ein Indiz für die Identifikation und Abgrenzung unterschiedlicher Entwicklungsphasen sein, ist in der Regel aber als Kriterium nicht hinreichend: Arnett (2000) konnte zeigen, dass solche Altersabhängigkeiten hauptsächlich Spiegel der Erwartungen im kulturellen Umfeld und diese wiederum stark vom Bildungssystem abhängig sind.8 Speziell im deutschsprachigen Raum konnte beobachtet werden, dass die Schulform und damit die Aufnahme der Berufstätigkeit eine zentrale Rolle für den Zeitpunkt der Bewältigung vieler Entwicklungsaufgaben spielt (Kunze 1998). Der Zeitpunkt in der Schullaufbahn ist also aussagekräftiger als das Alter der Schülerinnen und Schüler. Für die vorliegende Absicht, Handlungsimpulse für den Unterricht der Elementarteilchenphysik aus der Betrachtung der Entwicklungsaufgaben seiner Schülerinnen und Schüler abzuleiten, sind entsprechend nicht ausschließlich am Alter orientierte Beschreibungssysteme vielversprechender. Exemplarisch seien zwei solche Zugriffe auf die Entwicklungsbeschreibung Heranwachsender genannt. Steinberg löst die etappenhafte Sammlung von Entwicklungsaufgaben zu Phasen auf und verweist darauf, dass deren Beginn stark von der eingenommenen Perspektive abhängig ist (Steinberg 2011, S. 5 f.). So lässt sich aus biologischer Perspektive dafür argumentieren, den Beginn der Adoleszenz mit dem Einsetzen der Pubertät und ihr Ende mit dem Erlangen der Geschlechtsreife gleichzusetzen. Aus juristischer Perspektive dagegen beginnt sie mit der Anwendbarkeit des Jugendstrafrechts und endet mit der vollen Strafmündigkeit – eine Perspektive, die im Folgenden wieder aufgenommen wird. Die Zeit um den Unterricht der Elementarteilchenphysik ist durch die Vermengung mehrerer Entwicklungserwartungen gekennzeichnet, die alle aus unterschiedlichen Perspektiven erwachsen und schrittweise drängender werden.

7 Die Bedeutung des Begriffs normativ

unterscheidet sich hier von der in anderen Bereichen. In der Beschreibung von Entwicklungsaufgaben beinhaltet er weder Appell noch Wertung und wird rein deskriptiv zur Beschreibung derjenigen Entwicklungsaufgaben verwendet, deren Bewältigung sich zu gegebenem Zeitpunkt in gegebenem Kontext die deutliche Mehrheit der Jugendlichen widmet. 8 In Deutschland sind beispielsweise Kindergarten, Grundschule, weiterführende Schule, Berufsausbildung und deren Abschluss bildungssystemabhängig an das Lebensalter der Heranwachsenden geknüpft. Die Erwartungen des Umfelds an ein Kindergartenkind sind andere als an ein Grundschulkind oder eine Schülerin bzw. einen Schüler einer weiterführenden Schule. In anderen Ländern werden diese Wechsel zu anderen Zeitpunkten vollzogen.

4

Mit moderner Physik zum mündigen Bürger?

67

Lewin hingegen beschreibt die Adoleszenz als Erwerbsprozess von Bereichen persönlicher Autonomie (Lewin 1963/2012, S. 173 f.). Dabei unterscheidet er, ähnlich wie Steinberg, zwischen unterschiedlichen Zusammenhängen, in denen (in der Regel unabhängig voneinander) Selbstbestimmtheit und -ständigkeit erworben wird, stellt aber nicht die Anforderungen des Umfelds, sondern die Emanzipation von diesen in den Mittelpunkt. Adoleszenz ist demnach nicht als starre Abfolge von Zielen zu verstehen, sondern als Sammlung von nur selten aufeinander aufbauenden Emanzipationsaufgaben. Die so von Lewin beschriebene Adoleszenz, in deren Höhepunkt der Unterricht der Elementarteilchenphysik üblicherweise fallen würde, ist nicht durch einen neuen Satz von Entwicklungsaufgaben gekennzeichnet, sondern durch den Umstand, dass sich für die Heranwachsenden eine Gemengelage aus bereits errungener Autonomie und noch bestehender Abhängigkeit ergibt.9 Will der Unterricht der Elementarteilchenphysik diese Prozesse der persönlichen Entwicklung aufnehmen und einen Beitrag zur Mündigkeit der beteiligten Schülerinnen und Schüler leisten, sieht er sich aufgrund der unterschiedlichen Entwicklungsräume und -instanzen der Schülerinnen und Schüler mit einer beliebig komplexen Aufgabe konfrontiert. Um diese Komplexität zu reduzieren, möchte ich in den folgenden Abschnitten ein Ordnungssystem vorschlagen. Vereinfacht wird seine Entwicklung durch die scharf definierte Zielgruppe der Lernenden: Gymnasiastinnen und Gymnasiasten am Ende ihrer Schulzeit und kurz vor oder nach Beginn der Volljährigkeit, die zudem einen Physikkurs gewählt haben. Bei der Identifikation von Entwicklungsaufgaben hilft weiterhin die Frage, welche Instanzen im Umfeld zu ihrer Bewältigung evaluierend Stellung beziehen (Hericks 1998). Diese sind nicht grundsätzlich die gleichen, die für die Formulierung der Entwicklungsaufgaben verantwortlich waren. Speziell für die Lernenden der Elementarteilchenphysik kann aus ihrer systemischen Eingebettetheit die folgende Ordnung konstruiert werden. In Anlehnung an Hericks unterscheide ich im Folgenden zwischen schulischen, sozialen und individuellen Entwicklungsanlässen (ebd.). So wird der normative Satz möglicher Aufgaben beschreibbar und kann zur Identifizierung von Bildungspotenzialen für den Unterricht genutzt werden. Schulische Entwicklungsanlässe Schulische Entwicklungsanlässe und -aufgaben generieren sich primär aus der Organisation Schule (zum Organisationsbegriff vgl. Kühl 2011).10 Diese stellt eine ganze Reihe von Aufgaben an ihre Schülerinnen und Schüler. Im Allgemeinen zählen hierzu Lern- und Kompetenzerwartungen, aber auch extracurricular honorierte Aktivitäten wie Projektangebote, Arbeitsgruppen und Wettbewerbe. An die Bewältigung sind im erfolgreichen Fall Lob und die Gelegenheit positiver Identitätskonstruktion geknüpft.

9 Beispielsweise

ist es in vielen westlichen Kulturen nicht ungewöhnlich, dass Heranwachsende bereits im Hinblick auf ihre Sexualität, Weltanschauung, politische Mitbestimmung, Mobilität und das Strafrecht vollkommen autonom sind, während sie im Hinblick auf ihre Wohnsituation und Finanzen noch für eine Zeit abhängig bleiben. 10 Sekundär gibt es natürlich auch im familiären Bezug Erwartungen an das schulische Engagement, die von den Jugendlichen als Entwicklungsaufgaben übernommen werden können.

68

T. Zügge

Im Falle der Nichtbewältigung sind die Folgen verhältnismäßig einschneidend für die Heranwachsenden. Sie reichen von destruktiven Beiträgen zur Identitätskonstruktion bis hin zum drohenden Wechsel der Bezugsgruppe und dem Verlust von Freundschaften. Nicht zuletzt darum messen Jugendliche, obwohl die Leistungserwartungen und -evaluationen der Schule ein letztlich in sich geschlossenes System bilden (Schenk 1998), den von ihr gestellten Aufgaben hohe Relevanz bei. Für die Zielgruppe der Elementarteilchenphysik-Lernenden verdichtet sich die Relevanz der von der Schule gestellten Aufgaben in besonderem Maße. Das nahende Abitur markiert nicht nur das Ende einer Lebensphase, sondern fungiert in unserer Gesellschaft auch als Reifeprüfung. Weitere Bedeutung gewinnt die Prüfung durch die scheinbar enge Verknüpfung der Abschlussnote mit den Möglichkeiten des weiteren beruflichen Werdegangs und somit der Konstruktion des sog. „zukünftigen Selbst“. Kurzum: In den Monaten vor dem Abitur wird dieses immer wichtiger für die Lernenden. Das in Gesprächen von Lehrenden häufig artikulierte Bedauern darüber, dass die Schülerinnen und Schüler sich zum Ende der Oberstufe hauptsächlich dafür interessierten, welche Inhalte „abiturrelevant“ seien, ist die direkte Folge dieser Relevanzzuschreibung. In der besonderen Ernsthaftigkeit, mit der viele Lehrerinnen und Lehrer ihre Schülerinnen und Schüler auf die Prüfungen vorbereiten, geschieht also bereits entwicklungssensible Unterrichtsgestaltung – die Abiturprüfungen sind eben doch mehr als Fachprüfungen. Schulische Entwicklungsanlässe als bildungsrelevante Impulse aufzunehmen bedeutet, sich die Eingebettetheit der Lernenden in diesem System zu vergegenwärtigen. Ein konstruktiv bildender Umgang nimmt sie ernst und interpretiert darum die Gelingensbedingungen des Systems selbst als Generatoren unterrichtlicher Bildungspotenziale. Das bedeutet in letzter Konsequenz, dass die Kernlehrpläne der Bundesländer zum Teil der Diskussion über den Bildungswert des Unterrichts werden. Unabhängig davon, welche Argumente man beispielsweise für oder gegen den Erkenntniswert des „Austauschteilchen-Konzepts“ (vgl. etwa Lehrplan SII Physik NRW 2014, S. 47) ins Feld führen mag; es gewinnt in manchen Bundesländern allein durch seine Aufnahme in die Lehrpläne (und damit die Abiturerwartungen) an Relevanz für die Schülerinnen und Schüler. So wird es Teil der im Verlauf der Identitätskonstruktion zu bewältigenden Entwicklungsaufgaben. Sozial-gesellschaftliche Entwicklungsanlässe Auch das außerschulische Umfeld der Lernenden formuliert implizit und explizit Erwartungen, die von Schülerinnen und Schülern übernommen, d. h. als Entwicklungsaufgaben angenommen werden. Individuell-zwischenmenschliche Aufgaben sind von außen selten beobachtbar und praktisch nie verallgemeinert zu antizipieren. Sie spielen darum für die didaktische Bestimmung des Bildungspotenzials eines Fachinhalts keine Rolle. Die normativen Erwartungen der Gesellschaft und der jeweiligen Bezugsgruppe an die Heranwachsenden können aber für bestimmte Subgruppen antizipiert werden. Im Fall des Unterrichts der Elementarteilchenphysik ist das besonders einfach. Dieser findet am Ende der gymnasialen Oberstufe statt. Die Zielgruppe ist, wie bereits bemerkt, denkbar gut beschreibbar: Schülerinnen und Schüler im Physikkurs des

4

Mit moderner Physik zum mündigen Bürger?

69

Gymnasiums, am Ende ihrer Schulzeit, gerade oder beinahe volljährig. Hieraus lassen sich normative, d. h. ihnen gemeinsame Entwicklungsaufgaben, ableiten. Als gesellschaftlich besonders betonter Entwicklungszeitpunkt kann in Deutschland das Erreichen des 18. Lebensjahres bezeichnet werden. Aus juristischer Perspektive wird mit der Volljährigkeit Heranwachsenden ein ganzer Strauß neuer Freiheiten zugesprochen: das Wahlrecht, die volle Geschäftsfähigkeit, das Recht, Fahrzeuge auch unbegleitet zu führen, das uneingeschränkte Aufenthaltsbestimmungsrecht usw. Wie keine andere Schwelle markiert das deutsche Recht das Erreichen des 18. Lebensjahres als Zeitpunkt, zu dem eine gewisse Reife vorausgesetzt wird. Damit ist an diese Freiheiten auch die gesellschaftliche Erwartung geknüpft, mit den neuen Rechten verantwortungsvoll umzugehen. Gesellschaft, Familie und Freunde beziehen Stellung und bewerten, in welchem Umfang die so entstehenden Entwicklungsaufgaben von den Heranwachsenden bewältigt wurden.11 Beispielsweise ist das Recht zu wählen eng mit der Erwartung verknüpft, im Diskurs begründet argumentieren und informiert politische Entscheidungen treffen zu können (vgl. für weitere Beispiele Steinberg 2011, S. 86). Letzteres ist eine normative Entwicklungsaufgabe, welche der Physikunterricht schon seit langer Zeit im Rahmen der Behandlung der politischen Debatte um die zivile Nutzung der Kernenergie aufnimmt und für die er intellektuelle Unterstützung bei der Meinungsbildung bereitstellt. In ähnlicher Weise könnte auch der Unterricht der Elementarteilchenphysik die politische Diskussion um die Finanzierung von Grundlagenforschung aufnehmen, die für viel Geld in Großforschungsanlagen wie dem CERN u. a. betrieben wird. Zusätzlich messen Jugendliche zum Ende ihrer Schulzeit der eigenen Berufsorientierung einen höheren Stellenwert bei (Schenk 1998). Es liegt nahe, die unterschiedlichen Berufswege (un-)bekannter Physikerinnen und Physiker selbst zum Thema zu machen. Für den Unterricht der Elementarteilchenphysik bietet es sich z. B. an, die Quarks entwicklungssensibel auch im Kontext ihrer Postulierung zu unterrichten. Das würde bedeuten, von Murray Gell-Manns („Quarks“) und George Zweigs („Aces“) „Wettlauf“ um die Publikation ihrer Arbeiten zu berichten und die Lebenswege der beiden Wissenschaftler im weiteren Verlauf mit den Schülerinnen und Schülern zu thematisieren. Auch die persönliche Identitätskonstruktion der Lernenden begleitet den Unterricht der Elementarteilchenphysik. Diese drückt sich z. B. in der Wahl des Leistungskurses aus. Damit einher geht die Erwartung, Expertise zu erwerben, welche sich zur weiteren Identitätskonstruktion verwenden lässt (Hart 1988). In einer Entwicklungsphase, in der die eigene Identität weniger durch die Zugehörigkeit zu einer Gruppe, als durch die Distinguiertheit innerhalb dieser entwickelt wird (ebd.), entsteht der Wunsch, durch den Besuch des Leistungskurses zumindest in der unmittelbaren Peergroup eine der Expertenrollen einnehmen zu können. Gelegenheiten hierzu entstehen unter anderem durch die populärkulturelle Aufnahme des Themas in den Medien, die bereits häufig Teil des Unterrichts der Elementarteilchenphysik ist. Prinzipiell kann

11 Eine

besonders prägnante Form ist die uneingeschränkte Anwendbarkeit des Strafrechts (vgl. etwa Flammer und Alsaker 2002, S. 301 f.).

70

T. Zügge

hierdurch Interesse für den Inhalt erzeugt werden. Bemerkenswert aber ist, dass die Auswahl der Fachinhalt und Lebenswelt verknüpfenden Medien in der Regel von den Assoziationen der Lehrenden geleitet ist und so die Expertisegelegenheiten in der Peergroup der Lernenden zu übersehen droht.12 Es erscheint mir sinnvoll, sich weniger damit auseinanderzusetzen, welche Themen für die Lehrenden mit dem Unterrichtsstoff verbunden sind und stattdessen mehr damit, zu welchen Fragen die Jugendlichen in ihrem Umfeld selbst (auch aufgrund ihrer Kurswahl) Stellung beziehen wollen. Gesellschaftlich-soziale Entwicklungsanlässe aufzunehmen bedeutet also, sich das konstruktive Zusammenspiel von Fachinhalt und Lebensrealität der Lernenden zu vergegenwärtigen. Individuelle Entwicklungsanlässe In der dritten Dimension soll die emotionale Entwicklung junger Erwachsener selbst Impulse für den Unterricht geben. Die Adoleszenz, also der Lebensabschnitt von der Pubertät bis zum Erwachsenenalter, wird häufig als „Höhepunkt“ der Auseinandersetzung mit der eigenen Identität bezeichnet (vgl. dazu Flammer und Alsaker 2002; Steinberg 2011). Alle diese Phase prägenden Veränderungen aufzunehmen, würde den Umfang dieses Beitrags sprengen. Auf zwei Bereiche der Entwicklung, die meiner Meinung nach besonders große Potenziale für den Unterricht der Elementarteilchenphysik bergen, wird im Folgenden eingegangen. Eine zentrale Entwicklung der Adoleszenz ist der stete Gewinn neuer Autonomiebereiche. Besonders in der „späten Adoleszenz“, kurz vor und kurz nach dem Erreichen der Volljährigkeit, werden immer mehr Bereiche der Selbstständigkeit angeboten und/oder eingefordert (vgl. Havighurst 1948, S. 55 ff.). In diese Entwicklung fügt sich der Wunsch nach Augenhöhe mit den Lehrpersonen und nach der Freiheit, die eigene Meinung auch im Unterricht vertreten zu dürfen. Beides ist während der Eingebundenheit in das Organisationssystem Schule nur eingeschränkt möglich. Mit zunehmender Nähe zum Ende der Schulzeit rückt die Realisierung aber näher. Im Sinne einer Affinität zur „Zone der nächsten Entwicklung“ (vgl. Cole et al. 1978, Kap. 6) ließe sich Autonomie auch im Unterricht der Elementarteilchenphysik vorbereiten und unterstützen. Die nahende Loslösung vom Schulsystem vorzubereiten, bedeutet unter anderem, die Emanzipation von den bisher geltenden Wissensautoritäten zu üben. Also z. B. die Schülerinnen und Schüler zu ermächtigen und zu motivieren, die „modellhaften“ Verkürzungen des Physikbuches begründet zu kritisieren. Um beispielsweise die Abb. 4.2 und die dazugehörige Bildunterschrift zu analysieren, muss im Unterricht zuvor lediglich erarbeitet werden, dass Feynman-

12 Die verhältnismäßig kurze Erwähnung des CERN im „Illuminati“-Zyklus von Dan Brown reichte in der Vergangenheit aus, um entsprechende Filmausschnitte mit Tom Hanks zum Ausgangspunkt mehrerer Vermittlungsentwürfe zu machen. In gleicher Form geschah dies mit der damaligen Titelseite der ZEIT zur Entdeckung des „Gottesteilchens“. Wirklich jugendrelevante Medien, wie Computerspiele, Fernsehserien und Social-Media-Kanäle, finden sich nur überaus selten als Kontexte für den Unterricht.

4

Mit moderner Physik zum mündigen Bürger?

71

Abb. 4.2 Typische Darstellung zu Feynman-Diagrammen mit Bildunterschrift, wie man sie in Physikbüchern findet. Aus: (Kilian 2015, S. 146). c Westermann Gruppe 

Diagramme nicht raumzeitlich eingebettet interpretiert werden dürfen, Entitäten darin auf keinen Bahnen „fliegen“ und die dargestellten Propagatoren den assoziierten Teilchen keine über Vertices hinausgehende Identität stiften (vgl. Passon et al. 2018 und den Beitrag von Harlander in Kap. 2).13 Auch die Betrachtung bevorzugter Denkformen kann bildungswerte Impulse liefern. Das Ende der Schulzeit antizipierend, gewinnt die Frage nach der zukünftigen Tragfähigkeit der eigenen Identitätskonstruktion zunehmend an Bedeutung (Nurmi 1991). Das betrifft nicht nur Fragen nach der Rolle innerhalb des sozialen Umfelds und der Berufsorientierung, sondern auch solche nach Lebensstil, Beziehungs- und Familienmodell. Kurzum: Ein zunehmend komplexes Wertesystem schärft sich individuell aus (ebd.). Die Methode, mit der sich die Heranwachsenden Orientierung in den möglichen zukünftigen Versionen ihrer selbst verschaffen, also den Raum aller erträumbaren Möglichkeiten hinsichtlich ihrer Erwartbarkeit sortieren (Lewin 1963/2012, S. 175), ist den Gedankenexperimenten des Physikunterrichts ähnlich. Die entsprechende Affinität zu diesen (Havighurst 1948, S. 70) lässt sich nicht nur im Unterricht der speziellen Relativitätstheorie aufnehmen, sondern auch in dem der Elementarteilchenphysik. Sowohl die Abschätzungen von Kraft und Reichweite der starken Wechselwirkung wie auch die Annäherung an den Begriff „virtuelles Teilchen“ kann in Form von Gedankenexperimenten gestaltet werden.14 Den Beitrag individueller Entwicklungsprozesse in der Curriculumentwicklung aufzunehmen bedeutet, sich zu vergegenwärtigen, welche Lebensfragen Heranwachsende zu bestimmten Phasen ihrer Reifung beschäftigen und mit welchen Mitteln ihre Beantwortung versucht wird.

13 Der Vollständigkeit halber sei darauf verwiesen, dass all diese Themen auf der gegenüberliegenden

Seite in einem Exkurskasten (Kilian 2015, S. 147) korrekt ausgeführt und in vorbildlicher Weise dargelegt werden. Lediglich das populäre Missverständnis, die Antiteilchen bewegten sich „in der Zeit rückwärts“ (ebd.), wäre noch zu kritisieren. 14 Zwei entsprechende Beispiele finden sich im Beitrag von Zügge und Passon (Kap. 8).

72

4.4

T. Zügge

Zusammenführung und Impulse für den Unterricht der Elementarteilchenphysik

Im Verlauf der vergangenen Abschnitte wurden unterschiedliche Wege skizziert, mit denen sich der Bildungswert der Elementarteilchenphysik, bildungswerte Inhalte und Methoden bestimmen lassen. Jeder dieser Ansätze weist hinaus über die reduktionistischen Narrative, die derzeit in unterrichtspraktischen Materialien für die Vermittlung der Elementarteilchenphysik vorgeschlagen werden. Darüber hinaus ist an mehreren Stellen darauf hingewiesen worden, wie die Elementarteilchenphysik als Unterrichtsinhalt Beiträge zur Klärung des Verhältnisses von Umwelt, physikalischer Methode und Individuum liefern kann. Den Beitrag begonnen habe ich mit Differenzierungen: Wilhelm von Humboldts Gegenüberstellen von allgemeiner und spezieller Bildung und Theodor Adornos Dialektik von reiner Geistestätigkeit und reiner Naturbeschreibung. Diese Mahnungen beherzigend möchte ich für eine Balance der Perspektiven plädieren. Über die letzten Seiten sind die folgenden Stichworte aufgeleuchtet: Starke Wechselwirkung, schwache Wechelwirkungen, Beta-Zerfall, Antimaterie, Ladungen, Erhaltungsgrößen, Modellkompetenz, Quantenmechanik, FeynmanDiagramme, Botenteilchen, Quarkmodell, Nukleonaufbau, mereologische Vorstellungen, populärwissenschaftliche Darstellungen, Kritik an Schulbuchdarstellungen, Autonomieerleben, History of Science, Nature of Science, Gedankenexperimente Ich betrachte diese Sammlung als Ausgangspunkt für die Entwicklung eines Elementarteilchenphysikcurriculums. Sie scheint mir eine der Komplexität der Materie und der Lebensphase der Lernenden angemessene Auswahl möglicher Bildungspotenziale für den Unterricht zu liefern.

4.5

Diskussion zum Vortrag von Thomas Zügge zusammengefasst von T. Zügge und O. Passon

Brigitte Falkenburg und Michael Kobel weisen darauf hin, dass das gezeigte Diagramm (Abb. 4.2) den beiden Diagrammen für die Bhabha-Streuung in unterster Ordnung sehr ähnlich sei. Ein Vergleich mit diesen könne hilfreich sein: Schon bei Beteiligung eines Positrons tragen in unterster Ordnung zwei Diagramme bei.15 Michael Kobel fragt, ob Thomas Zügge abseits vom „unglücklichen Wording“ in der Bildunterschrift („das nach rechts fliegende Elektron“) weitere grundsätzliche Kritikpunkte an der Darstellung habe. Thomas Zügge erklärt, dass er die Darstellung in Verbindung mit der Bildunterschrift als Einheit sehe. Diese Abbildung stünde beispielhaft für verbreitete Verkürzungen, die Schülerinnen und Schüler begründet

15 Anm. des Autors: Eine Abbildung der zwei Feynman-Diagramme in führender Ordnung für die Bhabha-Streuung (d. h. den Prozess e+ e− → e+ e− ) findet sich tatsächlich auf der gleichen Seite des Schulbuchs. Ein Hinweis auf höhere Ordnungen erst im Vertiefungskasten auf der gegenüberliegenden Seite. Ein Vergleich zwischen den beiden Prozessen findet nicht statt.

4

Mit moderner Physik zum mündigen Bürger?

73

kritisieren können. Die Kritik an ihnen könne Bildungsanlass sein, wenn sie als emanzipatorisches Moment genutzt würde. Mit Hinweis darauf, dass das gezeigte Diagramm für den Anwendungsfall, nämlich die Berechnung des Wirkungsquerschnitts der Rutherfordstreuung, vollkommen ausreichend sei, stellt Michael Kobel in Frage, dass es sich hierbei wirklich um eine Verkürzung handele. Er bittet Thomas Zügge zu erläutern, wie er konkret das dargestellte Diagramm kritisieren möchte. Dieser skizziert eine Möglichkeit, FeynmanDiagramme einzuführen (vgl. Abschn. 8.2.3): Auf transparenten Folien lässt man die Lerner mit fundamentalen Vertices Diagramme zu gegebenen Anfangs- und Endzuständen konstruieren. Lege man diese anschließend auf dem Overheadprojektor übereinander, lasse sich leicht ein Verständnis über die (begrenzte) Aussagekraft des einzelnen Diagrams, die Interferenz mehrerer Diagramme und den Begriff virtuelles Teilchen erlangen. Er erläutert, dass es bei anschließender Betrachtung des abgebildeten Diagramms für die Schülerinnen und Schüler möglich sei, die Verkürzungsmerkmale der Abbildung zu benennen. Brigitte Falkenburg ergänzt, dass beispielsweise ein offensichtlicher Fehler darin bestünde, dass die Achsen gegenüber der Erläuterung im Text vertauscht seien und ein zweiter, dass die Heisenbergsche Unschärferelation in der Abbildung ignoriert würde. Für Thomas Zügge gibt es noch weitere Merkmale, die er für fragwürdig hält: Das Diagramm sei raumzeitlich eingebettet und die im Text geschilderte Identität des Elektrons vor dem Vertex mit demjenigen nach dem Vertex nicht gegeben. Die entsprechenden Propagatoren seien getrennte Terme. Johannes Grebe-Ellis verleiht seiner Irritation darüber Ausdruck, dass zu diesem Zeitpunkt mindestens drei verschiedene Meinungen zu fachlichen Mängeln des gezeigten Diagramms geäußert worden seien. Wolfgang Wagner entgegnet, dass sich die Kritik hauptsächlich auf die Bildunterschrift bezöge. Die Frage sei für ihn zum einen, ob der Text zum Bild passe und (aus seiner Sicht viel wichtiger): Welche Funktion das Diagramm im Schulbuch habe? Ermögliche es den Lernenden, Feynman-Diagramme im Anschluss zu benutzen? Zügge erklärt, dass es in Schulbüchern üblich sei, einzelne Feynman-Diagramme mit spezifischen Prozessen zu identifizieren, also beispielsweise zu formulieren: „Das ist das Feynman-Diagramm des β-Zerfalls“. Insofern würden Feynman-Diagramme sehr exemplarisch genutzt, ohne ihre Genese transparent zu machen, bzw. echte Anwendbarkeit zu erzeugen oder vorzubereiten. Auf eine weitere didaktische Barriere weist Ulrich Heinen hin. Er merkt mit Bezug auf die galileische Gegenüberstellung von Praktikern und Theoretikern an, dass sich der Unterricht der Elementarteilchenphysik von vielen anderen Themen unterscheide. Es bleibe den Schülerinnen und Schülern verwehrt, abseits von theoretischen Überlegungen die Richtigkeit der Theorie praktisch (d. h. experimentell) zu überprüfen. Dies gefährde die entwicklungsförderliche (und im naturwissenschaftlichen Unterrichts auch etablierte) Absicht des Unterrichts, sich der Wahrheit oder Falschheit der Darstellungen und somit der eigenen Kritikfähigkeit zu vergewissern. Thomas Zügge differenziert, dass nicht die Theorie selbst, sondern ihre Darstellung im Schulbuch inkonsistent sei. Dabei müsse die Theorie gar nicht so tief durchdrungen werden, um Darstellungen wie die in Abb. 4.2 begründet zu kritisieren. Darüber

74

T. Zügge

hinaus kenne der Unterricht der Quantenmechanik Experimente, aus deren Ergebnissen z. B. ersichtlich werde, wie problematisch es sei, von Teilchenbahnen zu sprechen. Das müsse man stärker vernetzen. Andreas Schulz erinnert an den Grundsatz, dass die didaktische Reduktion keine Fehlvorstellungen erzeugen dürfe. Michael Kobel greift Johannes Grebe-Ellis Verwunderung darüber auf, dass inhaltlich sehr unterschiedliche Ansichten geäußert wurden. Er vermutet, dass der Grund darin zu suchen sei, dass die Teilnehmenden sich nicht immer klar darüber seien, auf welchem „Level“ sie redeten und an welcher Stelle im Curriculum diese Differenzierungen notwendig seien. Das von Thomas Zügge angestrebte Verständnis sei wünschenswert, aber in der Schule schwer zu erreichen. Dies gelänge erst nach dem Verständnis der Grundprinzipien. Eine verfrühte Einführung berge die Gefahr, den Eindruck zu erwecken, die Wissenschaft wüsste letztlich nicht was sie tue. Er schlägt vor, zwischen der schulischen Behandlung (typischerweise in vier Doppelstunden) und der Vorlesung im Studium zu unterscheiden. In letzterer unterstütze er vollständig den Ansatz auf Merkmale wie die unterschiedlichen Propagatoren hinzuweisen und pflege dies auch so in seinen Veranstaltungen. Für die Schule aber stelle er in Frage, ob dieses Vorgehen sinnvoll sei. In letzter Konsequenz, betont er, hieße das ja, bereits in der Atomphysik darauf hinzuweisen, dass im 2 s–1 s Übergang des Wasserstoffatoms das 2 s-Elektron vernichtet und das 1 s-Elektron erzeugt würde. Er stellt in Frage, ob das wirklich der gewünschte Weg sei oder ob es für die anfängliche Beschreibung nicht ausreiche, darauf hinzuweisen, dass das Elektron die für es charakteristischen Größen beibehält, während es andere (wie den Impuls) über das Photon abgibt. Zügge entgegnet, dass man sich vielleicht tatsächlich missverstanden habe. Nach wie vor sei es ihm wichtig, hinsichtlich keiner der Kategorien („specielle“ Bildung, allgemeine Bildung, Halbbildung) in eine Einseitigkeit zu verfallen. Das bedeute natürlich eine Abwägung zwischen z. B. dem „Eintauchen in die Quantenfeldtheorie“ gegenüber der Verdinglichung der abstrakten Konzepte in didaktischer Absicht. In jedem der heute gehörten Vorträge habe man deutlich mehr Inhalte erlebt, als in vier Doppelstunden unterrichtet werden könne. Wer sich in der konkreten Unterrichtsplanung begründet gegen einzelne Elemente entscheide, tue dies halt. Die diskutierten Inhalte der Quantenfeldtheorie aber gar nicht erst mit in die Auswahl zu nehmen, bedeute für ihn, ein wichtiges Bildungspotenzial des Gegenstandes zu vernachlässigen. Michael Kobel möchte nun konkret wissen, ob Thomas Zügge vorschlage, die Abregung des Wasserstoffatoms in der Schule mithilfe von Erzeugungs- und Vernichtungsprozessen zu lehren. Zügge weist darauf hin, dass die Frage mehr oder weniger hypothetisch sei, weil sie davon ausgehe, dass nach dem Unterricht der Elementarteilchenphysik noch Zeit sei auf vorher unterrichteten Stoff zurückzublicken, um dann im Lichte des bis zum Ende der Oberstufe erworbenen Verständnisses, die Grenzen seiner modellhaften Beschreibung zu hinterfragen. Wenn diese Gelegenheit tatsächlich bestünde, würde er unbedingt dafür plädieren, dies so zu tun. Oliver Passon zeigt sich von der gestellten Frage irritiert: Letztlich habe doch niemand gefordert, im Unterricht der Atomphysik bereits Konzepte der Quantenfeldtheorie einzuführen. Eine Pointe der Physik bestehe doch gerade darin, dass

4

Mit moderner Physik zum mündigen Bürger?

75

Phänomenbereiche auf unterschiedlichen Größenskalen entkoppeln. Dadurch sei es möglich, Atomphysik zu betreiben, ohne hierfür auf die Elementarteilchenphysik zurückzugreifen. Nun aber stünde ein Feynman-Diagramm an der Tafel und damit die Frage im Raum, was die zu vermittelnde Erkenntnis sei. Überspitzt formuliert: Möchte man die oberflächlichen Ähnlichkeiten mit dem alten betonen oder die neuen Aspekte stark machen? Michael Kobel fragt zurück, was denn der grundsätzliche Unterschied zwischen einem abstrahlendem Elektron wie in Abb. 4.2 und einem Strahlungsprozess im Wasserstoffatom sei. Brigitte Falkenburg bemerkt, dass das eine Elektron gebunden, das Andere aber frei sei. Sie regt an, den Lernern zu vermitteln, dass die Wirklichkeit komplex sei und auf verschiedenen Ebenen auch verschiedene Modelle angewendet würden. Oliver Passon weist darauf hin, dass das Wasserstoffatom mit der nichtrelativistischen Quantenmechanik beschrieben werden könne. Das Strahlungsfeld müsse also gar nicht quantisiert werden, und der Begriff des „Photons“ sei (an dieser Stelle) gar nicht anwendbar. Wolfgang Wagner schlägt vor, dass der Fokus bei der Behandlung von FeynmanDiagrammen darauf liegen solle, dass dabei nicht über einzelne Vorgänge gesprochen werde. Stattdessen gehe es darum, statistische Prozesse zu beschreiben, und diese Botschaft solle im Vordergrund stehen. Brigitte Falkenburg möchte die Aufmerksamkeit auf die Thematik Teil-GanzeBeziehungen lenken. Natürlich sei es ein wichtiger Punkt, auf die Superposition unterschiedlicher Prozesse hinzuweisen. Ein anderer wichtiger Aspekt sei es aber auch, dass sich das Ganze nicht immer weiter in voneinander unabhängige „Substanzen“ zerlegen ließe. Die Anzahl der Teilchen sei auf Ebene der Quarks, wie im Vortrag bemerkt, nicht mehr so klar definiert und der Quarkinhalt eines Nukleons maßgeblich von der Energie des Streuexperiments abhängig. Insofern bedeute dies, dass auf der „untersten“ Ebene das Verhältnis zwischen den Dingen und ihre Beziehungen untereinander nicht mehr eindeutig seien. Sie regt an, von hier eine Beziehung zu den sozialen Erfahrungen der Lerner herzustellen. Wer man sei und wie man sich selbst verstünde sei zu großen Teilen relational. Die (hier: sozialen) Beziehungen seien mindestens ebenso wichtig wie die „Entitäten“ zwischen denen sie bestünden. Letztlich ließe sich metaphorisch formulieren, dass jedes Verhalten des Einzelnen abhängig vom Umfeld sei. In der „Wechselwirkung“ mit Anderen löse sich die Individualität stückweise auf. Julia Woithe fragt kritisch, ob es nicht ein „bisschen traurig“ sei, die Faszination der Teilchenphysik dazu zu nutzen, Schulbuchdarstellungen zu kritisieren. Genauer, ob Jugendliche in dem Alter nicht ohnehin im Prozess seien, sich vom Schulbuch zu lösen um über das Universum, den Kosmos und die Grenzen des Wissens nachzudenken. Thomas Zügge stimmt ihrer Beobachtung zu. Er merkt aber auch an, dass er die Ablösung vom Schulbuch als Emanzipationsprozess verstehe, der begleitet werden könne. Er betont, dass er auf inhaltlicher Ebene das Thema „Offene Fragen der modernen Physik“ für ebenso emanzipatorisch bedeutsam halte. Eine Konkurrenz zwischen diesen beiden Zugängen sähe er nicht. Julia Woithe fragt zudem an, ob eine Validierung mit Jugendlichen geplant sei. Thomas Zügge verweist auf die Kooperation mit einer Wuppertaler Schule, betont

76

T. Zügge

aber, dass er in seiner Forschungsarbeit zuerst die bestehenden Erkenntnisse aus der Entwicklungspsychologie und Didaktik nutzen wolle. In seinem Schlusswort plädiert Thomas Zügge dafür, bildungswerte Inhalte nicht allein in der fachwissenschaftlichen Reflexion zu suchen.

Literatur Adorno TW (1959/2003) Theorie der Halbbildung. In: Tiedemann R (Hrsg) Gesammelte Schriften, Soziologische Schriften 1, Bd VIII. Suhrkamp, Frankfurt a. M van Ackeren I, Klemm K, Sprütten F, Weegen M (2007) Die Naturwissenschaften in Deutschlands Schulen und Hochschulen. Abgerufen von. www.uni-due.de/imperia/md/content/bifo/studie_ naturwissenschaften_2007-11-19 Anderson PW (2014) More is different: broken symmetry and the nature of the hierarchical structure of science. Complex Organ 16(3):117–134 Arnett JJ (2000) Emerging adulthood: a theory of development from the late teens through the twenties. Am Psychol 55(5):469–480 Blüggel L, Hegemann A, Schmidt M (2015) Impulse Physik. Qualifikationshase Grundkurs. Für Gymnasiusm in Nordrhein-Westfalen. Ernst Klett Verlag GmbH, Stuttgart Cole M, John-Streiner V, Scribner S, Souberman E (Hrsg.) (1978) L.S. Vygotsky – mind in society: the development of higher processes. Harvard UP, Cambridge Dörpinghaus A, Poenitsch A, Wigger L (2012) Einführung in die Theorie der Bildung, 4 durchges edn. WBG, Darmstadt Flammer A, Alsaker F (2002) Entwicklungspsychologie der Adoleszenz: Die Erschliessung innerer und äußerer Welten im Jugendalter. Huber, Bern Grehn J, Krause J (2016) Metzler Physik. Gesamtband, 10. Aufl. Bildungshaus Schulbuchverlage, Braunschweig Hart D (1988) The adolescent self-concept in social context. In: Lapsley DK, Power FC (Hrsg.) Self, ego and identity. Springer, New York, pp 71–90 Havighurst RJ (1948) Developmental tasks and education. University of Chicago Press, Chicago von Hentig H (1999) Bildung. Ein Essay. Beltz, Weinheim Hericks U (1998) Der Ansatz der Bildungsgangforschung und seine didaktischen Konsequenzen. In: Meyer MA, Reinartz A (Hrsg.) Bildungsgangdidaktik. Opladen, Leske+Budrich, pp 173–188 Hofer M (2014) Persönlichkeitsentwicklung als schulisches Erziehungsziel jenseits kognitiver Kompetenzen. Zeitschrift für Entwicklungspsychologie und Pädagogische Psychologie 46(2):55–66 Humboldt Wv (1809/2002). Der Königsberger und der Litauische Schulplan. In: Flitner A, Giel K (Hrsg) Werke in fünf Bänden, Bd IV. WBG, Darmstadt Jung W, (1993) Hilft die Entwicklungspsychologie dem Physikdidaktiker? In: Duit R, Gräber W (Hrsg) Kognitive Entwicklung und Lernen der Naturwissenschaften, IPN, Kiel S 86–107 Kilian U (Hrsg.) (2015) Dorn-Bader Physik. Qualifikationsphase Grundkurs, Schülerbdand (Gymnasium, Nordrhein-Westfalen, Sek II). Schroedel, Braunschweig Klafki W (1957/1963) Das pädagogische Problem des Elementaren und die Theorie der kategorialen Bildung, 2., erw. Aufl. Beltz, Weinheim Klafki W (1991/2007) Neue Studien zur Bildungstheorie und Didaktik: Beiträge zur kritischkonstruktiven Didaktik, 6., Aufl., erst ab 2., Aufl. eingefügt. Beltz, Weinheim Klieme E, Avenarius H, Blum W, Döbrich P, Gruber H, Prenzel M, Reiss K, Riquarts K, Rost J, Tenorth H-E, Vollmer HJ (2007) Zur Entwicklung nationaler Bildungsstandards. Expertise. Bundesministerium für Bildung und Forschung, Bonn Kühl S (2011) Organisationen. Eine sehr kurze Einführung. VS Verlag für Sozialwissenschaften, Wiesbaden

4

Mit moderner Physik zum mündigen Bürger?

77

Kultusministerkonferenz, (2019) Ländergemeinsame inhaltliche Anforderungen für die Fachwissenschaften und Fachdidaktiken in der Lehrerbildung. Sekretariat der Kultusministerkonferenz, Berlin Kunze I (1998) Bildungsgangdidaktik, eine Didaktik für alle Schulstufen? In: Meyer MA, Reinartz A (Hrsg.) Bildungsgangdidaktik. Opladen, Leske+Budrich, pp 247–260 Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (Hrsg) (2014) Kernlehrplan für die Sekundarstufe II Gymnasium/Gesamtschule in Nordrhein-Westfalen. Physik. Abgerufen von https://www.schulentwicklung.nrw.de/lehrplaene/lehrplan/160/KLP_GOSt_ Physik.pdf Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (Hrsg) (2008) Kernlehrplan für die Sekundarstufe I Gymnasium/Gesamtschule in Nordrhein-Westfalen. Biologie. Abgerufen von https://www.schulentwicklung.nrw.de/lehrplaene/lehrplan/146/gym8_biologie. pdf Lewin K (1963/2012) Feldtheorie in den Sozialwissenschaften: Ausgewählte theoretische Schriften, 1. Aufl. Faks.-Ausg. der Erstausg. Huber, Bern Litt T (1959) Naturwissenschaft und Menschenbildung. Quelle & Meyer, Heidelberg Muckenfuß H (1995) Lernen im sinnstiftenden Kontext: Entwurf einer zeitgemäßen Didaktik des Physikunterrichts. Cornelsen, Berlin Nurmi JE (1991) How do adolescents see their future? A review of the devlopment of future orientation and planning. Dev Rev 11:1–59 Passon O, Zügge T, Grebe-Ellis J (2018) Pitfalls in the teaching of elementary particle physics. Phys Educ 54(1):015014 Posner GJ, Strike KA, Hewson PW, Gertzog W (1982) Accommodation of a scientific conception: toward a theory of conceptual change. Sci Educ 66(2):211–227 Schenk B (1998) Bildungsgangdidaktik als Arbeit mit den Akteuren des Bildungsprozesses. In: Meyer MA, Reinartz A (Hrsg.) Bildungsgangdidaktik. Opladen, Leske+Budrich, pp 261–270 Schulgesetz des Landes Nordrhein-Westfalen in der Fassung vom 21. Juli 2018. Abgerufen von https://www.schulministerium.nrw.de/docs/Recht/Schulrecht/Schulgesetz/ Steinberg LD (2013) Adolescence, 10. Aufl. McGraw-Hill, New York Terhart E (2019) Didaktik Eine Einführung. Philipp Reclam Jun. GmbH & Co, Stuttgart Wagenschein M (1995) Die pädagogische Dimension der Physik (1. Neuaufl. der Ausgabe von 1962). Hahner Verl.-Ges, Aachen-Hahn

5

Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik Oliver Passon

Inhaltsverzeichnis 5.1 5.2 5.3 5.4 5.5 5.6

Ein kurzer Blick auf die spezielle Relativitätstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Präkonzepte und Konzeptwechsel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mystifizierung der Quantenmechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Trivialisierung der Teilchenphysik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung und Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Diskussion zum Vortrag von Oliver Passon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

80 80 81 84 86 87

Darstellungen der modernen Physik in der Schule bewegen sich häufig im Spannungsfeld zwischen den Polen der Mystifizierung und Trivialisierung. Ersteres charakterisiert viele populäre und didaktische Darstellungen der Quantenmechanik. Hier wird also gleichsam ihre „Unverstehbarkeit“ insinuiert. Kurioserweise scheinen viele Darstellungen der Teilchenphysik zum anderen Extrem zu neigen, d. h. ihren Gegenstand zu trivialisieren. Ein „Verstehen“ im anspruchsvollen Sinne erscheint dann überflüssig, denn die Erklärungsmuster nutzen vertraute und klassische Modelle.1 Dieser Beitrag beschreibt diesen Sachverhalt, ordnet ihn lerntheoretisch ein und macht Vorschläge für ein „mittleres Register“ zwischen den beiden Polen.

1 Nur

am Rande sei angemerkt, dass die Gegenüberstellung von „klassischer“ und „moderner Physik“ nicht unproblematisch ist. Sie betont nicht nur den Bruch zwischen beiden, sondern unterstellt auch jeweils ihre Einheitlichkeit (Staley 2005; Gooday und Mitchell 2013).

O. Passon (B) Fakultät für Mathematik und Naturwissenschaften, Physik und ihre Didaktik, Bergische Universität Wuppertal, Wuppertal, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_5

79

80

5.1

O. Passon

Ein kurzer Blick auf die spezielle Relativitätstheorie

Im Folgenden behandele ich didaktische Darstellungen der Quantenmechanik und Teilchenphysik. Es wird sich jedoch als nützlich erweisen, zunächst einen kurzen Blick auf die spezielle Relativitätstheorie (SRT) zu werfen. Grundzüge dieser Theorie sind seit Langem in der gymnasialen Oberstufe curricular verankert. Der neue Kernlehrplan für die Oberstufe in NRW sieht sogar eine Einführung in die relativistische Kinematik im Grundkurs vor (MSW 2014). Auf diese Weise gerät etwa das bekannte „Zwillingsparadoxon“ in die Reichweite der schulphysikalischen Behandlung. Die Bezeichnung „Paradoxon“ ist sicherlich treffend gewählt, denn sein Inhalt ist vollständig erwartungswidrig und verblüffend.2 Allerdings kann in der unterrichtlichen Behandlung argumentiert werden, dass (i) überhaupt keine Erfahrung mit massiven Objekten so hoher Geschwindigkeit vorliegt – mit anderen Worten also gar keine Erwartung im engeren Sinne enttäuscht werden kann – sowie (ii) die Aufklärung des Paradoxons gelingt, wenn auf der Grundlage plausibler Postulate die Vorstellungen von Raum und Zeit einer Revision unterzogen werden. Es soll nun gar nicht behauptet werden, dass dies einfach ist und im Physikunterricht immer gelingt. Wichtig ist hier nur der Hinweis, dass am Ende der Unterrichtsreihe ein revidiertes, aber kohärentes Bild der Raumzeit stehen kann. Ebenfalls kann verständlich gemacht werden, in welchem Sinne die ursprüngliche Konzeption (von Raum und Zeit) als Grenzfall in der relativistischen Vorstellung enthalten ist.

5.2

Präkonzepte und Konzeptwechsel

Das oben grob angedeutete Vorgehen bei der schulischen Behandlung der speziellen Relativitätstheorie ist nicht zufällig ein glänzendes Beispiel für einen bestimmten Typus fachlicher Lernprozesse. Gemeint ist der sog. „Konzeptwechsel“. Fachdidaktikerinnen und Fachdidaktiker sowie Lehr-Lernforscherinnen und -forscher stimmen darin überein, dass typische Lernprozesse weniger als reiner Zugewinn von Wissensinhalten aufgefasst werden können, sondern vielmehr als Integration, Modifikation oder eben auch Revision bestehender Wissensinhalte zu rekonstruieren sind. Mit den Worten der renommierten Lehr-Lernforscherin Elsbeth Stern: „[· · · ] sinnstiftendes Lernen entsteht nicht nur durch die Erweiterung, sondern vor allem durch die Umstrukturierung von Begriffswissen“ (Stern 2013, S. 49). Gerade im naturwissenschaftlichen Unterricht besitzen die Lernenden in der Regel bereits Präkonzepte bzw. Alltagsvorstellungen zum behandelten Gegenstand. Diese Vorstellungen können von den Schülerinnen und Schülern ad hoc gebildet sein, oder auch als Ergebnis von langjährigem (und erfolgreichem) Umgang mit

2 Man beachte, dass zur zusätzlichen Steigerung des Effekts nicht bloß das Schicksal zweier (zufäl-

lig) gleich alter Menschen betrachtet wird, von denen einer auf der Erde verbleibt und der andere eine Raumfahrt mit hoher Geschwindigkeit absolviert.

5

Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik

81

der Lebenswelt entstehen. In diesem Fall stiften sie Kohärenz und Stabilität – der Lernende wird sie also nicht leichtfertig aufgeben, obwohl sie in der Regel fachwissenschaftlich defizitär sind.3 Deshalb gilt: Werden diese Konzepte im Lernprozess nicht aktiv aufgegriffen, drohen diese Alltagsvorstellungen die Unterrichtbemühungen zu überdauern (Möller 2010). Die klassische Formulierung der Konzeptwechseltheorie geht auf (Posner et al., 1982) zurück. Diese Autoren unterscheiden vier Schritte: 1. 2. 3. 4.

Es besteht Unzufriedenheit mit dem alten Konzept („dissatisfaction“). Das neue Konzept ist nachvollziehbar und verständlich („intelligible“). Das neue Konzept ist glaubwürdig und überzeugend („plausible“). Das neue Konzept ist fruchtbar bei der Deutung vieler Zusammenhänge („fruitful“).

Ausgangspunkt ist hier also die Unzufriedenheit mit dem bestehenden Konzept – in unserem Beispiel aus der speziellen Relativitätstheorie etwa durch das Zitat eines experimentellen Befundes zu erreichen, das mit den herkömmlichen Vorstellungen von Raum und Zeit nicht gedeutet werden kann.4 Am Ende der Unterrichtsreihe steht jedoch (idealerweise) ein verständliches, plausibles und fruchtbares neues Konzept („relativistische Raumzeit“). Leitend ist hier also die Idee, dass der Lernende seine Kohärenz und Sicherheit stiftende ursprüngliche Vorstellung nur aufgibt, wenn ihm eine überlegenes Konzept erfolgreich angeboten wird. Die Frage, wie dieser Prozess sinnvoll im Unterricht gestaltet wird, ist dabei noch gar nicht berührt worden – für das Argument im Folgenden aber auch nicht zentral. Eine aktuelle Darstellung der damit zusammenhängenden Ansätze findet sich bei (Schecker et al., 2018). Vor diesem Hintergrund können wir uns nun dem eigentlichen Gegenstand, nämlich der Quantenmechanik und Teilchenphysik, zuwenden.

5.3

Mystifizierung der Quantenmechanik

Dass populäre und didaktische Darstellungen der Quantenmechanik einen Hang zur Mystifizierung des Gegenstandes haben, braucht eigentlich kaum belegt werden.5 Hinlänglich bekannt ist etwa das in diesem Zusammenhang häufig zitierte Wort von

3 Bekannte Beispiele für solche Alltagsvorstellungen sind die Stromverbrauchsvorstellung, die Vor-

stellung „Wolle wärmt“, „Luft ist nichts“ oder „etwas Schweres schwimmt nicht“; siehe etwa (Müller et al., 2004). 4 Ein solcher experimenteller Befund ist etwa die Konstanz der Lichtgeschwindigkeit. Aus diesem Postulat zusammen mit dem Relativitätsprinzip folgt im Wesentlichen die gesamte Konzeption. 5 Die Online-Ausgabe des Duden gibt für „Mystifizieren“ folgende Bedeutungsübersicht: „Einer Sache ein geheimnisvolles, undurchschaubares Gepräge geben, sie mystisch betrachten“. Als Synonyme werden die Begriffe „irreführen“ und „täuschen“ vorgeschlagen. Im Bedeutungshorizont von „mystisch“ finden sich die Begriffe „nicht zu begreifen, unfasslich, unheimlich, unklar, unverständlich“ (Dudenredaktion(o. J.) 2018).

82

O. Passon

(Feynman 1967, S. 129): „I think I can safely say that nobody understands quantum mechanics“. Auf den Seiten des LEIFI-Projekts findet sich die folgende Bemerkung:6 Sowohl mit Licht als auch mit Elektronenstrahlung gibt es Experimente, wovon die einen eher mit dem Wellenmodell, die anderen eher mit dem Teilchenmodell verständlich erklärt werden können. Aber was ist Licht oder Elektronenstrahlung nun wirklich? Welle oder Teilchen? Ein Physiker formulierte dieses Dilemma für das Licht schon fast resignierend: Montag, Mittwoch und Freitag ist das Licht eine Welle, Dienstag, Donnerstag und Samstag ist es ein Teilchen und am Sonntag ruht es. (LEIFI Physik 2018)

Dieses Zitat hinterlässt einen ratlos. Warum heißt es etwa, dass einige Experimente „eher“ mit dem Teilchen- bzw. Wellenmodell erklärt werden können? Und wer ist dieser ominöse Physiker? Aber nicht nur der angebliche „Welle-Teilchen-Dualismus“ ist ein Topos dieser verhüllenden Rede. Hinweise auf die Nichtlokalität der Quantenmechanik verzichten fast nie auf die Bemerkung, Einstein hätte diese „spukhafte Fernwirkung“ vehement (aber letztlich erfolglos) abgelehnt. Das weitverbreitete Physikschulbuch Dorn-Bader behandelt im Zusammenhang mit der „EPR-Paradoxie“ (Bader 2011, S. 466) die Messung der Polarisationsrichtung an Photonen. Der Analysator wird mit P1 bezeichnet und seine Wirkung so beschrieben: Gemäß dem Messpostulat richten die Photonen ihre Polarisation opportunistisch nach der Stellung von P1 . Erst P1 erzeugt eine der beiden Polarisationsrichtungen, also Realität, und gibt sie als Messresultat aus. (S. 466, Hervorhebungen im Original)

Die anthropomorphe Zuschreibung des „Opportunismus“ an die Photonen befremdet ebenso wie der Telegrammstil der Formulierung. Wenige Absätze später wird ein Experiment behandelt, das die Korrelation eines verschränkten Paares von Photonen in einem Aufbau mit verzögerter Wahl untersucht. Charakterisiert wird dieser Versuch mit den Worten: „Man versucht, die Photonen zu überlisten“. Nun, wird sich die Schülerin oder der Schüler denken, wenn Photonen schon opportunistisch sind, wird man auch dies dürfen. Diese – zugegebenermaßen anekdotische – Evidenz soll genügen, um die Sorge zu begründen, dass die den Lernenden gebotene Wissensstruktur nicht annähernd so kohärent ist wie etwa jene der speziellen Relativitätstheorie. Während das Zwillingsparadoxon in einer relativistischen Raumzeit zum „Orthodoxon“ wird, bleiben EPR-Paradoxon, Welle-Teilchen-Dualismus oder Unbestimmtheitsrelation vermutlich, was sie schon zu Beginn des Unterrichts waren: rätselhaft, letztlich unverständlich und eine Zumutung für den gesunden Menschenverstand.

6 Bei LEIFI-Physik handelt es sich um ein deutschsprachiges Webportal, dass von zwei inzwischen

pensionierten Physiklehrern gegründet wurde. Die Materialien sollen für Schülerinnen und Schüler verständlich sein, werden aber sicherlich auch häufig von Physiklehrenden zur Unterrichtsvorbereitung genutzt. Im Jahr 2011 wurden Ernst Leitner und Ulrich Finckh für dieses Projekt mit dem Georg-Kerschensteiner-Preis der DPG ausgezeichnet.

5

Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik

83

Die Gründe für dieses Narrativ sind natürlich offensichtlich. Grundlagenfragen der Quantenmechanik werden seit Jahrzehnten kontrovers diskutiert und sind von einer Klärung immer noch weit entfernt. Dies unterscheidet sie markant von der – letztlich immer noch klassischen – Relativitätstheorie. Jedoch droht diese Darstellungsweise zu verdunkeln, dass auch die Quantenmechanik operational vollkommen beherrscht wird und eine „minimale Interpretation“ besitzt, auf die sich praktisch alle Forscherinnen und Forscher verständigen können. Gemeint ist dabei nicht die sog. „Kopenhagener Deutung“, deren Inhalt nirgends kodifiziert wurde. Vielmehr denke ich an eine Ensemble-Deutung, die die Möglichkeit einer raumzeitlichen bzw. kausalen Beschreibung von Einzelprozessen aus ihrem Gegenstandsbereich verweist (Friebe et al. 2018, S. 42 ff). Diese Sichtweise betont, dass der Gegenstandsbereich der Quantenmechanik eine (im Prinzip unendlich) große Zahl identisch präparierter Systeme darstellt, deren statistische Eigenschaften vorhergesagt werden.7 Die äußerst reizvolle und bildungswerte Diskussion offener Interpretationsfragen soll damit gar nicht aus dem Unterricht ausgeschlossen werden. Jedoch möchte ich anregen, dass diese Behandlung vor dem Hintergrund einer kohärenten (Minimal-)Interpretation stattfindet, die das im Verständnis Erreichte mindestens genauso stark betont, wie die ungelösten Probleme und offenen Fragen. Das Argument für ein solches Vorgehen ist nicht zuletzt lerntheoretisch. Im Sinne der in Abschn. 5.2 eingeführten Theorie des Konzeptwechsels ist es äußerst unplausibel, einen nachhaltigen Lernerfolg erzielen zu wollen, wenn die Unzufriedenheit mit dem bestehenden Konzept nicht durch eine überzeugende Alternative kompensiert wird. Zahlreiche Darstellungen der Quantenmechanik scheinen aber nur den ersten Schritt („Unzufriedenheit“) in der vierstufigen Folge des Konzeptwechsels zu machen. Schritt zwei und drei („Verständlichkeit“ und „Plausibilität“) werden nicht nur nicht angestrebt, sondern als Kategorien geradezu kompromittiert. Die „Fruchtbarkeit“ (der vierte Schritt des Konzeptwechsels) der Quantenmechanik, d. h. ihre Erklärungsmächtigkeit, wird allenthalben (und zu Recht) behauptet. Allerdings wird in der Regel beim Lernenden wohl der Eindruck zurückbleiben, dass es sich bei ihr um einen letztlich unverstandenen oder sogar unverstehbaren Formalismus handelt, der verblüffend präzise Vorhersagen hervorbringt.8

7 Die klassische Referenz für diese Position ist die Arbeit von Ballentine (1970). Das glänzende Lehr-

buch dieses Autors beruht ebenfalls auf diesem Ansatz (Ballentine 1998). Innerhalb der Didaktik der Quantenmechanik wird eine ähnliche Position im milq-Projekt vertreten (Damaschke et al. 2010). Allerdings finden sich im Material des Münchner Konzepts immer noch Hinweise auf das Messproblem der Quantenmechanik, die vor dem Hintergrund einer Ensemble-Deutung unverständlich erscheinen. 8 Man mag an dieser Stelle einwenden, dass die Quantenmechanik ja genau dies sei, nämlich ein letztlich (noch?) unverstandener Formalismus. Für einen sehr elaborierten Begriff von „Verstehen“ mag dies in der Tat zutreffen. Ich glaube jedoch, dass für die realistischen Ziele von schulischen Bildungsprozessen in der Quantenmechanik sehr viel „verstanden“ werden kann und muss, bevor z. B. die offenen philosophischen Grundlagenfragen in Reichweite kommen.

84

O. Passon

Abb. 5.1 Typische Darstellung des Quarkmodells in der Tradition der Suche nach den kleinsten Bestandteilen

5.4

Trivialisierung der Teilchenphysik

Im schulischen Kontext ist mit der Teilchenphysik immer das „Standardmodell der Teilchenphysik“ gemeint, also die Kombination der nicht-abelschen Eichtheorien für die elektroschwache und starke Wechselwirkung (QCD) zusammen mit dem Quarkmodell. Es handelt sich dabei um eine feldtheoretische Verallgemeinerung der Quantenmechanik. Obwohl es sich also ebenfalls um eine Quantentheorie handelt, haben kurioserweise populäre und didaktische Darstellungen dieses Gegenstandes kaum Ähnlichkeit mit dem im letzten Abschnitt geschilderten Narrativ. Stattdessen dominieren naive Teil-Ganze-Vorstellungen („Das Proton besteht aus drei Quarks“). Die Teilchenphysik wird dabei häufig in die Tradition der Suche nach den „kleinsten Bestandteilen“ eingereiht und die Beschleuniger explizit mit Mikroskopen verglichen (siehe Abb. 5.1). Dieses Erklärungsmuster knüpft somit an bereits aus dem vorherigen Unterricht vertraute Strategien an, und eine Irritation oder Unzufriedenheit mit einem bestehenden Konzept wird hier kaum ausgelöst. Dabei ist die Teil-Ganze-Relation der modernen Physik gar nicht mehr die „Aggregation“ (also die „Anhäufung“), sondern Superposition und Mischung (Healey 2013). Im Zusammenhang mit dem Topos „Wechselwirkungen durch Teilchenaustausch“ dominieren quasi-mechanische Modelle (vgl. Abb. 5.2). Dies ist aus verschiedenen Gründen problematisch. Zum einen wird in den meisten Fällen der Teilchenbegriff keiner genaueren Analyse unterzogen – und dies gilt leider für „Materieteilchen“ ebenso wie für „Austauschteilchen“. Zum anderen wird die Frage, wie die behandelten Entitäten raumzeitlich eingebettet sind, kaum thematisiert. Verbreitet ist stattdessen die Verwendung von Feynman-Diagrammen in einer reifizierenden Weise.9 Die Schwierigkeiten, Feynman-Diagramme als Darstellungen physikalischer Prozesse zu deuten, werden etwa in (Passon, 2019) diskutiert. Für eine Analyse und fachliche Kritik zahlreicher didaktischer Darstellungen der Teilchenphysik siehe (Passon, 2014) sowie (Passon et al., 2019).

9 Die

„Reifizierung“ (von lat. res = Sache, Ding oder Gegenstand; d. h. mit „Verdinglichung“ zu übersetzen) betrachtet David Mermin als „schlechte Angewohnheit der Physiker“ (Mermin 2009). Interessant sind in diesem Zusammenhang auch die zahlreichen Leserbriefe, die dieser Beitrag in Physics Today provoziert hat.

5

Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik

85

Abb. 5.2 Veranschaulichung der Wechselwirkung durch Teilchenaustausch. (Quelle: Netzwerk Teilchenwelt)

Wie im Falle der Quantenmechanik gibt es auch hier offensichtliche Ursachen für das verbreitete Narrativ: Quantenfeldtheorie und Teilchenphysik sind derart komplex, dass hier lediglich ein grobes Orientierungswissen intendiert werden kann. Diskutiert man jedoch den Teilcheninhalt des Standardmodells oder die Grundidee von Streuexperimenten, sind die verwendeten simplifizierenden Konzepte äußerst naheliegend. Nicht zufällig haben die Sprechweisen große Ähnlichkeit mit dem Jargon an Forschungseinrichtungen. Hier unterhalten sich jedoch in der Regel Experten, die über zusätzliches Hintergrundwissen verfügen und für die die jeweiligen Sprechweisen in eine wissenschaftliche Praxis eingebettet sind. Für den Novizen fehlt dieses Korrektiv jedoch (Passon et al. 2019). Dies kann zu der kuriosen Situation führen, dass in der Teilchenphysik Wechselwirkungen durch „Teilchenaustausch“ als vorgeblich raumzeitlich eingebettete Prozesse verstanden werden, d. h. ein konkretes Abbild der mikroskopischen Vorgänge zu liefern scheinen, während im Unterricht der Quantenmechanik hervorgehoben wird (bzw. werden sollte), dass keine raumzeitliche Beschreibung der Vorgänge zwischen Präparation und Messung angegeben werden kann. Der Unterricht zur Teilchenphysik droht somit, den ohnehin unsicheren Konzeptwechsel des vorangegangenen Unterrichts zur Quantenmechanik weiter zu unterminieren. Wie könnte jedoch ein (in beide Richtungen) anschlussfähiger Vorschlag aussehen? In aller Skizzenhaftigkeit seien folgende Anregungen, Thesen bzw. Eckpunkte für einen Unterricht der Teilchenphysik vorgeschlagen:10 • Bereits die Quantenmechanik hat den klassischen Teilchenbegriff kompromittiert. In der Quantenfeldtheorie ist im Allgemeinen gar keine Lokalisierung der Objekte möglich, und die Teilchenzahl wird zusätzlich unscharf. Erzeugungs-

10 Das

Wuppertaler Curriculum der Elementarteilchenphysik, das in Kap. 8 vorgestellt wird, konkretisiert diese Eckpunkte genauer.

86

O. Passon

und Vernichtungsprozesse werden auf diese Weise beschreibbar. Dieser Umstand weist auf eine weitere Unzulänglichkeit des Teilchenbegriffs hin – erfüllt also die Bedingung für den ersten Schritt eines erfolgreichen Konzeptwechsels („Irritation“ bzw. „Unzufriedenheit“). • Die Ergebnisse der unterrichtlichen Behandlung der QM sollten aufgegriffen und vertieft werden. Auch in der Teilchenphysik sind die Vorhersagen für Streuexperimente Wahrscheinlichkeitsaussagen, die keine Beschreibung von Einzelprozessen erlauben. • Feynman-Diagramme erwecken den trügerischen Anschein, eine solche Beschreibung von Einzelprozessen darzustellen. Sie stellen jedoch lediglich Wahrscheinlichkeitsamplituden dar. Die beobachteten Größen ergeben sich aus dem Quadrat der Summe der entsprechenden Beiträge. Dies ist übrigens in vollkommener Analogie zur Beschreibung des quantenmechanischen Doppelspaltexperiments mit Elektronen. Daraus folgt jedoch, dass einzelne FeynmanDiagramme keinen physikalischen Prozess repräsentieren. Eine Betonung dieser Aspekte kann bei der Erreichung zweier Ziele helfen: Zum einen wird der Gegenstand explizit an die Behandlung der Quantenmechanik angebunden. Deren Inhalte können auf diese Weise wiederholt und vertieft werden, d. h., der Bildung einer kohärenten Wissensstruktur wird Vorschub geleistet. Zum anderen führen Vernichtungs- und Erzeugungsprozesse sogar die bereits quantenmechanisch „geläuterte“ Teilchenvorstellung in eine fruchtbare Irritation. Zugegeben sei jedoch, dass das übliche Ziel von Konzeptwechselprozessen – nämlich die Vermittlung einer verständlichen, plausiblen und fruchtbaren Alternative zum Präkonzept – in der Teilchenphysik wohl nur eingeschränkt erreicht werden kann. Realistischerweise bleibt es hier bei einem reinen Überblickswissen, und eine „Beherrschung“ des neuen Konzepts kann noch viel weniger erreicht werden als in spezieller Relativitätstheorie oder Quantenmechanik. Obwohl ich also aus der Theorie des Konzeptwechsels Kriterien für die Kritik an verbreiteten Narrativen abgeleitet habe, kann die strenge Forderung seiner Umsetzung meiner Meinung nach im vorliegenden Fall nicht sinnvoll begründet werden.

5.5

Zusammenfassung und Ausblick

Folgt man dem Modell von Posner et al., besitzt der erfolgreiche Konzeptwechsel zwei Komponenten: (i) Die Irritation und Unzufriedenheit mit dem Präkonzept und (ii) ein verständliches, plausibles und erklärungsmächtigeres Postkonzept. Während zahlreiche populäre und didaktische Darstellungen der Quantenmechanik die erste Bedingung glänzend erfüllen, versäumen sie den Aufbau einer kohärenten Alternative. Ein gelingender Konzeptwechsel scheint auf diese Weise unmöglich. In der Teilchenphysik scheint es nun gerade umgekehrt. Ein quasi-mechanisches Modell für die Wechselwirkung und naive Teil-Ganze-Vorstellungen können beim Lernenden gar keinen Konzeptwechsel auslösen, da auf vertraute (hier jedoch irreführende) Erklärungsstrategien rekurriert wird. Mit anderen Worten: Hier wird gar

5

Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik

87

kein Präkonzept in die Irritation geführt und keine Unzufriedenheit mit der Alltagsvorstellung erzeugt, die das Bedürfnis nach einer Konzeptveränderung provoziert. Offensichtlich behindern also beide Tendenzen, d. h. die Mystifizierung der Quantenmechanik ebenso wie die Trivialisierung der Teilchenphysik, den Lernprozess im Sinne eines Konzeptwechsels. Die daraus abgeleitete Forderung lautet, Irritation konventioneller Vorstellung sowie Kohärenz und Verständlichkeit der neuen Konzepte zu betonen. Der hier skizzierte Lösungsvorschlag greift beide Problemfelder auf. In der unterrichtlichen Behandlung der Quantenmechanik schlage ich eine deutlich stärkere Betonung des mit ihr erreichten Verständnisses vor. Eine minimale Interpretation (wie in Abschn. 5.3 angedeutet) erlaubt eine operationale Beherrschung in praktisch allen relevanten Anwendungsgebieten. Ich glaube, dass die äußerst bildungswerte Diskussion der offenen Deutungsfragen und Probleme davon profitiert, wenn sie vor einem solchen Hintergrund geführt wird. Betont man gleichzeitig in der unterrichtlichen Behandlung der Teilchenphysik, wie sie quantenmechanische Konzepte aufgreift und weiter verallgemeinert, wird der Bildung einer kohärenten Wissensstruktur Vorschub geleistet. Ein Rückfall in vor-quantenmechanische Teilchen- bzw. Teil-Ganze-Vorstellungen kann dadurch erschwert werden.

5.6

Diskussion zum Vortrag von Oliver Passon zusammengefasst von O. Passon

In der Diskussion wurde zunächst von Julia Woithe der Begriff des Konzeptwechsels angesprochen. In Ermangelung von Alltagsvorstellungen bzw. Präkonzepten zu Inhalten der Teilchenphysik könne, so die Vermutung, hier von einem Konzeptwechsel im engeren Sinne gar nicht gesprochen werden. Oliver Passon verweist auf umfangreiche Forschungsliteratur zu Schülervorstellungen zum Teilchenbegriff bzw. Teilchenmodell (vor allem in der Chemiedidaktik). Die dort identifizierten Alltagsvorstellungen (etwa: Übertragung der Eigenschaften eines Stoffs auf seine Konstituenten) dürften auch im Unterricht der Teilchenphysik wirksam sein, wenn ohne weitere Erläuterungen von „Teilchen“ gesprochen wird. Frau Woithe bemerkt, dass es zahlreiche Hinweise in der Literatur dazu gibt, dass die Erreichung eines Konzeptwechsels enorm schwierig sei. Michael Kobel hebt noch einmal die Rolle des Hintergrundwissens der Experten hervor. Dadurch können richtig gemeinte Darstellungen dennoch zu falschen Interpretationen auf Seiten der Lernenden (bzw. Laien) führen. Insbesondere am Beispiel der Feynman-Graphen weist er darauf hin, dass die an sich korrekten Diagramme erst durch die ungenauen oder falschen Bildunterschriften zu einem Problem werden. Während er die Kritikpunkte teilt, wünscht er sich vom Vortragenden Hinweise darauf, wie man es besser machen könne. Passon erinnert in seiner Antwort zunächst daran, dass der von ihm formulierte zweite Eckpunkt für einen Unterricht der Teilchenphysik („alle Vorhersagen sind bloß Wahrscheinlichkeitsaussagen“) als solch ein erster konstruktiver Vorschlag aufzufassen sei. Bereits die Verwendung des Singulars („ein“ oder „das Elektron“) bei der Beschreibung von Feynman-Diagrammen sei zu vermeiden, da von einzelnen

88

O. Passon

Objekten gar nicht die Rede sei. Ob es eigentlich ratsam sei, Feynman-Diagrammen in der schulischen Behandlung der ETP eine zentrale Rolle zuzuschreiben, wird von ihm in Frage gestellt. Etwa sei die Bezeichnung „Austauschteilchen“ für die Eichbosonen metaphorisch aufzufassen. Grundsätzlich bestehe die Gefahr, dass Sprechund Denkweisen in der Teilchenphysik durch diese Elemente einer bloß speziellen Lösungsmethode („Störungstheorie“) zu stark geprägt würden. Kobel erscheint diese Abschwächung der Bedeutung von Feynman-Diagrammen zu radikal. Er stimmt zu, dass beim Doppelspaltversuch mit zwei gleich breiten Spalten nicht davon gesprochen werden könne, dass eine Amplitude alleine einen beobachtbaren Vorgang beschreibe. Was aber, so sein Vorschlag, wenn wir in Gedanken einen Spalt immer schmaler machten – bis schließlich seine Breite verschwindend sei. Er schlägt vor, dass der Beitrag des schmaleren Spalts als Anteil höherer Ordnung aufzufassen sei und die führende Ordnung alleine (hier also: die einzelne Amplitude des breiten Spalts) den Vorgang bereits in sehr guter Näherung beschreibe. Passon erwidert, dass selbst bei einem großen Beitrag der führenden Ordnung (sagen wir 99 %) bekanntlich nicht behauptet werden dürfe, dass in 99 % der Fälle der Prozess über den „1-Photon-Austausch“ passiere. Entscheidend sei vielmehr, dass von Objekten die Rede sei, die interferenzfähig sind. Auf diese Weise würden naive Teilchenvorstellungen kompromittiert – auch wenn im Einzelfall die Interferenzeffekte numerisch klein seien. Ebenfalls bemängelt Michael Kobel die kritische Bemerkung des Vortragenden zum Konzept des Austauschteilchens. Gerade die durch eine Eichinvarianz festgelegte Struktur der Wechselwirkungen sei das zentrale Element des Standardmodells (im Gegensatz etwa zum konkreten Teilcheninhalt). Genau hier fänden die Austauschteilchen ihre theoretische Fundierung und überragende Bedeutung. Passon erläutert seinen vielleicht missverständlichen Hinweis genauer: Die zentrale Rolle der Eichfelder könne und solle natürlich nicht bestritten werden. Von den / experimentell bestätigten Vorhersagen der Wechselwirkungsterme vom Typ ψ Dψ könne jedoch noch nicht direkt auf die Schlüssigkeit eines Konzepts geschlossen werden, das die Wechselwirkung durch den „Austausch“ von „Wechselwirkungsteilchen“ beschreibt. Hier läge lediglich eine Interpretation des grafischen Kalküls der Feynman-Diagramme zur störungstheoretischen Berechnung der entsprechenden Vorhersagen vor. Bediene man sich etwa den Methoden der Gittereichtheorie, würden keine direkten Entsprechungen der „virtuellen Zustände“ auftauchen. Die Diskussion wird nun von Philipp Lindenau auf die Frage gelenkt, welche Sprechweise für die Eichbosonen zu bevorzugen sei. Verbreitet sei die Rede von „Austauschteilchen“, „Wechselwirkungsteilchen“ und „Botenteilchen“. Gegen den Begriff des „Austauschteilchens“ scheint zu sprechen, dass er nahelegt, das Objekt sei zuvor Teil des Systems gewesen, von dem es ausgesendet wird (also nicht erst erzeugt worden). Mehrere Teilnehmer der Diskussion stimmen zu, dass von den verschiedenen Vorschlägen die Bezeichnung „Austauschteilchen“ die problematischste zu sein scheint. An dieser Stelle bemerkt Wolfgang Wagner, dass die Redeweise von „Teilchen“ (egal ob „Wechselwirkungs-“, „Austausch-“ oder „Botenteilchen“) die zentrale Rolle der Felder zu vernachlässigen scheint. Passon wendet ein, dass selbst diese Frage in

5

Mystifizierung der Quantenmechanik und Trivialisierung der Teilchenphysik

89

der Philosophie der Physik kontrovers debattiert wird. Da die „Felder“ der Quantenfeldtheorie operatorwertig sind, sei eine Feldinterpretation im üblichen Sinne nicht möglich. Schließlich würde man das Niveau der beobachtbaren Objekte erst erreichen, wenn diese „Felder“ (oder besser: Feldoperatoren) auf Zustandsvektoren angewendet würden. Die Frage von Wolfgang Wagner zielt jedoch auf einen anderen Aspekt: Er betont, dass der entscheidende Punkt des Übergangs von der nicht-relativistischen Quantenmechanik zur Teilchenphysik gerade in der Feldquantisierung liege. Während in der Quantenmechanik z. B. noch klassische (d. h. kontinuierliche) Potenziale auftreten, werden in der QFT die entsprechenden Objekte ebenfalls quantisiert. Der Einwand von Michael Kobel, dass man für die QCD ebenfalls ein Potenzial angeben könne, hält Wagner an dieser Stelle für nicht stichhaltig. Eine solche Formulierung sei im Einzelfall möglich und nützlich, verdecke aber den konzeptionellen Unterschied, den man in der Vermittlung betonen solle.

Literatur Bader F (Hrsg.) (2011) Dorn-Bader Physik Gymnasium Gesamtband SekII. Westermann, Braunschweig Ballentine LE (1970) The statistical interpretation of quantum mechanics. Rev Mod Phys 42(4):358– 381 Ballentine LE (1998) Quantum mechanics: a modern development. World Scientific, Singapore Dammaschke T, Müller R, Strahl A 2010 Das neue milq Quantenphysik in der Schule. PhyDid B Beitrag DD 06.04 sowie http://milq.tu-bs.de/ Dudenredaktion: https://www.duden.de/rechtschreibung/mystisch https://www.duden.de/ rechtschreibung/mystifizieren. Zugegriffen: 1. Okt. 2018 Feynman RP (1967) The character of physical law. MIT Press, Cambridge Friebe C, Kuhlmann M, Lyre H, Näger PM, Passon O, Stöckler M (2018) Philosophie der Quantenphysik, 2. Aufl. Springer-Spektrum, Heidelberg Gooday G, Mitchell DJ (2013) Rethinking ‘classical physics’. In: Buchwald JZ, Fox R (Hrsg) The oxford handbook of the history of physics. Oxford University Press, Oxford, S 721–764 Healey R (2013) Physical composition. Stud Hist Philos Sci B 44(1):48–62 LEIFI Physik 2018 https://www.leifiphysik.de/quantenphysik/quantenobjekt-elektron/welleteilchen-dualismus. Zugegriffen: 3. Okt. 2018 Mermin ND (2009) What’s bad about this habit. Phys Today 62(5):8–9 Müller RR, Wodzinski, Hopf M (Hrsg) (2004) Schülervorstellungen in der Physik. Aulis, Köln Möller K 2010 Lernen von Naturwissenschaft heißt: Konzepte verändern. In P. Labudde (Hrsg), Fachdidaktik Naturwissenschaft. 1.–9. Schuljahr. S 57–72. Haupt Verlag, Stuttgart Ministerium für Schule und Weiterbildung (MSW) (Hrsg) 2014 Kernlehrplan Oberstufe Physik NRW. Frechen: Ritterbach. https://www.schulentwicklung.nrw.de/lehrplaene/lehrplannavigators-ii/gymnasiale-oberstufe/physik/physik-klp/index.html Passon O (2014) Was sind Elementarteilchen und gibt es & „virtuelle“ Photonen? Prax Naturwiss Phys Schule 63(5):44–49 Passon O 2019 On the interpretation of Feynman diagrams, or, did the LHC experiments observe H → γ γ ? Eur J Philos Sci 9:20 (21pp) Passon O, Zügge T, Grebe-Ellis J 2019 Pitfalls in the teaching of elementary particle physics. Phys Educ 54(1):015014 (17pp)

90

O. Passon

Posner GJ, Strike KA, Hewson PW, Gerzog WA (1982) Accommodation of a scientific conception: toward a theory of conceptual change. Sci Educ 66(2):211–227 Schecker H, Wilhelm T, Hopf M, Duit R (Hrsg.) (2018) Schülervorstellungen und Physikunterricht. Springer Spektrum, Heidelberg Staley R (2005) On the co-creation of classical and modern physics. Isis 96(4):530–558 Stern E (2006) Was wissen wir über erfolgreiches Lernen in der Schule? Pädagogik 58(1):45–49

Teil II

Didaktische Impulse

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte des Standardmodells für die Schule Michael Kobel und Philipp Lindenau

Inhaltsverzeichnis 6.1 6.2 6.3

6.1

Einleitung und Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 Die Basiskonzepte des Standardmodells . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 Zusammenfassung und Schlussbemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105

Einleitung und Motivation

Zugängliche Definitionen von physikalischen Begriffen sowie nachvollziehbare Formulierungen sind für viele Schülerinnen und Schüler eine Grundvoraussetzung zur Entwicklung physikalischen Verständnisses. In diesem Zusammenhang halten (Rincke und Leisen 2015, S. 651) fest: „Sprache ist kein „Transportmittel“ für Inhalte, sondern ein Konstruktionsmittel für physikalische Verstehens- und Kommunikationsprozesse.“ Unter diesem Gesichtspunkt sehen sie die Notwendigkeit, Entscheidungen zu jedem Fachwort sowie dessen Attribuierungen „genau zu bedenken und auf das didaktische Konzept hin abzustimmen, mit dem gearbeitet werden soll“ (Rincke und Leisen 2015, S. 646). Gerade das Gebiet der Teilchenphysik weist eine sehr große Anzahl an in der Schule vorher nicht eingeführten Begriffen, Bezeichnungen und Formulierungen

M. Kobel (B) · P. Lindenau Fakultät Physik, Institut für Kern- und Teilchenphysik, Technische Universität Dresden, Dresden, Deutschland E-Mail: [email protected] P. Lindenau E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_6

93

94

M. Kobel und P. Lindenau

auf, was dieses Thema für den Schulunterricht auf den ersten Blick sehr unübersichtlich erscheinen lässt.1 Um die Erkenntnisse der experimentellen Forschung, und vor allem die zugrunde liegende Theorie – vorsichtig „Standardmodell der Teilchenphysik“ genannt – für Schulen aufzubereiten, ist es daher notwendig, die Basiskonzepte möglichst klar zu identifizieren und in anschlussfähiger Weise didaktisch zu reduzieren.2 Wenn überhaupt eine Auseinandersetzung mit dem Standardmodell der Teilchenphysik (SM) in der Schule bzw. in Lehrbüchern stattfindet, liegt der Fokus zumeist auf den fundamentalen Bausteinen der Materie und den daraus zusammensetzbaren Systemen. Wir werden in diesem Beitrag zeigen, dass damit jedoch die eigentlichen Erkenntnisse unberücksichtigt bleiben. Das Theoriegebäude basiert nämlich auf Ladungen, die die Elementarteilchen ordnen und (über Symmetrieprinzipien) Wechselwirkungen hervorrufen. Welche und wie viele Materiebausteine existieren, ist dagegen keine theoretische Vorhersage, sondern eine rein experimentelle Erkenntnis, die „per Hand“ in das SM eingefügt wurde. Das SM ist daher insbesondere eine Theorie der Ladungen und Wechselwirkungen, und weniger eine Theorie der Elementarteilchen.3 Im Folgenden sollen die Basiskonzepte Ladungen, Wechselwirkungen und Elementarteilchen in für die Schule geeigneter Weise eingeführt und ihre wechselseitigen Beziehungen veranschaulicht werden. Dabei wird das Konzept der Ladung von der elektrischen Ladung auch auf die Ladungen der anderen fundamentalen Wechselwirkungen des SM verallgemeinert und erhält damit seine eigentliche Bedeutung als physikalisches Basiskonzept, das in der Lage ist, verschiedenste Phänomene einheitlich zu beschreiben. Eine weiterführende Darstellung findet man in dem von Netzwerk Teilchenwelt in Kooperation mit der Joachim Herz Stiftung und Lehrkräften entwickelten Unterrichtsmaterial Teilchenphysik, insbesondere dem Band Ladungen, Wechselwirkungen und Teilchen (Kobel et al. 2018).

1 Teilweise

stehen die in der Fachcommunity verwendeten Begriffe sogar im Widerspruch zu üblicherweise (insbesondere im Physikunterricht) verwendeten Definitionen (siehe Abschn. 6.2.1). Dennoch finden sie leicht den Weg in Lehrbücher, die sich eigentlich an Novizen des Faches richten, was die Annäherung an diese Begriffe zusätzlich erschwert. 2 Angemerkt sei, dass diese „Basiskonzepte des Standardmodells“ nicht mit den „Basiskonzepten“ der Bildungsstandards Physik („Energie“, „Materie“ etc.) verwechselt werden dürfen. 3 In der physikdidaktischen Literatur betrachten Hacker und Hilscher (2009) die bereits angesprochene überfordernde Begriffsvielfalt zwar ebenfalls als problematisch und weisen auch auf die Bedeutung eines generalisierten Ladungsbegriffes hin, verweisen dann in Unterrichtsvorschlägen jedoch ausschließlich auf Konzepte, denen ein – insbesondere zu Beginn – auf Teilchen fokussierter Unterrichtsgang zugrunde liegt. In der neuesten Auflage von Physikdidaktik – Theorie und Praxis werden „Die fundamentalen Bausteine“, „Die Kräfte im Standardmodell der Teilchenphysik“ und „Offene Fragen in der Teilchenphysik“ als zentrale Themenfelder für den Unterricht angeführt (Schieck 2015, S. 520). Auf die Existenz von starker und schwacher Ladung wird auch hier nur am Rande verwiesen und die Entwicklung der Elementarteilchenphysik in Analogie zur Entwicklung des Periodensystems der Elemente und der Klassifizierung von Teilchen beschrieben (S. 505).

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte …

6.2

95

Die Basiskonzepte des Standardmodells

Bei der Entwicklung des Ansatzes zur Behandlung des SM wurden drei Basiskonzepte (Ladungen, Wechselwirkungen und Teilchen) identifiziert, welche in Abb. 6.1 mit ihren wechselseitigen Beziehungen dargestellt sind. Der Fokus des gewählten Ansatzes liegt auf den fundamentalen Wechselwirkungen (elektromagnetische, starke und schwache Wechselwirkung) des SM, welche durch Ladungen hervorgerufen werden und das Verhalten von Elementarteilchen bestimmen. Das Spektrum der existierenden elementaren Materieteilchen oder sogar zusammengesetzter Teilchen spielt dabei eine untergeordnete Rolle. Z. B. sind für den Aufbau stabiler atomarer Materie ausschließlich drei elementare Materieteilchen relevant (Up-Quarks, Down-Quarks und Elektronen). Abseits von Experimenten an Teilchenbeschleunigern weisen lediglich noch Elektron-Neutrinos und Myonen eine gewisse Alltagsrelevanz auf. Elektron-Neutrinos entstehen bei Beta-Umwandlungen, in deren Zusammenhang sie in der Regel auch im Schulunterricht thematisiert werden. Myonen bilden den Hauptbestandteil der sekundären kosmischen Strahlung in der Nähe der Erdoberfläche und werden in Schulbüchern häufig als Beispiel für die relativistische Zeitdilatation benutzt. Neuerdings erlangen sie verstärkt Bedeutung in Archäologie und Geologie sowie bei Grenzkontrollen (Latusseck 2005). Unter diesem Gesichtspunkt scheint es nicht zweckmäßig, die Lernenden gleich zu Beginn mit den Namen sämtlicher Materieteilchen, wie Tauonen, Strange- oder Top-Quarks zu konfrontieren, was auch wegen deren Irrelevanz für den Alltag die Gefahr des reinen Auswendiglernens mit sich bringt. Ähnlich zur Erklärung eines Spiels (z. B. Fußball) sollten die grundlegenden Regeln in den Vordergrund gerückt werden, nicht die Anzahl der Spieler oder deren Namen. Übertragen auf das SM bedeutet dies: Die fundamentalen Wechselwirkungen und Erhaltungssätze (Regeln) können anhand weniger Materieteilchen (Spieler) eingeführt und diskutiert werden. Dabei kann problemlos mit bekannten Teilchen wie Elektron, Positron oder Photon begonnen werden. Diese Regeln gelten für alle Materieteilchen und können später sukzessive übertragen werden, wenn weitere Teilchen wie Neutrinos, Quarks oder W-Teilchen ins Spiel kommen. Abb. 6.1 Die drei Basiskonzepte des Standardmodells und ihre Beziehungen (Kobel et al. 2018)

96

M. Kobel und P. Lindenau

Ein weiterer Grund, der dagegen spricht, die Erarbeitung des Spektrums der Materieteilchen als Hauptziel oder gar Ausgangspunkt bei einer Behandlung der Teilchenphysik zu wählen, ist die Tatsache, dass es sich dabei um eine rein experimentelle Erkenntnis handelt. Die Vorhersagekraft des SM und die konzeptionelle Eleganz in der einheitlichen Beschreibung der Wechselwirkungen, die man im SM erreicht hat, wird auf diese Weise nicht deutlich. Das SM erklärt keineswegs, wieso genau drei Generationen von Materieteilchen mit der beobachteten Anzahl an Teilchen existieren und warum diese genau mit den gegebenen Ladungskombinationen und Werten vorkommen. Es ist keine Folge der Grundannahmen des SM (Symmetrien), dass z. B. keine zweifach elektrisch geladenen Elektronen oder Positronen beobachtet wurden. Im SM gehört das Spektrum der Materieteilchen genauso wie deren Massen sowie die Stärken der fundamentalen Wechselwirkungen (ausgedrückt über deren Kopplungsparameter) zur Kategorie „experimentelle Erkenntnisse“. Betrachtet man dagegen die (natürlich auch mit Hilfe experimenteller Daten zu verifizierenden) lokalen Eichsymmetrien als die axiomatische Basis des SM, lassen sich die Notwendigkeit von Wechselwirkungen, die jeweiligen Ladungen als Erhaltungsgrößen, sowie die Zahl und Eigenschaften der die jeweilige Wechselwirkung vermittelnden Botenteilchen („Eichbosonen“) aus den Axiomen der Theorie ableiten. Während die lokalen Eichsymmetrien im Schulunterricht allerdings schwerlich als Ausgangspunkt genommen werden können, so können doch ihre unmittelbaren Folgerungen – die Verallgemeinerung des Ladungsbegriffs auf alle Wechselwirkungen und die Verallgemeinerung des Erhaltungssatzes der elektrischen Ladung auf alle Ladungen – ohne Weiteres an vorhandene Lerninhalte anknüpfen. Leider werden diese für den Schulunterricht so attraktiven Zusammenhänge immer noch verbreitet übersehen oder nur am Rande thematisiert. Stattdessen wird sich auf das als eine Art „Baukasten“ der Natur (miss-)verstandene Spektrum der Elementarteilchen fokussiert, welches mitunter sogar selbst als „Standardmodell der Teilchenphysik“ bezeichnet wird (z. B. Backhaus et al. 2009) obwohl es theoretisch bisher gar nicht erklärbar ist. Zwar hat die Suche nach den elementaren Bausteinen des Universums (z. B. der Struktur des Protons zwischen 1956 und 1969) die Teilchenphysik über ein halbes Jahrhundert lang vorangetrieben. Die theoretische Entwicklung des SM kann jedoch mit der Entdeckung Amerikas verglichen werden: Bis in die 1960er Jahre suchten die Physiker eine Theorie der Elementarteilchen, welche die Existenz der fundamentalen Bausteine der Natur erklärt und vorhersagt. Was man allerdings zwischen 1961 und 1973 fand, war eine Theorie der Wechselwirkungen, denen diese unterliegen. Diese Entwicklung könnte man durchaus in einem historisch orientierten Einstieg in die Elementarteilchenphysik beleuchten.

6.2.1

Basiskonzept Wechselwirkung

Alle beobachteten Vorgänge in der Natur lassen sich auf vier fundamentale Wechselwirkungen zurückführen. Dazu gehört neben den drei Wechselwirkungen des SM noch die Gravitation, welche bisher nicht erfolgreich mit den Prinzipien des SM beschrieben werden kann.

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte …

97

Der Begriff Wechselwirkung umfasst in der Teilchenphysik vier verschiedene Phänomene. Dazu gehören zum einen Kräfte, wie die bereits klassisch bekannte Coulomb-Kraft bei der elektromagnetischen Wechselwirkung. Weiterhin umfasst der Begriff klassisch nicht mögliche Umwandlungen von Teilchen, wie z. B. radioaktive Umwandlungen (auch Zerfälle genannt), die Entstehung von Materie und Antimaterie (Paarerzeugung) und die Vernichtung von Teilchen (Paarvernichtung, Annihilation). Letzteres Phänomen wird z. B. bei der Positron-Emissions-Tomografie ausgenutzt. Da die Kraftwirkung nur einer von mehreren Aspekten fundamentaler Wechselwirkungen ist, sollten die Begriffe Kraft und Wechselwirkung klar getrennt und nicht synonym verwendet werden. Aussagen der Form “Die schwache Kraft ist für den radioaktiven β − -Zerfall [...] verantwortlich“ (Kuhn 2000, S. 387)4 sollten daher vermieden werden, insbesondere, weil sie nicht mit dem Newtonschen Kraftbegriff vereinbar sind. Kräfte im eigentlichen Sinne (z. B. Anziehungen bzw. Abstoßungen zwischen Elementarteilchen) existieren für alle fundamentalen Wechselwirkungen. Je nach Wechselwirkung können allerdings andere Aspekte im Vordergrund stehen, wie Teilchenumwandlungen bei der schwachen Wechselwirkung. In verbreiteten aktuellen Lehrbüchern mit umfassenden eigenständigen Kapiteln zur Elementarteilchenphysik werden durchaus alle vier fundamentalen Wechselwirkungen thematisiert (Bader 2010) und sogar alle zugehörigen Ladungen genannt (Krause und Grehn 2019; Meyer und Schmidt 2015), ein großer Teil der Ausführungen, insbesondere die einführenden Abschnitte, drehen sich jedoch jeweils um den „Teilchenzoo“ und die Historie dessen Entdeckung. Ein knapper Einstieg über Wechselwirkungen, Ladungen und die Idee der Vereinheitlichung mit dennoch anschließender ausführlicher Thematisierung des Teilchenzoos ist z. B. in den sehr umfassenden und anspruchsvollen Ausführungen bei Kuhn (1998) zu finden. Für die Etablierung des Basiskonzepts „Wechselwirkung“ ist es erfahrungsgemäß hilfreich, die Lernenden bekannte Phänomene wie die Bewegung von Planeten, das Surfen mit dem Smartphone, radioaktive Kernumwandlungen, Reibungskräfte, chemische Bindungen, die Stabilität von Atomkernen oder das Brennen der Sonne den jeweiligen fundamentalen Wechselwirkungen zuordnen zu lassen.

6.2.2

Basiskonzept Ladung

Da eine stringente Einführung von Ladungen als Erzeugende von Eichsymmetrien in der Schule nicht möglich ist, stellen wir hier ein mögliches heuristisches Beispiel einer Motivation dieses Basiskonzeptes vor. Der Vergleich der Graphen der zu den fundamentalen Wechselwirkungen gehörenden potenziellen Energien (und damit

4 Hier

wurde ein Beispiel aus einem Schulbuch gewählt. Derartige Formulierungen sind aber auch häufig in der wissenschaftlichen Fachliteratur und insbesondere in populärwissenschaftlichen Büchern und Artikeln zu finden.

98

M. Kobel und P. Lindenau

auch ihrer Kraftgesetze, siehe Abschn. 6.2.3) in Abhängigkeit des Abstandes zeigt, dass diese sich bei kleiner werdenden Abständen immer ähnlicher werden und sich dem vom Elektromagnetismus bekannten r1 -Verhalten annähern (Abb. 6.2). Heuristisch kann man damit versuchen, ausgehend vom Coulomb-Gesetz, alle Wechselwirkungen mit ähnlichen Prinzipien zu beschreiben und so die Konzepte der elektromagnetischen Wechselwirkung auf die starke und schwache Wechselwirkung zu übertragen. Anschließend kann diskutiert werden, weshalb die starke und die schwache Wechselwirkung bei makroskopischen Abständen nicht wahrnehmbar sind, warum sie also sog. charakteristische Längen besitzen (siehe Abschn. 6.2.3). Um die Analogie zu den anderen Wechselwirkungen vorzubereiten, übertragen wir das Konzept der Aufteilung der elektrischen Ladung in ein Produkt von elektrischer Ladungszahl Z und „Elementarladung“ e aus der Atom- und Kernphysik auf alle Teilchen gemäß Q = Z ·e

(6.1)

und erhalten das Coulombsche Gesetz, welches die Kraft zwischen elektrisch geladenen Objekten beschreibt, in folgender Schreibweise FC =

e2 Z1 · Z2 · . 4π 0 r2

(6.2)

(e: Elementarladung, Z 1 , Z 2 : elektrische Ladungszahlen der wechselwirkenden Teilchen, r: Abstand der wechselwirkenden Teilchen, 0 : elektrische Feldkonstante) Absorbiert man nun e im dimensionslosen elektromagnetischen Kopplungsparameter (historisch: Feinstrukturkonstante) αem αem =

e2 , 4π 0 c

(6.3)

Abb. 6.2 Verlauf der Potenziale der drei Wechselwirkungen des Standardmodells bei zwei unterschiedlichen Abständen. Elektromagnetisch und schwach: Elektron und Positron; stark: Quark und Anti-Quark

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte …

99

ergibt sich das im Folgenden weiter verwendete Coulombsche Gesetz FC = c · αem ·

Z1 · Z2 , r2

(6.4)

an dem zwei Einsichten ablesbar sind. (i) Nur die elektrische Ladungszahl Z und nicht die üblicherweise benutzte elektrische Ladung Q charakterisiert die Eigenschaft von Teilchen bezüglich der elektromagnetischen Wechselwirkung. Auf Teilchen mit elektrischer Ladungszahl Z = 0 wirkt keine Coulomb-Kraft; sie nehmen also nicht an der elektromagnetischen Wechselwirkung teil. (ii) Neben den natürlichen Skalenkonstanten c gibt es mit αem genau einen dimensionslosen freien Parameter, der die Stärke der Wechselwirkung beschreibt und die Elementarladung e enthält. Damit wird e ein Parameter der Wechselwirkung.5 Für die anderen beiden Wechselwirkungen des SM existieren zur elektrischen Elementarladung e analoge dimensionslose Größen gw und gs , von deren Einführung g2

g2

wir aber absehen und uns nur auf die Kopplungsparameter αw = 4πw und αs = 4πs beschränken. Gl. 6.4 ermöglicht es, die Kraftgesetze (sowie die potenziellen Energien) der starken und der schwachen Wechselwirkung für kurze Abstände analog zum Coulombschen Gesetz aufzuschreiben. Um die starke und schwache Wechselwirkung analog zum Elektromagnetismus zu beschreiben, wie es die Argumentation am Anfang dieses Kapitels nahelegt, müssen entsprechende Größen auch für diese Wechselwirkungen eingeführt werden. Für die schwache Wechselwirkung handelt es sich dabei um die schwache (Isospin-)Ladung I, einen dreidimensionalen Vektor im Ladungsraum, welche aufgrund der gleichen zugrunde liegenden Symmetriegruppe denselben Gesetzmäßigkeiten wie der bekannte Spin unterliegt. Insbesondere ist von der schwachen Isospin-Ladung – analog zur magnetischen m-Quantenzahl des Spins – nur eine Komponente messbar, die schwache Ladungszahl I3 . In der Schule kann daher ohne Weiteres auf die Einführung der vektoriellen schwachen Ladung I verzichtet und für die schwache Ladungszahl einfach das Symbol I := I3 verwendet werden. Beispielsweise ist I = + 21 für Up-Quarks oder − 21 für Down-Quarks. Für die starke Wechselwirkung reicht die Beschreibung des Ladungszustands mit einer Zahl allerdings nicht mehr aus. Der achtdimensionale Farbladungsvektor

5 Wir

verwenden die Bezeichnung Kopplungsparameter statt Kopplungskonstante oder Feinstrukturkonstante, da αem nicht konstant ist, sondern (genau wie die Kopplungsparameter der starken und schwachen Wechselwirkung) eine logarithmische Abstands- bzw. Energieabhängigkeit aufweist. In der Quantenelektrodynamik verändert sich also die „Elementarladung“ e langsam als Funktion des Abstandes bzw. des Energieübertrags. Die elektrische Ladungszahl Z dagegen ist unabhängig von Abständen und Energien und dient so als unveränderliche und charakteristische Teilcheneigenschaft. Jedem Elektron ist z. B. stets Z e = −1 zugeordnet.

100

M. Kobel und P. Lindenau

lässt sich jedoch analog auf zwei messbare Komponenten, also einen zweidimensionalen Vektor reduzieren. Die drei möglichen Farbladungsvektoren (C) werden in Anlehnung an die additive Farbmischung mit rot, blau und grün bezeichnet. Mit diesen zusätzlichen Ladungsarten lassen sich die Kraftgesetze (und die potenziellen Energien) der schwachen (Gl. 6.5) und der starken Wechselwirkung (Gl. 6.6) bei genügend kleinen Abständen in völlig analoger Form zum Coulombschen Gesetz (Gl. 6.4) schreiben: Fw = c · αw ·

I1 · I2  , r2

(6.5)

C1 · C2  , (6.6) r2 wobei bei dieser Berechnung die Erwartungswerte der Ladungsprodukte nach quantenmechanischen Regeln zu bilden sind, was üblicherweise über den Stoffumfang an Schulen hinausreicht. Es gilt jedoch weiterhin analog zum Coulomb-Gesetz die Regel, dass die Kraftwirkung bei negativem Ladungsprodukt anziehend und bei positivem Ladungsprodukt abstoßend ist. Fs = c · αs ·

Alle drei Ladungsarten haben die folgenden Gemeinsamkeiten: • Ursache für Wechselwirkung: Ein Teilchen unterliegt genau dann einer der fundamentalen Wechselwirkungen, wenn es die zugehörige Ladung besitzt. • Additivität: Die Ladungen von Systemen ergeben sich als Summe der Ladungen der beteiligten Teilchen. • Quantelung: Es treten nur diskrete Werte der Ladungen auf. • Erhaltung: Alle drei Ladungsarten sind bei Wechselwirkungen streng erhalten.6 All diese Aspekte sind den Lernenden bereits von der elektrischen Ladung bekannt und können auf die schwache und die starke Ladung übertragen werden. Insbesondere kann die Ladungserhaltung zur Beurteilung der Möglichkeit bestimmter Prozesse herangezogen werden. Über die schwache Ladungserhaltung kann z. B. (jenseits der experimentellen Evidenz) auch theoretisch begründet werden, wieso bei BetaUmwandlungen stets ein Neutrino entstehen muss. Im Umkehrschluss kann über die Entstehung des Neutrinos die Existenz der schwachen Wechselwirkung bzw. Ladung plausibel gemacht werden (vgl. Kobel et al. 2018, S. 88). Weiterführend treten die Ladungen, genau wie die Kopplungsparameter der entsprechenden Wechselwirkung, als Faktoren in den Wahrscheinlichkeitsamplituden von Prozessen auf, was einen Zugang zur teilchenphysikalischen Forschungsmethodik, nämlich der Erkenntnissgewinnung durch Vergleich von Häufigkeiten verschiedener Prozesse, bietet. Beispiele dazu findet man in Abschn. 2.5.8. und 2.5.9. in Ladungen, Wechselwirkungen und Teilchen (Kobel et al. 2018). Zusammenfassend spiegelt das Basiskonzept Ladung in der Elementarteilchenphysik das Wesen

6 Eine

Ausnahme stellen Wechselwirkungen mit dem Higgs-Feld bzw. einem Higgs-Teilchen dar.

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte …

101

der Physik wider: das Bestreben nach Verallgemeinerung und Vereinheitlichung von Phänomenen unter Nutzung weniger, grundlegender Konzepte und Axiome. Die Erweiterung des Ladungsbegriffs lässt es sinnvoll erscheinen, dass von Anfang an nicht nur von „geladen“ und „ungeladen“ gesprochen wird, sondern dass die Art der Ladung stets spezifiziert werden sollte. Es ist anzunehmen, dass ein kontinuierliches Mitführen der Spezifizierung „elektrische“ Ladung später die Einführung weiterer Ladungen erleichtert. Offensichtlich ist, dass diese Spezifizierung spätestens nach Einführung weiterer Ladungsarten erfolgen sollte, was leider auch in den erwähnten Schulbüchern (Krause und Grehn 2019; Kuhn 1998; Meyer und Schmidt 2015) nicht konsequent getan wird.

6.2.3

Basiskonzept Elementarteilchen

Erst nach der Diskussion der Basiskonzepte Wechselwirkung und Ladung ist es sinnvoll möglich, das komplette Spektrum der Elementarteilchen im Schulunterricht systematisch so zu präsentieren, dass die Gefahr des reinen Auswendiglernens minimiert wird. Dabei muss zwischen drei Arten von Teilchen unterschieden werden: die elementaren Fermionen mit Spin 21 , aus deren erster Generation sich die Materie im Universum aufbaut („Materieteilchen“), Eichbosonen mit Spin 1, die als Vermittler der jeweiligen Wechselwirkung Energie, Impuls, Drehimpuls und Ladungen übertragen („Botenteilchen“), sowie das hier nicht weiter diskutierte Higgs-Boson mit Spin 0. Materieteilchen Mit Hilfe ihrer Ladungen lassen sich die elementaren Materieteilchen in einem Ordnungsschema gruppieren, welches Analogien zum Periodensystem der Elemente aufweist, wenn man dieses um 90◦ dreht. In der Übersicht aller elementaren Materieteilchen (Abb. 6.3) sind Vertreter gleicher elektrischer und schwacher Ladungen in jeweils einer Zeile waagerecht nebeneinander angeordnet. Genau wie bei chemischen Eigenschaften im Periodensystem (dort sind es senkrecht angeordnete Hauptgruppen) besitzen diese Teilchen identische Eigenschaften bezüglich aller ihrer Wechselwirkungen. Unterschiede entstehen nur durch ihre von links nach rechts steigenden Massen in den sog. „Generationen“, die den Perioden im Periodensystem entsprechen. Im Vergleich mit dem Periodensystem lassen sich im Unterricht Analogien und Unterschiede diskutieren. So kann man das Periodensystem aus der Struktur der Elektronenhülle der Atome verstehen, während bei elementaren Materieteilchen keine Unterstruktur vorhanden ist. Da man offensichtlich nicht alle Elemente des Periodensystems auswendig kennen muss, kann durch diese Analogie die Versuchung, die Materieteilchen des SM auswendig zu lernen, vermindert werden und stattdessen ihre Systematik in den Vordergrund rücken.

102

M. Kobel und P. Lindenau

Abb. 6.3 Ordnungsschema der Materieteilchen des Standardmodells nach Wechselwirkungen und Generationen (verändert nach Kobel et al. (2018))

Botenteilchen Bei der Einführung der Botenteilchen der Wechselwirkungen ist zu begründen, weshalb bestehende Modelle und Konzepte auf der Ebene der Elementarteilchen versagen. In Kap. 5 dieses Bandes hat Oliver Passon bereits darauf hingewiesen, dass nach Posner et al. (1982) für einen Konzeptwechsel, also auch für den Übergang von einem Modell zu einem anderen, die Unzufriedenheit mit dem bisher genutzten Modell vorhanden sein bzw. erzeugt werden muss. Eine entsprechende Argumentation bezüglich der Probleme des Feldlinienmodells zur Beschreibung der Kräfte von starker und schwacher Wechselwirkung wird im Folgenden dargelegt. Bei allen Gemeinsamkeiten der fundamentalen Wechselwirkung des SM müssen auch signifikante Unterschiede existieren, die erklären, weshalb die starke und die schwache Wechselwirkung makroskopisch nicht direkt erfahr- und messbar sind. Diese Gründe können anhand der Kraftgesetze diskutiert werden, deren Abstandsabhängigkeit bei doppelt-logarithmischer Skaleneinteilung in Abb. 6.4 dargestellt ist. Es ist zu erkennen, dass die elektromagnetische Kraft sowie die Gravitationskraft7 überall den gleichen Anstieg besitzen, was ein gleichartiges Potenzgesetz impliziert (F ∝ r12 ). Für kleine Abstände ist dies auch für die schwache und die starke Kraft der Fall. Diese weichen aber bei ihren sog. charakteristischen Längen von diesem Verhalten ab. Die schwache Kraft fällt ab einem Abstand von ca. 10−3 fm exponentiell ab. Die starke Kraft hingegen wird ab einem Abstand von ca. 0,2 fm konstant. Dieses Verhalten ist nicht konsistent mit dem Feldlinienmodell zu erklären. Es würde bei der starken Wechselwirkung zu spontan entstehenden Feldlinien und bei der schwachen Wechselwirkung zum plötzlichen Verschwinden von Feldlinien führen (Abb. 6.5), was den bekannten Regeln für Feldlinien widerspricht. Das Feldlinienmodell in

7 Unter der Annahme, dass das Newtonsche Gravitationsgesetz auch bei Abständen gilt, die kleiner

sind als der bisher kleinste experimentell verifizierte Abstand von 50 μm.

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte …

103

Abb. 6.4 Abstandsabhängigkeit der Kräfte der fundamentalen Wechselwirkungen. Elektromagnetisch, schwach und gravitativ: Kraft zwischen Elektron und Positron; stark: Kraft zwischen Quark und Anti-Quark

Abb. 6.5 Versuch der Darstellung der Kraftgesetze von starker (links) und schwacher Wechselwirkung (rechts) im Feldlinienmodell (Kobel et al. 2018)

seiner bekannten Form ist also offenbar nicht sinnvoll auf die starke und die schwache Kraft übertragbar, was als Irritation und damit zur Motivation der Einführung des Botenteilchenmodells dienen kann. In diesem Modell können die beobachteten Eigenschaften der schwachen und der starken Wechselwirkung bzw. die Form

104

M. Kobel und P. Lindenau

der zugehörigen Kraftgesetze mit den Eigenschaften der assoziierten Botenteilchen8 begründet werden. Aktuell wird im Lehrplan des Bundeslands Nordrhein-Westfalen der Vergleich des Botenteilchenkonzepts (dort: Austauschteilchen) mit dem Feldkonzept gefordert (MSB NRW 2014). Obige Argumentationen können dabei hilfreich sein, allerdings setzen diese notwendigerweise ein elaboriertes Verständnis des Feldlinienmodells voraus. Dies kann eine Hürde für die von Posner et al. (1982) geforderte Unzufriedenheit sein, da Schülerinnen und Schüler oft ein zu geringes Verständnis von Feldlinien haben und die gültigen Regeln nicht korrekt anwenden oder Widersprüche identifizieren können (Hopf und Wilhelm 2018). Die nachfolgenden Überlegungen können den Prozess der Erzeugung von Unzufriedenheit weiter unterstützen. Der Verlauf von Feldlinien im Feldlinienmodell lässt Rückschlüsse auf die Kraftrichtung zu, die eine Probeladung (bzw. -masse) in diesem Feld erfahren würde. Die Probeladung darf dabei per Definition keinen Einfluss auf die gegebene Feldkonfiguration haben. In der makroskopischen klassischen Physik ist dies in guter Näherung noch in physikalisch realisierbaren Szenarien erreichbar, wenn z. B. die Kraft betrachtet wird, die auf ein Elektron im elektrischen Feld eines Plattenkondensators wirkt. In der Elementarteilchenphysik sind die Ladungen der einzelnen beteiligten Teilchen jedoch stets in der gleichen Größenordnung, so dass nicht einmal mehr näherungsweise von Probeladungen gesprochen werden kann. Ferner eignet sich das Feldlinienmodell nur für die Beschreibung von Kräften, nicht aber für die Modellierung von Teilchenumwandlungen, -erzeugungen und vernichtungen, welche ebenfalls Phänomene der fundamentalen Wechselwirkungen darstellen und das SM als Quantenfeldtheorie klar von allen anderen im Schulunterricht behandelten Theorien und Modellen abgrenzen. Eine Abschwächung von Feldern durch Dielektrika bzw. Diamagnetika bis hin zur vollständigen Abschirmung von Feldern im Inneren von Supraleitern ist den Lernenden eventuell bekannt. In diesem Fall ist eine sinnvolle Diskussion des Higgs-Feldes möglich, welches als allgegenwärtiges Feld mit schwacher Ladung für die schwache Wechselwirkung eine ähnliche Rolle einnimmt wie die gemeinsame Wellenfunktion der zur Supraleitung beitragenden Elektronen in der Ginsburg-Landau-Theorie bzw. wie das Cooper-Paar-Kondensat in der Bardeen-Cooper-Schrieffer-Theorie für Supraleiter. Es existiert eine umfassende Analogie zwischen der Supraleiter-Theorie und dem Higgs-Mechanismus (Dixon 1996; Fraser und Koberinski 2016). Die rein phänomenologische Ähnlichkeit hat in den 1960er Jahren überhaupt erst zur Formulierung des Higgs-Mechanismus zur Erklärung der kurzen Reichweite der schwachen Wechselwirkung geführt. In diesem wird das gesamte Universum als Supraleiter für die schwache Ladung aufgefasst. Die Compton-Wellenlänge der W- und Z-Teilchen und somit die Reichweite der schwachen Wechselwirkung entspricht in der Analogie der London-Eindringtiefe bei Supraleitern. Sofern Phänomene der Supraleitung im

8 Bei

der schwachen Wechselwirkung sind das die großen Massen der W- und Z-Teilchen und bei der starken Wechselwirkung die Tatsache, dass die Gluonen als Botenteilchen der starken Wechselwirkung selbst starke Ladung besitzen.

6

Eine anschlussfähige Begriffsbildung der Basiskonzepte …

105

Unterricht thematisiert wurden, kann die Behandlung des Higgs-Feldes eine sinnvolle Ergänzung sein, über die auch eine Diskussion über die Rolle von Analogien in der wissenschaftlichen Theoriebildung und somit zur Natur der Naturwissenschaften im Unterricht angeregt werden kann.

6.3

Zusammenfassung und Schlussbemerkungen

Die vorgeschlagene Schwerpunktsetzung bei der Vermittlung der Grundideen des SM stellt die Erweiterung des Ladungsbegriffs sowie die Gemeinsamkeiten und Unterschiede der fundamentalen Wechselwirkungen des SM in den Mittelpunkt und nimmt Abstand von der verbreiteten Fokussierung auf das Spektrum der elementaren Materieteilchen bzw. auf den „Teilchenzoo“. Dadurch kann die Anzahl der neuen Bezeichnungen und Begriffe drastisch reduziert werden, und es lassen sich konzeptionelle Überlegungen in den Mittelpunkt rücken. Die mit diesem Ansatz deutschlandweit von Netzwerk Teilchenwelt mit Unterstützung der Dr. Hans RiegelStiftung durchgeführten Lehrerfortbildungen werden von den Teilnehmenden insgesamt als positiv wahrgenommen, insbesondere auch hinsichtlich der Relevanz für den Schulalltag (Lindenau und Kobel 2019). Gemäß Rückmeldungen von Lehrkräften erweist sich eine entsprechende Schwerpunktsetzung auch im Schulunterricht als motivierend und praktikabel. In den gesamten Unterrichtsmaterialen von Netzwerk Teilchenwelt9 wurde versucht, eine konsistente und anschlussfähige Begriffsbildung zu verwenden, wobei didaktische Überlegungen zur Abwägung zwischen verschiedenen begrifflichen Optionen angestellt wurden (Kobel et al. 2018, S. 87ff.). Eine kritische Diskussion und Reflexion der getroffenen Entscheidungen stellt eines unserer Hauptanliegen für zukünftige Symposien dar.

Literatur Backhaus U, Boysen G, Heise,H, Kopte U, Schepers H, Schlichting HJ, Schön L-H 2009 Fokus Physik. Bd 2. Gymnasium. Baden Württemberg. Cornelsen, Berlin Bader F (Hrsg) (2010) Dorn Bader. Physik. Schroedel, Gymnasium SEK II Braunschweig Dixon L (1996) From superconductors to supercolliders. Beam line 26(1):23–30 Fraser D, Koberinski A (2016) The Higgs mechanism and superconductivity: a case study of formal analogies. Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 55:72–91 Hacker G, Hilscher H 2009 Elementarteilchenphysik in der Schule. In: Kircher E, Girwidz R, Häußler P (Hrsg) Physikdidaktik. Theorie und Praxis, 2. Aufl. Springer, Berlin S 479–507 Hopf M, Wilhelm T 2018 Schülervorstellungen zu Feldern und Wellen. In: Schecker H, Wilhelm T, Hopf M, Duit R (Hrsg) Schülervorstellungen und Physikunterricht. Ein Lehrbuch für Studium, Referendariat und Unterrichtspraxis. Springer Spektrum, Berlin S 185–208

9 www.teilchenwelt.de/tp

106

M. Kobel und P. Lindenau

Kobel M, Bilow U, Lindenau P, Schorn B (2018) Teilchenphysik. Unterrichtsmaterial ab Klasse 10. Ladungen, Wechselwirkungen und Teilchen, 3. Aufl. Joachim Herz Stiftung, Hamburg Krause J, Grehn J (Hrsg.) (2019) Metzler Physik, 4. Aufl. Schroedel, Braunschweig Kuhn W (Hrsg.) (2000) Physik 2. Grundkurse. Sekundarstufe II. Westermann, Braunschweig Kuhn W (Hrsg) 1998 Physik. Bd II. 2. Teil: Klasse 12/13. Westermann, Braunschweig Latusseck R 2005 Weltraumstrahlen lüften Geheimnis. https://www.welt.de/print-wams/ article124805/Weltraumstrahlen-lueften-Geheimnis.html. Zugegriffen: 10. Febr. 2020 Lindenau P, Kobel M 2019 Introducing an innovative approach of teaching the Standard Model of particle physics at high school. J Phys: Conf Ser 1287:012045 Meyer L, Schmidt G-D (2015) Duden. Lehrbuch Physik. Gymnasiale Oberstufe. 2, vollst, überarb edn. Duden, Berlin MSB NRW, Ministerium für Schule und Weiterbildung des Landes Nordrhein-Westfalen (Hrsg) 2014 Kernlehrplan für die Sekundarstufe II Gymnasium/Gesamtschule in Nordrhein-Westfalen. Physik Posner GJ, Strike KA, Hewson PW, Gerzog WA (1982) Accommodation of a scientific conception: toward a theory of conceptual change. Sci Educ 66(2):211–227 Rincke K, Leisen J 2015 Sprache im Physikunterricht. In: Kircher E, Girwidz R, Häußler P (Hrsg) Physikdidaktik. Theorie und Praxis, 3. Aufl. Springer, Berlin, 635–655 Schieck J 2015 Elementarteilchenphysik in der Schule. In: Kircher E, Girwidz R, Häußler P (Hrsg), Physikdidaktik. Theorie und Praxis. 3. Aufl. Springer, Berlin, 503–527

7

Hands-on- & Minds-onTeilchenphysikexperimente im CERN-Schülerlabor S’Cool LAB Julia Woithe, Jochen Kuhn, Andreas Müller und Sascha Schmeling

Inhaltsverzeichnis 7.1 7.2 7.3 7.4

Das Schülerlabor S’Cool LAB am CERN – Geschichte und Motivation . . . . . . . . . . . . . . . Didaktisches Design der S’Cool LAB-Workshops . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Hands-on Tour Through Particle Physics on a Small Budget . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

108 109 117 118

Spannender und kognitiv aktivierender Unterricht sollte Jugendlichen die Möglichkeit geben, sich selbsttätig mit einem für sie interessanten Unterrichtsgegenstand zu beschäftigen und dabei ihre bestehenden Wissensstrukturen zu erweitern, z. B. in der Form von gut durchdachten Schülerexperimenten (Brovelli 2018). Die Komplexität der Teilchenphysik erschwert dieses Vorhaben allerdings, da das benötigte Equipment für Schulen oft zu teuer und schwer zugänglich ist. Aus ähnlichen Gründen wurden in den letzten Jahren in verschiedenen Gebieten moderner Wissenschaft zahlreiche Schülerlabore zur Wissenschaftskommunikation geschaffen, die mittels ihrer Spezialisierung und moderner Ausstattung Experimentiergelegenheiten schaffen, um Jugendlichen einen Einblick in die aktuelle Forschung zu geben (Haupt 2013). S’Cool LAB ist das Teilchenphysikschülerlabor am CERN in Genf mit dem Ziel, Jugendlichen die physikalischen Grundlagen und Forschungsmethoden des größten Teilchenphysiklabors der Welt näherzubringen (S’Cool LAB

J. Woithe (B) · S. Schmeling CERN, Education, Communication, and Outreach Group, Geneva, Schweiz J. Woithe · J. Kuhn Fachbereich Physik, AG Didaktik der Physik,TU Kaiserlautern, Kaiserslautern, Deutschland A. Müller Section de Physique, Institut Universitaire de la Formation des Enseignants (IUFE), Université de Genève, Faculté des Sciences, Genève, Suisse © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_7

107

108

J Woithe et al.

2019). Allerdings reicht die Verfügbarkeit von Equipment und Ideen für damit mögliche Experimente nicht aus: Vor allem bei komplexen Themen ist eine forschungsbasierte geeignete didaktische Gestaltung unter anderem unter Kenntnis relevanter Schülervorstellungen unabdingbar. Auch die Perspektive der Lernenden sollte entsprechend bei der Auswahl und Planung berücksichtigt werden. Fachdidaktische Begleitforschung bietet daher die Möglichkeit, die Aktivitäten in Schülerlaboren wie S’Cool LAB in diesem Sinne zu entwickeln und des Weiteren deren Lernwirksamkeit zu evaluieren. Im Folgenden werden die Konzeption des Schülerlabors S’Cool LAB vorgestellt sowie Einblick in die didaktische Rekonstruktion seiner Lerninhalte gegeben.

7.1

Das Schülerlabor S’Cool LAB am CERN – Geschichte und Motivation

CERN, das größte Teilchenphysiklabor der Welt, hat eine lange Tradition von Wissenschaftskommunikation mit dem Ziel, die Forschungsresultate mit der Öffentlichkeit zu teilen. 2018 nahmen mehr als 100 000 Besucherinnen und Besucher an kostenlosen geführten Touren teil, mehr als die Hälfte davon Schülerinnen und Schüler aus über 60 verschiedenen Ländern. Das Interesse, im Rahmen von Physikkursfahrten das CERN zu besuchen, ist groß, es gilt als das „Mekka der Physik“. Lehrpersonen wollen mit einem Besuch ihren Jugendlichen zeigen, welche fundamentalen Fragen der Menschheit Forscherinnen und Forscher aus aller Welt derzeit beschäftigen, welche Forschungsmethoden dafür verwendet werden, und wie „echte“ Wissenschaftlerinnen und Wissenschaftler arbeiten. Viele hoffen, dass die Faszination der riesigen Maschinen und großen Kollaborationen sowie der elementaren Teilchen die Jugendlichen inspiriert und sie Physik als lebendiges, hochaktuelles und mögliches Betätigungsfeld wahrnehmen. Nicht zuletzt nutzen viele Lehrpersonen CERN als außerschulischen Lernort, da sie selbst in manchen Fällen nicht die Mittel oder das Wissen besitzen, um Teilchenphysik zu unterrichten. Es ist daher nicht verwunderlich, dass die Anzahl der Besucherinnen und Besucher am CERN seit dem Start des Large Hadron Colliders (LHC) im Jahr 2008 kontinuierlich anstieg und geführte Touren zurzeit bereits Monate im Voraus ausgebucht sind. Gleichzeitig bestand seit Jahren der Wunsch, speziell Jugendlichen und damit der zukünftigen Generation der Wissenschaftlerinnen und Wissenschaftler sowie Entscheidungsträgerinnen und Entscheidungsträger zusätzliche Lerngelegenheiten am CERN zu bieten. Diese Aktivitäten sollten es Jugendlichen ermöglichen, das abstrakte Gebiet der Teilchenphysik selbst zu erleben und infolgedessen besser zu verstehen. Dank einer großzügigen Spende der Lotterie Romande begann daher 2013 der Bau des Teilchenphysikschülerlabors S’Cool LAB am CERN. Inzwischen zählt S’Cool LAB mehr als 30 000 Teilnehmende, pro Jahr experimentieren dort mehr als 7 500 Jugendliche und Lehrpersonen aus aller Welt in hands-on-minds-on-Teilchenphysikworkshops. Ziel dieser Workshops ist es, den Jugendlichen Einblick in die Arbeitsweisen und Technologien des CERN zu geben, deren Interesse, wissenschaftliche Neugierde sowie das physikbezogene Selbstkonzept zu stärken und ihnen im Rahmen von

7

Hands-on- & Minds-on- Teilchenphysikexperimente …

109

Experimenten zu helfen, die Grundkonzepte der Teilchenphysik zu verstehen. Alle 90-minütigen Experimentierworkshops konzentrieren sich daher auf einen Aspekt des CERN, wie z. B. Teilchendetektoren, Teilchenbeschleuniger, medizinische Anwendungen der Teilchenphysik oder relevante Technologien wie Supraleitung oder Teilchenfallen. Jugendliche arbeiten in Kleingruppen und werden dabei von Arbeitsmaterialien und freiwilligen CERN-Wissenschaftlerinnen und Wissenschaftlern (tutors) angeleitet und unterstützt. Da das S’Cool LAB von einem Team von Fachdidaktikerinnen und Fachdidaktikern betrieben wird, nimmt zudem ein Teil der Jugendlichen und Lehrpersonen an fachdidaktischen Forschungsprojekten teil, indem sie Fragebögen ausfüllen, Interviews geben oder neue Experimente testen. Da trotz der großen Besucherzahlen nur ein Bruchteil der Jugendlichen das CERN und das Schülerlabor S’Cool LAB besuchen können, hat es sich das S’Cool LABTeam inzwischen zusätzlich zur Aufgabe gemacht, Aktivitäten zur Teilchenphysik zu entwickeln, die mit einfachen Mitteln und wenig Ressourcen im Klassenraum umgesetzt werden können.

7.2

Didaktisches Design der S’Cool LAB-Workshops

Bei den Aktivitäten im S’Cool LAB werden sowohl kognitive Lernziele (z. B. konzeptuelles Verständnis) als auch affektive Lernziele (z. B. physikbezogenes Interesse und Selbstkonzept) verfolgt. Basierend auf dem Modell der Didaktischen Rekonstruktion (Duit et al. 2012) wurden daher alle Lernaktivitäten im S’Cool LAB in einem iterativen Designprozess entwickelt. Neben der Auswahl und Elementarisierung der fachlichen Inhalte wurden somit auch die Perspektiven der Lernenden, insbesondere deren Vorstellungen, kognitive Voraussetzungen und Auslastung sowie deren Interessen bei der didaktischen Strukturierung der Aktivitäten, berücksichtigt. Im Rahmen fachdidaktischer Begleitforschung werden die Ziele des Schülerlabors empirisch evaluiert.

7.2.1

Fachliche Klärung: Auswahl und Elementarisierung der Lerninhalte

Alle Experimentierworkshops im S’Cool LAB konzentrieren sich auf einen Aspekt der Forschung und Technologien am CERN. Dabei wurden bei der Auswahl der Themen sowohl deren Relevanz am CERN als auch deren Eignung für Schülerexperimente und die Verfügbarkeit geeigneten Equipments berücksichtigt. Bei ihrer Bewerbung für einen Workshop geben Lehrpersonen ihre Experimentpräferenz an, die oft am besten zum jeweiligen Physiklehrplan bzw. zu den Zielen des CERN.Besuchs und den Interessen der Jugendlichen passt. Derzeit können Lehrpersonen aus den folgenden Experimenten auswählen:

110

J Woithe et al.

Electron Tube – The Basics of Particle Acceleration Mit1 Hilfe einer Elektronenröhre untersuchen Jugendliche das Verhalten von elektrisch geladenen Teilchen in elektrischen und magnetischen Feldern. Auch wenn die Jugendlichen „nur“ mit niederenergetischen Elektronen (300 eV) arbeiten, lernen sie somit die Grundlagen für Teilchenbeschleunigung allgemein kennen (insbesondere Beschleunigung durch elektrische Felder und Ablenkung durch magnetische Felder), die sich auch im LHC wiederfinden. Der LHC ist ein Synchrotron, d. h. synchron mit der kinetischen Energie der beschleunigten Teilchen muss die Stärke der ablenkenden Magnetfelder erhöht werden, indem ein immer größerer elektrischer Strom durch supraleitende Elektromagneten fließt. Auch dieses Prinzip lässt sich analog an einer Elektronenröhre mit normalleitenden Elektromagneten untersuchen. Superconductivity – Resistance is Futile Die Magnetfelder, die benötigt werden, um hochenergetische Protonen im LHC auf eine Kreisbahn zu zwingen, lassen sich nicht mit normalleitenden Elektromagneten erzeugen. Stattdessen stellt der LHC das größte Kryostat der Welt dar, mit kilometerlangen, supraleitenden Kabeln im Inneren von Dipol- und Quadrupolmagneten, die mit Hilfe von Tonnen flüssigen Heliums auf ihrer Betriebstemperatur von 1,8 K gehalten werden. Im Rahmen des Supraleitungsworkshops im S’Cool LAB vergleichen Jugendliche den elektrischen Widerstand von Normal- und Supraleitern beim Kühlen mit flüssigem Stickstoff. Zusätzlich experimentieren die Jugendlichen mit Hochtemperatursupraleitern in der Gegenwart externer Magnetfelder und lernen den Meißner-Ochsenfeld-Effekt und den Flux-Pinning-Effekt kennen. Cloud Chamber – Build and Observe a Particle Detector Nach der Kollision von Protonen im LHC zeichnen riesige Teilchendetektoren die Signaturen der aus der Kollisionsenergie entstandenen Teilchen auf. Dabei beruhen diese Detektoren auf einer Vielzahl zwiebelschalenartig angeordneter Subdetektoren, die jeweils auf das Vermessen einer bestimmen Teilcheneigenschaft oder Teilchensorte spezialisiert sind. Oft beruht der Detektionsmechanismus auf der Ionisation des Detektormaterials. Das gleiche Prinzip liegt auch den im Folgenden beschriebenen Teilchendetektoren im S’Cool LAB zugrunde. In einer Nebelkammer bilden sich Isopropanoltropfen entlang einer Ionisationsspur, die sich bei geeigneter Beleuchtung mit bloßem Auge beobachten lassen. Nachdem Jugendliche in diesem Workshop ihre eigene Nebelkammer mit Trockeneis aufbauen, beobachten sie bei der Entstehung einer Nebelschicht den Effekt von Phasenübergängen und kategorisieren die im Nebel auftretenden Spuren verschiedenartiger ionisierender Teilchen der kosmischen sowie terrestrischen Strahlung. Selbst ohne Teilchenbeschleuniger und digitaler Messwerterfassung und -analyse ist es so möglich,

1 Da

das Schülerlabor S’Cool LAB-Workshops für Schulgruppen aus mehr als 30 Ländern organisiert, werden alle Arbeitsmaterialien in englischer Sprache entwickelt. Daher wird in diesem Beitrag auf die Übersetzung gewisser Inhalte verzichtet.

7

Hands-on- & Minds-on- Teilchenphysikexperimente …

111

Basiskonzepte der Teilchendetektion und -identifikation zu vermitteln, die die Grundlage der Physik-Nobelpreise 1927 (Charles T. R. Wilson) und 1936 (Carl D. Anderson) bildeten. X-Rays – Medical Applications and Pixel Detectors Als Beispiel eines modernen Teilchendetektors nutzen die Jugendlichen im S’Cool LAB außerdem MX-10-Pixeldetektoren der Firma Jablotron. Diese Halbleiterdetektoren können ionisierende Teilchen detektieren, indem sie den Strom der entlang einer Teilchenspur in einem Siliziumkristall freigesetzten Elektronen messen. Die Größe der Pixel und deren Ausleseelektronik bestimmt die Auflösung dieses Detektors und erlaubt es, zusätzlich zur Spur auch die im Silizium deponierte Energie zu messen. Während die Jugendlichen im S’Cool LAB den Pixeldetektor im Rahmen von Bildgebung am Röntgengerät verwenden, messen Schichten von Pixeldetektoren im Inneren der Teilchendetektoren am LHC die Spuren von elektrisch geladenen Teilchen aus Protonenkollisionen. Auch wenn sich das CERN vor allem der Grundlagenforschung widmet, werden technische Entwicklungen der Teilchenphysik längst auch in anderen Bereichen genutzt, unter anderem in der Medizinphysik oder der Flughafensicherheit. So werden Pixeldetektoren auch in Computertomographen eingesetzt, um basierend auf der unterschiedlichen Absorptionswahrscheinlichkeit von Photonen in verschiedenen Geweben dreidimensionale Röntgenbilder von Körperstrukturen zu erzeugen. Im Rahmen des Röntgenworkshops lernen Jugendliche im S’Cool LAB zunächst mehr über die Absorption von Röntgenphotonen in verschiedenen Materialien mit dem Ziel, die Erzeugung von Röntgenbildern zu verstehen. Mit der Hilfe von Pixeldetektoren identifizieren die Jugendlichen aber auch einen gebrochenen Knochen an einem Skelettmodell sowie den Inhalt von kleinen „Koffern“, ganz ähnlich zu Röntgenscannern am Flughafen. Positron-Emission-Tomography (PET) – Medical Applications Biomedizinische Anwendungen sind von der fachdidaktischen Interessensforschung als besonders interessantes Themengebiet insbesondere für Schülerinnen identifiziert worden (Hoffmann 2002). Ein weiteres Beispiel für eine medizinische Anwendungen der Teilchenphysik stellt die Positronen-Emissions-Tomographie (PET) dar. Nachdem einem Patienten eine radioaktive Substanz (der sog. Marker) gespritzt wurde, kann innerhalb eines Tomographen der Ort der radioaktiven Atome bestimmt werden. Durch β + -Umwandlung wandeln sich in den radioaktiven Atomkernen Protonen in Neutronen unter Aussendung von Positronen und Neutrinos um. Die Positronen annihilieren nach wenigen Millimetern mit Elektronen im umliegenden Gewebe, wodurch zwei Photonen erzeugt werden, die in entgegengesetzte Richtungen fliegen. Durch die koinzidente Detektion dieser Annihilationsphotonen lässt sich die Position der ursprünglichen radioaktiven Atome rekonstruieren. Im Rahmen des PET-Workshops lernen Jugendliche im S’Cool LAB zunächst das Lesen von Energiespektren radioaktiver Präparate, um die spezielle Signatur von Annihilationsphotonen zu erkennen. Nach einer Energiekalibrierung der Szintillationsdetektoren und einer Lernaktivität zum Verständnis von Koinzidenzmessungen untersuchen die Jugendlichen die Winkelabhängigkeit der Annihilationsphotonen eines Natrium-22-

112

J Woithe et al.

Präparats. Das Highlight des Workshops bildet die Lokalisierung des radioaktiven Präparats in einem Modell eines Gehirns. Um eine große Box aus Aluminium, auf die eine schematische Darstellung eines Gehirns aufgedruckt ist, lassen sich die Szintillationsdetektoren frei rotieren und deren jeweilige Winkelposition ablesen. Das Innere ist für die Jugendlichen nicht einsehbar und beinhaltet ein Steckbrett mit 48 möglichen Positionen für das radioaktive Natrium-22-Präparat. Nur wenn die Jugendlichen alles bis dahin Gelernte anwenden, kann es ihnen gelingen, die genaue Position des Präparates zu lokalisieren. Mit Hilfe der Tutorinnen und Tutoren diskutieren sie im Anschluss Gemeinsamkeiten und Unterschiede zwischen ihrem Experiment und PET-Scannern in Krankenhäusern und beraten über mögliche Therapiemöglichkeiten für einen hypothetischen Patienten mit einem Tumor an dieser Stelle im Gehirn.

7.2.2

Vorbereitung und Berücksichtigung der Lernendenperspektiven

Zusätzlich zur fachlichen Perspektive wurde im Designprozess die Perspektive der Lernenden berücksichtigt. Jugendliche, die an Klassenfahrten ans CERN teilnehmen, bereiten sich oft schon Wochen im Voraus auf den Besuch vor und sind meist bereits interessiert an Teilchenphysik. Spätestens wenn sie vor Ort im Rahmen von geführten Touren von Teilchenbeschleunigern und Teilchendetektoren hören, sind sie meist hochmotiviert, selbst damit zu experimentieren. Zusätzlich wählen die Lehrpersonen im Bewerbungsprozess die von ihnen bzw. ihren Schülerinnen und Schülern bevorzugten Experimente aus, und sind auch dafür verantwortlich, die Jugendlichen für ihren Besuch im S’Cool LAB vorzubereiten. Dafür steht ihnen online eine detaillierte Beschreibung benötigter Basiskonzepte sowie speziell zusammengestellte Lernmaterialien zur Verfügung. Besonders beliebt sind sowohl bei den Lernern als auch bei Lehrpersonen Experimente zu den medizinischen Anwendungen der Teilchenphysik. Lehrpersonen sehen darin oft das Potenzial insbesondere auf das Interesse ihrer Schülerinnen eingehen zu können. Viele Schülerinnen und Schüler hingegen interessieren sich besonders für diese Experimente, weil deren direkter Anwendungsbezug näher an ihrer Lebenswelt liegt als die Suche nach Antworten auf die fundamentalen Fragen der Menschheit. Schülervorstellungen Nicht nur die Interessen der Lernenden, sondern auch deren kognitive Voraussetzungen wurden berücksichtigt. Daher wurden in der Literatur dokumentierte Schülervorstellungen analysiert, die für die beschriebenen Experimente relevant sind. Beispielsweise ist das Verständnis der Ablenkung elektrisch geladener Teilchen in Magnetfelder für viele Jugendliche mit erhöhtem Aufwand verbunden, da sie Konzepte und Eigenschaften magnetischer und elektrischer Felder vermischen und unter anderem magnetischen Polen eine elektrische Ladung zuschreiben (Maloney 1985). Weiterhin glauben viele Jugendliche, dass Materialien radioaktiv werden, wenn sie ionisierender Strahlung wie z. B. Röntgenstrahlung ausgesetzt werden (Klaassen

7

Hands-on- & Minds-on- Teilchenphysikexperimente …

113

et al. 1990). Diese und ähnliche Vorstellungen können das Experimentieren und den Lernprozess beeinflussen, indem sie beispielsweise die Beobachtung von Effekten verzerren (Hynd et al. 1994; Miller et al. 2013). Aber sie bieten auch das Potenzial für kognitiv aktivierende Experimente, in denen überraschende Beobachtungen im kognitiven Konflikt zu existierenden Vorstellungen stehen. Zusätzlich zur Literaturrecherche wurden in den ersten Versionen der S’Cool LAB-Workshops die Arbeitsblätter, die die Experimentieranleitungen und Notizen der Jugendlichen zu deren Vorhersagen, Beobachtungen und Erklärungen beinhalten, analysiert und die Jugendlichen beim Experimentieren ausführlich beobachtet und interviewt. Daraufhin wurden zu schwere, zu triviale und unklare Aufgaben adaptiert, das Handling der Materialien wenn nötig vereinfacht und die Struktur der Lernaktivitäten angepasst. Außerdem wurden die Länge und Komplexität der zu lesenden Texte sowie die Anzahl an Fremdwörtern so weit wie möglich reduziert, da alle Jugendlichen ausschließlich mit englischsprachigen Materialien arbeiten. Sogar sprachenabhängige Vorstellungen wurden integriert: Englisch-Muttersprachler haben oft mehr Probleme damit, Koinzidenzmessungen im Rahmen des PET-Experiments zu verstehen, denn das englische Wort „coincidence“ wird eher mit vollkommen zufälligen Prozessen assoziiert als mit dem (erwarteten) zeitlichen Zusammenfallen von Ereignissen. Auch wenn die Komplexität des im Labor verwendeten Equipments freies, ungeleitetes Experimentieren vor allem aus Sicherheitsgründen nicht zulässt, wurden, wo möglich, mehrere inhaltlich ähnliche Wahlaufgaben eingearbeitet, um anhand des Kontextes und des Schwierigkeitsgrades besser auf die Präferenzen und Unterschiede der Jugendlichen eingehen zu können. Kognitive Belastung & Entwicklungspsychologie Die Kapazität des Arbeitsgedächtnisses, welches neue Information verarbeitet, ist begrenzt (Baddeley 1994). Daher sollten Lernmaterialien so gestaltet sein, dass sie die notwendige Kapazität für die erwünschten Lernprozesse freihalten und dabei den Einfluss extrinsischer Faktoren („extraneous cognitive load“) minimieren. Im S’Cool LAB werden daher die Lernaktivitäten durch Arbeitsmaterialien („process worksheets“ (Kirschner et al. 2006)) mit wenig Text entsprechend strukturiert. Außerdem fokussiert sich die Auswahl der Experimentiersequenzen auf das Lernen weniger ausgewählter Konzepte. Zeit für andere Experimentieraufgaben wie z. B. das Verkabeln oder Kalibrieren werden im Gegenzug durch Vereinfachungen gekürzt. Nicht zuletzt misst die fachdidaktische Begleitforschung die von den Lernenden wahrgenommene kognitive Belastung der einzelnen Experimente, um die Aktivitäten gegebenenfalls anzupassen. Die kognitiven Voraussetzungen, wie z. B. die Leistungsfähigkeit des Arbeitsgedächtnisses, verändern sich mit dem Alter der Lernenden, genauso wie deren erlernte Physikkenntnisse (Lawson 2004). Gestützt auf jahrelange Erfahrungen mit Jugendlichen aus verschiedenen Ländern bietet S’Cool LAB daher bestimmte Experimente nur für bestimmte Altersgruppen an. So haben schon 14-Jährige Spaß daran, Nebelkammern zu beobachten, auch wenn ohne Vorkenntnissen zu Ionisierung und ionisierenden Teilchen die Diskussion der Beobachtungen nur oberflächlich

114

J Woithe et al.

stattfinden kann. Der Lernprozess beim PET-Experiment hingegen basiert auf eine r ganzen Reihe von Konzepten, die bei den Jugendlichen bereits als „Chunks“ (Anderson 2014) abrufbereit sein müssen (Positronen, Annihilation, Ruheenergie und E = mc2 , Energie- und Impulserhaltung, β + -Umwandlung), damit im Arbeitsgedächtnis genügend kognitive Kapazität für das Verstehen des Experiments zur Verfügung steht. Erkenntnisse der Entwicklungspsychologie geben zudem Einblick in die Bedeutung des Abstraktionsgrades von Experimenten. So beschreibt (Lawson 2004) zusätzlich zu den vier Stadien Piagets Entwicklungsmodells eine zusätzliche fünfte Entwicklungsstufe im Kontext des wissenschaftlichen Denkens. Dieses Stadium der post-formal operationalen Intelligenz („post-formal reasoning“) scheint besonders für das Verstehen und Wertschätzen vieler komplexer Teilchenphysikexperimente essentiell. Bereits im Stadium der formal-operationalen Intelligenz („formal reasoning“) können logische Zusammenhänge zwischen direkt beobachtbaren Ursachen und Wirkungen hergestellt werden. Beispielsweise bewirkt ein Stabmagnet, der mit der Hand näher an einen Elektronenstrahl gehalten wird, eine stärkere Ablenkung der Elektronen, welche direkt und mit bloßem Auge sichtbar ist. Bei komplexen Experimenten stimmt allerdings oft die Ursache einer Änderung nicht mehr mit den unabhängigen Variablen überein, sondern wird indirekt durch unbeobachtbare Entitäten vermittelt. Das Erkennen logischer Zusammenhänge zwischen solchen nicht direkt beobachtbaren Entitäten wird nach Lawson (2004), wenn überhaupt, erst im Entwicklungsstadium des „post-formal reasoning“ in der späten Adoleszenz möglich. Das schwerste und vermutlich abstrakteste Experiment im S’Cool LAB ist das PET-Experiment, weil es eine Reihe komplexer und nicht direkt beobachtbarer Elemente enthält: So steigt die in einer relativ komplizierten Messsoftware dargestellte Zählrate von in Koinzidenz auftretenden Messsignalen eines blackboxartigen Szintillationsdetektors an einem bestimmten Zeitpunkt schlagartig an, wenn man die Detektoren relativ zueinander und zu einer Positronenquelle bewegt. Die Ursache dafür liegt aber nicht direkt an der Bewegung der Detektoren, sondern an der Winkelabhängigkeit der Photonen, die entstehen, wenn Positronen mit Elektronen in Materie annihilieren. Deshalb wird dieses Experiment im S’Cool LAB nur für ältere Jugendliche angeboten.

7.2.3

Didaktische Strukturierung & Evaluation

Nach der Analyse und Elementarisierung der Fachinhalte und der Analyse von Schülervorstellungen wurden die Lernschritte der verschiedenen Experimente geplant und entsprechende Arbeitsmaterialien erstellt und getestet. Um das Vorwissen der Jugendlichen im Lernprozess zu aktivieren und auf deren Vorstellungen einzugehen, nutzen die Arbeitsmaterialien im S’Cool LAB daher eine Vielzahl sog. Predict-Observe-Explain(POE)-Aufgaben (White und Gunstone 1992).

7

Hands-on- & Minds-on- Teilchenphysikexperimente …

115

Predict-Observe-Explain Im Rahmen von POE-Aufgaben treffen die Jugendlichen zunächst mit Hilfe ihres Vorwissens Vorhersagen über den Ausgang einer experimentellen Handlung. Dieser erste Schritt kann zudem Betreuungspersonen dabei helfen, etwaig problematische Vorstellungen zu diagnostizieren. In der „Observe“-Phase beobachten die Jugendlichen, während sie ihren experimentellen Aufbau wie angeleitet manipulieren. Schülervorstellungen können beeinflussen, wie Lernende Experimente beobachten, und man kann nicht davon ausgehen, dass alle Lernenden den Ausgang eines Experimentes so wahrnehmen und interpretieren wie beabsichtigt (Hynd et al. 1994; Miller et al. 2013). Miller et al. (2013) untersuchten, wie Studierende in Physikvorlesungen Demonstrationsexperimente wahrnehmen. In ihrer Studie wichen 18 % der Beobachtungen vom tatsächlichen Ausgang des Experiments ab. Allerdings führte allein der Schritt des Vorhersagens unabhängig von dessen fachlicher Korrektheit zu einem deutlich höheren Anteil richtiger Beobachtungen (Miller et al. 2013). Während der Pilotierungsphase der Workshops im S’Cool LAB wurden vergleichbare Ergebnisse auch für die dortigen Schülerexperimente bestätigt. So lag der Anteil abweichender Beobachtungen je nach Experiment zwischen 0 % und 28 %. Vor allem schwer beobachtbare Effekte wie Kontrastunterschiede auf dem Fluoreszenzschirm am Röntgengerät wurden vermehrt anders wahrgenommen als beabsichtigt, oft im Einklang mit der (fachlich inkorrekten) Vorhersage der Jugendlichen. Zuletzt werden in der „Explain“-Phase die Beobachtungen interpretiert und gegebenenfalls Abweichungen zur jeweiligen Vorhersage diskutiert. Dieser Schritt ermöglicht es den Jugendlichen, zunächst ihre Vorstellungen mit ihren Mitschülerinnen und Mitschülern zu diskutieren. Es erfordert aber auch die Unterstützung durch Tutorinnen und Tutoren, die dabei helfen, etwaige kognitive Konflikte zu lösen und damit im Idealfall den Konzeptwechsel zu fördern (Nussbaum und Novick 1982). Bevor die Jugendlichen anfangen zu experimentieren, werden die POE-Aufgaben motiviert, indem diese mit der Zusammenarbeit der Theorie- und Experimentalabteilung am CERN strukturell verglichen werden. Während die Theorieabteilung anhand des bestehenden Wissens Vorhersagen trifft und unter anderem genaue Berechnungen zu den Wahrscheinlichkeiten bestimmter Signaturen in den LHC-Detektoren anstellt, ist es die Aufgabe der Experimente, diese Vorhersagen zu überprüfen. Konträr zur Meinung vieler Jugendlichen ist es dabei für Physikerinnen und Physiker besonders spannend, falls die Beobachtungen von den Vorhersagen abweichen und nur erklärt werden können, wenn man bestehende Theorien erweitert. In den Arbeitsmaterialien strukturieren entsprechende Smileys die einzelnen Schritte der POE-Aufgaben (siehe Abb. 7.1).

Evaluation & fachdidaktische Begleitforschung Ein Ziel der fachdidaktischen Begleitforschung des Schülerlabors ist es, dessen kognitive und affektive Zielsetzung zu überprüfen sowie die Wirkmechanismen des Schülerlabors besser zu verstehen. Darauf aufbauend kann der Effekt der Aktivitäten optimiert und ein Beitrag zum Verständnis von außerschulischen Lernorten

116

J Woithe et al.

Abb. 7.1 Predict-Observe-Explain-Aufgaben strukturieren die Experimentieraktivitäten im S’Cool LAB

allgemein geleistet werden. Trotz einer vergleichsweise kurzen Interventionszeit bestätigen die Ergebnisse der Begleitforschung signifikante mittelgroße Effekte für die betrachteten kognitiven und affektiven Zielvariablen. Die Workshops im S’Cool LAB bieten erfolgreiche Lernerlebnisse nicht nur in Bezug auf das Physikinteresse und Selbstkonzept der Jugendlichen, sondern auch in Bezug auf deren konzeptuelles Verständnis. Obwohl die Jugendlichen mit oft unbekannten Themen und Equipment arbeiten, belegen auch die von den Lernenden wahrgenommene kognitive Belastung und die Wahrnehmung ihrer kognitiven Aktivierung, dass es gelungen ist, die Konzepte geeignet zu rekonstruieren (Woithe 2019). Interessant ist dennoch ein Blick auf solche Jugendlichen, deren Vorstellungen offenbar so stabil sind, dass sie sich auch nach dem Schülerlaborbesuch nicht geändert haben. Vor dem Besuch im S’Cool LAB geben z. B. 30 % von 509 Jugendlichen in einem Fragebogen an, dass ein elektrisch geladenes Teilchen, welches sich senkrecht durch das Magnetfeld zwischen zwei Permanentmagneten bewegt, von diesen Magneten an- bzw. abgestoßen wird. Selbst nach mehr als einer Stunde Experimentierens mit Stabmagnet und Elektronenstrahl bleiben 15 % der Jugendlichen im zweiten Fragebogen zehn Tage nach dem Besuch weiterhin bei ihrer Meinung. Möglicherweise ist die Vorstellung sehr eindringlich, dass eine Kraft direkt parallel zu den jeweiligen Feldlinien wirkt. Nicht zuletzt wird genau dieses Konzept ja bei den oft vorab gelernten elektrischen Kräften und der Gravitation angewendet. Im ersten Fragebogen geben 50 % der 509 Jugendlichen außerdem an, dass es gefährlich sei, eine Armbanduhr zu tragen, die zuvor für eine Stunde geröntgt wurde, weil diese Uhr dann selbst radioaktiv werde. Und auch wenn Jugendliche im S’Cool LAB selbstständig mit Schulröntgengeräten experimentieren und mit Hilfe moderner Pixeldetektoren untersuchen, was passiert, wenn man Salz dieser ionisierenden Strahlung aussetzt, antworten im Fragebogen nach dem Schülerlaborbesuch immer noch 16 %, dass die Uhr radioaktiv wird. Eine Befragung von zusätzlichen 54 Jugendlichen in einer separaten Studie gibt Hinweise darauf, dass sich auch diese Vorstellungen auf das Aktivieren von bewährten Konzepten im falschen Kontext zurückführen lassen. So geben 22 der 54 Befragten an, dass Röntgenphotonen direkt vom Atomkern absorbiert werden und erwarten verständlicherweise, dass dieser Prozess den Kern aktiviert und der Kern damit selbst radioaktiv wird. Nur 18 von 54 verorten die Wechselwirkung im Orbitalbereich der Atome und erwarten damit zwar eine Ionisierung, aber keine Aktivierung der Atome. Dieses Beispiel gibt auch einen Hinweis auf den Bildungswert der Teilchenphysik. Denn auch wenn Teilchen-

7

Hands-on- & Minds-on- Teilchenphysikexperimente …

117

physikkenntnisse im Alltag oft nicht allzu relevant sind, beeinflusst das Verständnis der Teilchenebene oft auch das Verständnis makroskopischer Prozesse. Besonders im Themengebiet Radioaktivität, einem nach wie vor gesellschaftlich hochaktuellen Thema, zeigten Klaassen et al. bereits 1990, dass Jugendliche aufgrund ihres mangelnden Verständnisses der Prozesse auf der Teilchenebene Schwierigkeiten haben, radioaktive Phänomene zu verstehen (Klaassen et al. 1990). Die fachdidaktische Forschung am S’Cool LAB beschränkt sich allerdings nicht auf die Effekte eines Besuchs im Schülerlabor. Weiterhin betreibt das S’Cool LABTeam unter anderem Forschung zu Schülervorstellungen im Kontext „Zufall und Radioaktivität“, forscht an neuen technischen Lösungen, um die Physik von Teilchendetektoren zu unterrichten, und untersucht die Motivation von Lehrpersonen, Experimente im Unterricht einzusetzen (S’Cool LAB 2019).

7.3

A Hands-on Tour Through Particle Physics on a Small Budget

Zusätzlich zur Forschung und den Workshops im Schülerlabor sammelt und entwickelt das Team des Schülerlabors Aktivitäten und Materialien, die Lehrpersonen in ihrem Unterricht einsetzen können, selbst wenn ein Besuch am CERN bzw. im S’Cool LAB nicht möglich ist. Ziel dieser Aktivitäten ist es, Jugendlichen und Lehrpersonen eine kognitiv aktive Auseinandersetzung mit Themen der Teilchenphysik zu ermöglichen, und Lehrpersonen bei deren Einsatz mit Zusatzmaterial und didaktischen Hinweisen zu unterstützen. Eine Liste der Aktivitäten inklusive aller Zusatzmaterialien findet sich auf der S’Cool LAB-Website (S’Cool LAB 2019) und wird im Folgenden kurz vorgestellt. So stehen unter anderem eine detaillierte Anleitung zum Bau und der Beobachtung von Diffusionsnebelkammern mit Trockeneis zu Verfügung (Woithe 2016) sowie Unterrichtsmaterialien zur Analyse und Interpretation von Blasenkammeraufnahmen (Woithe et al. 2019). Weiterhin finden Lehrpersonen Bauanleitungen, Arbeitsblätter und Zusatzinformationen zum Bau eines funktionalen Modells des Magnetsystems des ATLAS-Detektors und einer 3D-druckbaren Teilchenfalle, in der das Verhalten von Bärlappsporen mit Hilfe des stroboskopischen Effekts beobachtet werden kann (McGinness et al. 2004). Lehrpersonen mit Zugang zu 3D-Druckern finden neben einem von Rutherford inspirierten Streuversuch mit Stahlkugeln außerdem ein Quarkpuzzle (McGinness et al. 2019), mit dessen Hilfe Jugendliche die Physik von Teilchensystemen entdecken und gleichzeitig das wissenschaftliche Argumentieren durch das Claim-Evidence-Reasoning-Schema (Toulmin 2003) üben. Zum Fördern des Modellverständnisses können Jugendliche anhand von indirekten Beobachtungen (Geräusche beim Bewegen und magnetische Wechselwirkung) die innere Struktur von petrischalenförmigen Mystery-Boxen mit Stahlkugel modellieren. Für einen spielerischen Zugang zur Teilchenphysik stehen ein Brettspiel und ein digitales Teilchen-Persönlichkeits-Quiz zur Verfügung.

118

7.4

J Woithe et al.

Zusammenfassung

Will man Teilchenphysik erfolgreich unterrichten, so ist die genaue Kenntnis der Sachstruktur des Themas sowie eine geeignete Elementarisierung nur ein erster Schritt. Um das Thema geeignet didaktisch aufbereiten zu können, brauchen Lehrende zusätzlich eine solide Kenntnis der Vorstellungen und Interessen der Lernenden zu diesem Thema. Daher wurde im Schülerlabor S’Cool LAB am CERN das Modell der Didaktischen Rekonstruktion verwendet, um den iterativen Entwicklungsprozess von Experimentieraktivitäten zu strukturieren. Auch wenn Schülerinnen und Schüler hands-on-Aktivitäten im Allgemeinen anderen Unterrichtsaktivitäten gegenüber bevorzugen (Swarat et al. 2012), ist es für den Lernprozess wichtig, dass die Lernenden während des Experimentierens nicht nur körperlich aktiv werden („hands-on“), sondern auch kognitiv aktivierende Aufgaben erfüllen („minds-on“) und dabei unter anderem auf ihr Vorwissen zurückgreifen und aufbauen. Allerdings erfordert die Entwicklung geeigneter Lernaktivitäten einen iterativen und interaktiven Designprozess, vor allem bei so abstrakten und wenig unterrichteten Themengebieten wie denen der Teilchenphysik. Die so entwickelten Experimentieraktivitäten fördern im Schülerlabor S’Cool LAB nicht nur das konzeptuelle Verständnis der Jugendlichen, sondern auch das Interesse an den Themen des Schülerlabors und das Selbstkonzept der Jugendlichen. Jedoch bestätigt nicht nur die Evaluierung den Erfolg des Schülerlabors, sondern auch die Anzahl der Bewerbungen für Workshops. So sind S’Cool LAB-Workshops inzwischen bereits mehrere Monate im Voraus ausgebucht. Letztendlich haben aber selbst gut durchdachte Lernaktivitäten aufgrund des zeitlich stark limitierten einmaligen Schülerlaborbesuchs lediglich eine begrenzte Wirksamkeit, und nur durch Zusammenarbeit von Fachwissenschaft, Fachdidaktik und Lehrpersonen kann es gelingen, das Interesse und Verständnis für das Themengebiet Teilchenphysik zu initieren. Dabei geht es nicht nur um ein Themengebiet aktueller Forschung, dieses bildet vielmehr die Grundlage für das Verständnis unserer gesamten materiellen Welt.

Literatur Anderson JR (2014) Cognitive psychology and its implications. W.H. Freeman & Co Ltd, New York Baddeley A (1994) The magical number seven: still magic after all these years? Psychol Rev 101(2):353–356 Brovelli D (2018) Wirksamer Physikunterricht. Schneider, Baltmannsweiler Duit R, Gropengiesser H, Kattmann U, Komorek M, Parchmann I (2012) The model of educational reconstruction – a framework for improving teaching and learning science. Sci Edu Res Prac Eur 5:13–37 Haupt OJ, Domjahn J, Martin U, Skiebe-Corrette P, Vorst S, Zehren W, Hempelmann R (2013) Schülerlabor – Begriffsschärfung und Kategorisierung. MNU 66(6):324–330 Hoffmann L (2002) Promoting girls’ interest and achievement in physics classes for beginners. Learn Instr 12(4):447–465

7

Hands-on- & Minds-on- Teilchenphysikexperimente …

119

Hynd CR, McWhorter JY, Phares VL, Suttles CW (1994) The role of instructional variables in conceptual change in high school physics topics. J Res Sci Teach 31(9):933–946 Kirschner PA, Sweller J, Clark RE (2006) Why minimal guidance during instruction does not work: an analysis of the failure of constructivist, discovery, problem-based, experiential, and inquiry-based teaching. Educ Psychol 41(2):75–86 Klaassen CWJM, Eijkelhof HMC, Lijnse PL (1990) Considering an alternative approach to teaching radioactivity. In: Lijnse P (Hrsg.) Relating macroscopic phenomena to microscopic particles: a central problem in secondary science education. Cd-B Press, Utrecht, pp 304–316 Lawson AE (2004) The nature and development of scientific reasoning: a synthetic view. Int J Sci Math Educ 2(3):307 Maloney DP (1985) Charged poles? Phys Educ 20(6):310 McGinness L, Dührkoop S, Jansky A, Keller O, Lorenz A, Schmeling S, Wendt K, Woithe J (2019) 3D-printable model of a particle trap: development and use in the physics classroom. J Open Hardware 3(1):1–9 McGinness L, Dührkoop S, Jansky A, Woithe J (2019) 3D printable quark puzzle: a model to build your own particle systems. Phys Teach (accepted) Miller K, Lasry N, Chu K, Mazur E (2013) Role of physics lecture demonstrations in conceptual learning. Phys Rev Spec Top – Phys Educ Res 9(2):020113 Nussbaum J, Novick S (1982) Alternative frameworks, conceptual conflict and accommodation: toward a principled teaching strategy. Instr Sci 11(3):183–200 S’Cool LAB-Website (2019) https://cern.ch/s-cool-lab Swarat S, Ortony A, Revelle W (2012) Activity matters: understanding student interest in school science. J Res Sci Teach 49(4):515–537 Toulmin SE (2003) The uses of argument. Cambridge University Press, Cambridge White R, Gunstone R (1992) Probing understanding. Routledge, London Wiener GJ, Schmeling SM, Hopf M (2015) Can grade-6 students understand quarks? Probing acceptance of the subatomic structure of matter with 12-year-olds. Eur J Sci Math Educ 3(4):313– 322 Woithe J (2016) Cloud chamber. S’Cool LAB – Do-it-yourself manual. https://scool.web.cern.ch/ classroom-activities Woithe J, Schmidt R, Naumann F (2019) Track inspection: how to spot subatomic particles. Sci Sch 46:40–47 Woithe J (2019) Development and Evaluation of the Hands-on Particle Physics Learning Laboratory S’Cool LAB at CERN. Impact of Student and Laboratory Characteristics on Cognitive and Affective Effects. Dissertationsschrift in Vorbereitung, TU Kaiserslautern

8

Das Wuppertaler Curriculum der Elementarteilchenphysik Thomas Zügge und Oliver Passon

Inhaltsverzeichnis 8.1 8.2 8.3

Grundlagen des Wuppertaler Curriculums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122 Die vier Bausteine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

Seit 2016 wird an der Bergischen Universität Wuppertal das Wuppertaler Curriculum für den Unterricht der Elementarteilchenphysik entwickelt. Im Rahmen des Projekts Elementarteilchenphysik kompetent und spannend unterrichten1 haben sich Dr. Oliver Passon (Physik und ihre Didaktik), Prof. Dr. Wolfgang Wagner, Prof. Dr. Christian Zeitnitz (beide: Experimentelle Elementarteilchenphysik) und Thomas Zügge (Projektmitarbeiter in der AG Physik und ihre Didaktik) regelmäßig zur interdisziplinären Verständigung über den Bildungswert der Teilchenphysik und die Frage nach angemessenen curricularen Strukturen für einen Schulunterricht zum Thema getroffen. Dabei ist der Entwurf für ein Curriculum der Elementarteilchenphysik entstanden. Dieser wurde im Rahmen von Seminaren mit Studierenden, Fortbildungen mit Physiklehrkräften sowie Physikkursen erprobt bzw. zur Diskussion gestellt und weiterentwickelt.

1 Das Projekt wurde im Rahmen der Qualitätsoffensive Lehrerbildung als Teilprojekt der mit Mitteln

des Bundesministerium für Bildung und Forschung geförderten Maßnahmenlinie „Curriculare Weiterentwicklung“ im Projekt „Kohärenz in der Lehrerbildung“ (KoLBi) in der AG Physik und ihre Didaktik bei Prof. Dr. Johannes Grebe-Ellis an der Bergischen Universität Wuppertal durchgeführt. T. Zügge (B) · O. Passon Fakultät für Mathematik und Naturwissenschaften, Physik und ihre Didaktik, Bergische Universität Wuppertal, Wuppertal, Deutschland E-Mail: [email protected] O. Passon E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_8

121

122

T. Zügge und O. Passon

Nach einer Einführung in die Entstehung und Zielsetzung des Curriculums werden im Folgenden vier Bausteine vorgestellt. Diese verstehen sich nicht bereits als Unterrichtsentwürfe, sondern als Skizze einer didaktisch und sachlogisch informierten Struktur, von der ausgehend die Elementarteilchenphysik (ETP) unterrichtet werden kann.

8.1

Grundlagen des Wuppertaler Curriculums

Ein zentrales Element in der Entwicklung des Wuppertaler Curriculums war die Diskussion über die Schwerpunkt- und Zielsetzungen des Unterrichts. Eine offensichtliche Randbedingung ist die Berücksichtigung der Anforderungen des aktuellen Kernlehrplans (KLP) des Landes Nordrhein-Westfalen (MSW 2014).2 Für den Grundkurs (GK) ist die Teilchenphysik dem Inhaltsfeld „Materie und Strahlung“ zugeordnet3 und beinhaltet unter anderem das „(virtuelle) Photon als Austauschteilchen der elektromagnetischen Wechselwirkung“ (S. 32) und das „Konzept der Austauschteilchen vs. Feldkonzept“ (S. 32). Im Kompetenzbereich „Umgang mit Fachwissen“ enthält der KLP die Anforderung: „Die Schülerinnen und Schüler erläutern mithilfe des aktuellen Standardmodells den Aufbau der Kernbausteine und erklären mit ihm Phänomene der Kernphysik“ (S. 32). Im Kompetenzbereich „Kommunikation“ findet sich folgende komplexe Anforderung: „Die Schülerinnen und Schüler recherchieren in Fachzeitschriften [...] zu ausgewählten aktuellen Entwicklungen in der Elementarteilchenphysik“ (S. 33). Für den Leistungskurs (LK) ist die ETP dem Inhaltsfeld „Atom-, Kern- und Elementarteilchenphysik“ zugeordnet. Naturgemäß gehen die Anforderungen über diejenigen des GK hinaus. Zusätzlich wird etwa gefordert, das Austauschteilchenkonzept nicht nur für die elektromagnetische, sondern für alle Wechselwirkungen zu behandeln. Im Kompetenzbereich „Umgang mit Fachwissen“ lesen wir hier Anforderungen wie: Die Schülerinnen und Schüler „erklären an Beispielen Teilchenumwandlungen im Standardmodell mithilfe der Heisenbergschen Unschärferelation und der Energie-Masse-Äquivalenz“ (S. 45). Die Inhalte unseres Curriculums orientieren sich an den Anforderungen des Leistungskurses. Obwohl die Feynman-Diagramme nicht explizit erwähnt werden, erfordert das Stichwort „virtuelle Austauschteilchen“ ihre Behandlung. Schließlich definieren sich die „virtuellen Teilchen“ als „innere Linien“ dieser Symbolsprache (vgl. etwa die Darstellung von Harlander in Kap. 2). Neben den inhaltlichen Schwerpunkten wurden während der Beratungen auch Forderungen an das Curriculum formuliert, die nicht rein physikalischen Ursprungs sind, zum Teil aber physikalische Inhalte motivieren. Diese werden im Folgenden kurz dargestellt.

2 Die

Anforderungen des bayrischen Lehrplans lauten sehr ähnlich.

3 Man beachte, dass die Zuordnung nicht im Bereich „Quantenobjekte“

(LK) erfolgt.

(GK) bzw. „Quantenphysik“

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

123

Lehr-lern-theoretisch begründete Anforderungen Der Unterricht der ETP findet natürlich nicht abgelöst vom übrigen Physikunterricht statt, und ein entsprechendes Curriculum ist in den Lernprozess einzubetten. Für den Unterricht der ETP ergibt sich dadurch die Forderung nach Anschlussfähigkeit zu bisher Gelerntem. Da der Unterricht der ETP am Ende der Schulzeit stattfindet, sind die Gegenstandsbereiche spezielle Relativität und Quantenmechanik bereits behandelt worden. Beide haben den Schülerinnen und Schülern also schon intensive kognitive Leistungen beim Verstehen der grundlegenden Konzepte moderner Physik abverlangt. Unmittelbar daraus ergibt sich die Forderung, materialistische Modellbilder von Elementarteilchen zu vermeiden und stattdessen ihre quantenmechanische Natur im Unterricht zu betonen. Auch aus der Einbettung des Themas in den größeren Unterrichtskontext lassen sich Impulse ableiten. So schließt im KLP des Landes Nordrhein-Westfalen die ETP die Kernphysik ab. Daran anzuknüpfen bedeutet also, den Unterricht der ETP durch die notwendig offen gebliebenen Fragen aus dem Unterricht der Kernphysik strukturieren zu lassen: Was hält die Nukleonen gleicher Ladung im Kern zusammen? Was geschieht beim β-Zerfall? Was ist Antimaterie? Ebenfalls soll der im Curriculum behandelte Stoff anschlussfähig in die Zukunft der Lernenden sein. Auch wenn nur ein geringer Teil von ihnen zukünftig an aktuellen Forschungsergebnissen interessiert bliebe und ein noch geringerer Teil Physik studierte, darf die Wahl des Physikkurses in der Schule dem späteren Verständnis nicht abträglich sein. Probleme für diese Art der Anschlussfähigkeit diskutiert Passon in Kap. 5. Bildungstheoretisch begründete Anforderungen Bereits im Beitrag von Thomas Zügge (Kap. 4) wurden der Bildungswert der ETP und Forderungen, die sich aus der entwicklungssensiblen Einbettung des Curriculums ergeben, diskutiert. Mit Verweis darauf werden hier nur einige Schlaglichter geworfen. Eine der Anforderungen bei der Erstellung des Wuppertaler Curriculums war die Thematisierung und Dekonstruktion etablierter Teil-Ganze-Narrative. Vor allem die in vielen Lehrplänen gewählte Nähe zur Atom- und Kernphysik motiviert eine kritische Reflexion des Teilchenbegriffs und das Brechen mit vertrauten mereologischen Denkmustern.4 Die Kompromittierung des naiven Teilchen- und Materiebegriffs findet natürlich auch (oder sogar vor allem) innerhalb der Quantenmechanik und der Relativitätstheorie statt. Dieser Aspekt ist also mit der zuvor erwähnten Forderung nach „Anschlussfähigkeit“ verknüpft. All dies ermöglicht den Lernenden, veränderte Perspektiven auf sich selbst und ihre Umwelt zu entwickeln, ein Grundmerkmal bildenden Unterrichts (vgl. Kap. 4).

4 Das

Kunstwort „Mereologie“ bezeichnet die philosophisch-logische Untersuchung von TeilGanze-Beziehungen.

124

T. Zügge und O. Passon

Auch soll unser Curriculum die Offenheit aktueller Forschung aufnehmen. Besonders bei Fachinhalten aus der aktuellen Grundlagenforschung kann die Unabgeschlossenheit des wissenschaftlichen Erkenntnisprozesses (Stichwort: Nature of Science) deutlich werden. Entwicklungssensibel begründete Anforderungen Das hier beschriebene Curriculum berücksichtigt bevorzugt Inhalte und Zugänge, für die bei den Lernern eine entwicklungsbedingte Affinität erwartet werden kann. Den Ausführungen in Kap. 4 folgend, verstehen wir die späte Adoleszenz als Kulminationspunkt jugendlicher Emanzipationsprozesse. Diese sollen insofern begleitet werden, als Inhalte und Zugriffe so gewählt sind, dass sie emanzipatorisch wirken können. Dazu zählt auch die Förderung der Autonomie gegenüber dem System Schule und seinen Autoritäten. Ebenfalls versucht das Wuppertaler Curriculum die in der späten Adoleszenz präferierte Denkform des Gedankenexperiments nicht nur als Methode der Erkenntnisgewinnung, sondern (wo dies sinnvoll erscheint) auch zur Kontextualisierung zu nutzen.

8.2

Die vier Bausteine

In den folgenden Abschnitten wird der Inhalt der vier Bausteine des Wuppertaler Curriculums für den Unterricht der ETP dargestellt. An einigen Stellen werden konkrete Hinweise zur Unterrichtsgestaltung und Hintergrundinformationen für die Lehrkraft gegeben. Aus Gesprächen mit Lehrkräften wissen wir, dass realistischerweise eine Unterrichtszeit von ca. vier Doppelstunden zur Verfügung steht; unter einem „Baustein“ kann also eine „Doppelstunde“ verstanden werden. In dieser Lesart sind die Bausteine jedoch sehr inhaltsreich und beinhalten z. B. zu wenig Zeit für das Üben und Wiederholen.5 In diesem Sinne versteht sich das Curriculum nicht als Unterrichtsplanung im engeren Sinne.

8.2.1

Baustein 1: Die starke Wechselwirkung, Erzeugung und Vernichtung

Zusammenfassung Als Ausgangspunkt wird mit der Stabilität des Atomkerns eine offene Frage aus der Kernphysik gewählt. Dies führt zur Einführung der starken Wechselwirkung; ausgehend von deren Reichweite kann auf die typische „Längenskala“ der ETP geschlossen werden. Die Frage, wie man so kleine Objekte untersucht, motiviert die Einführung der Nebelkammer. An ihr kann nicht nur eine historische Untersuchungsmethode der Physik nachvollzogen

5 Dieser Umstand ist jedoch auch der Tatsache geschuldet, dass der Lehrplan (vorsichtig formuliert)

sehr ambitionierte Ziele formuliert.

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

125

werden, sondern sie bietet auch eine Gelegenheit, die für die ETP typische Erzeugung und Vernichtung von Teilchen einzuführen.

Als Einstiegspunkt schlagen wir vor, die Unterrichtsreihe mit einer Begriffssammlung zur Kernphysik zu beginnen. Ziel ist die Identifikation derjenigen Inhalte, die innerhalb der Kernphysik noch nicht befriedigend erklärt werden konnten. Dazu zählen unter anderem die Frage nach der Kernbindung und ein genaueres Verständnis des β-Zerfalls. Während die erste Frage den Einstieg in die Unterrichtsreihe darstellt, wird der β-Zerfall am Abschluss der Sequenz im vierten Baustein aufgegriffen. Die Frage nach der mit Gravitation und elektromagnetischer Wechselwirkung nicht zu erklärenden Bindung der Nukleonen im Kern motiviert die Hypothese einer noch unbekannten starken Wechselwirkung. Eine untere Grenze für ihre Stärke kann durch den rechnerischen Vergleich der Coulomb- und Gravitations-Kraft zweier Protonen im Kern gewonnen werden. Ergänzend dazu wird eine obere Grenze für ihre Reichweite abgeschätzt. Diese kann anhand des „Abknickens“ der Verteilung stabiler Kerne auf der Karlsruher Nuklidkarte abgeschätzt werden (siehe Abb. 8.1). Ausgangspunkt ist die Feststellung, dass die stabilen Isotope aller Kerne mit größerer Ordnungszahl als Argon (Z = 18) zunehmend mehr Neutronen als Protonen besitzen. Die zuvor abgeschätzte starke Kraftwirkung, an der alle Nukleonen beteiligt sind, sollte unabhängig von der Ausdehnung der Kerne ausreichen, die abstoßenden Coulomb-Kräfte zwischen den Protonen zu neutralisieren. Der Umstand, dass dies in großen Kernen nur mit einer deutlichen Überzahl von Neutronen gelingt, wird als Hinweis darauf verstanden, dass die Reichweite der starken Wechselwirkung wesentlich geringer ist, als die der elektromagnetischen Wechselwirkung: Nur in kleinen Kernen wirkt sie auf alle anderen Nukleonen bindend, während die Coulomb-Kraft aufgrund ihrer unendlichen Reichweite immer abstoßend auf alle anderen Protonen wirkt.6 Eine Möglichkeit, dies im Unterricht zu vertiefen, sind Gedankenexperimente über den Verlauf der Verteilung stabiler Nuklide für unterschiedliche Reichweiten der starken Wechselwirkung. Mit der Reichweite der starken Wechselwirkung begegnet den Schülerinnen und Schülern auch die typische „Längenskala“ (≈ 10−15 m ≈ Radius des Protons) der ETP. Diese sollte mit den „Skalen“ (d. h. also den typischen Längenausdehnungen) anderer physikalischer Teilbereiche und Untersuchungsmethoden (z. B. dem Auflösungsvermögen der Lichtmikroskopie) verglichen werden. Dies motiviert die Frage, mit welchen Forschungsmethoden in der ETP gearbeitet werden muss, um Objekte solcher Kleinheit „aufzulösen“. Sie lässt sich gut mit dem Verweis auf historische Nebelkammerexperimente beantworten. Hier begegnet den Lernenden mit einem „Streuexperiment“ zudem ein charakteristischer

6 Die

tatsächliche Reichweite der durch die starke Wechselwirkung vermittelten Anziehung zwischen den Quarks (∼ 0,2 fm) ist nicht identisch mit der Reichweite der hier betrachteten Kernbindung zwischen den Nukleonen (∼ 2,5 fm). Für den Zweck der qualitativen Abschätzung einer oberen Grenze genügt dies aber. Als Referenzwert für die Ausdehnung eines Kerns, welcher weit im „abgeknickten Bereich“ der Verteilung stabiler Kerne liegt, kann der von Rutherford errechnete Radius des Goldkerns (Ordnungszahl 79, Kernradius ∼ 12 fm) verwendet werden.

126

T. Zügge und O. Passon

Abb. 8.1 Karlsruher Nuklidkarte. Mit wachsender Anzahl der Nukleonen im Kern steigt in den stabilen Nukliden auch der Anteil der Neutronen

Abb. 8.2 Schematischer Aufbau einer Nebelkammer, die im Klassenraum betrieben werden kann

Typus von Experiment, der im Folgenden immer wieder von Bedeutung sein wird. Als Schülerinnen- und Schülerexperiment sind Beobachtungen an Nebelkammern zudem verhältnismäßig einfach zu realisieren (siehe Abb. 8.2). Entweder aus den Beobachtungen der Lernenden oder aus historischen Aufnahmen kann auf Eigenschaften, wie beispielsweise die elektrische Ladung der im Magnetfeld abgelenkten und indirekt über ihre Spuren beobachteten „Teilchen“, geschlossen werden. Durch die Fokussierung auf Spuren aus Erzeugungs- und Vernichtungssprozessen ergibt sich eine Gelegenheit, das makroskopische und sogar das quantenmechanische Teilchenverständnis in Frage zu stellen und die Nichterhaltung der Teilchenzahl einzuführen. Zudem handelt es sich um einen natürlichen Anlass, um die Bedeutung der relativistischen Energie-Masse-Äquivalenz zu vertiefen.

8.2.2

Baustein 2: Der Teilchenzoo und Quarks

Zusammenfassung Im zweiten Baustein sollen die Quarks eingeführt werden. Es bietet sich wieder an, von einem historischen Experiment auszugehen, nämlich den SLAC-Untersuchungen7 zur tiefinelastischen Elektron-Proton-Streuung aus den 1960er Jahren (Breidenbach et al. 1969). Damit wird ein weiteres Streuexperiment eingeführt, d. h. die charakteristische Geste des Vergleichs von End- und Anfangszustand zur Aufklärung der intermediären Prozesse einge-

7 Das Akronym SLAC steht für die kalifornische Forschungseinrichtung Stanford Linear Accelerator

Center.

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

127

übt. Zuvor soll durch Hinweis auf den „Teilchenzoo“ jedoch die Suche nach Konstituenten motiviert und das frühe Quarkmodell von Gell-Mann eingeführt werden. Abgeschlossen wird der zweite Baustein durch den Vergleich von Proton- und Neutronmasse mit der Massensumme der jeweiligen Konstituentenquarks. Die beträchtliche Differenz (die Quarkmassen erklären nur ca. 1 % der Hadronenmasse) verweist auf die Unvollständigkeit des naiven (d. h. statischen) Quarkmodells.

Zunächst soll in diesem Baustein die Frage nach Konstituenten von z. B. Proton und Neutron motiviert werden, indem die große Zahl von (zunächst für elementar gehaltenen) Teilchen eingeführt wird, die in den 1950er Jahren in Nebel- und Blasenkammerversuchen entdeckt wurden (Pion, Lambda, Delta, Sigma etc.). Für diese instabilen Objekte, die durch elektrische Ladung, Masse und Spin charakterisiert werden können, wurde der Sammelbegriff „Hadronen“ gewählt. 1964 postulierte Murray Gell-Mann (und unabhängig von ihm George Zweig), dass diese zahllosen „Teilchen“ Konstituenten besitzen, die Gell-Mann „Quarks“ nannte. Man kann nun die drei Quarks des frühen Quarkmodells (up, down und strange oder kurz u, d und s) zusammen mit den postulierten Werten für elektrische Ladung ( 23 e für das u und − 13 e für d und s), Masse (hier genügt zunächst der Hinweis, dass u- und d- viel leichter als das s-Quark sind) und Spin (alle 21 ) einführen. Zusätzlich braucht man die entsprechenden „Antiquarks“, deren elektrische Ladung das entgegengesetzte Vorzeichen hat. Die These von Gell-Mann lautete nun, dass alle Hadronen entweder als System aus drei Quarks (qqq, „Baryonen“ genannt) bzw. als Quark-Antiquark-Paar (q q, ¯ „Mesonen“ genannt) dargestellt werden können. Erläutert man etwa am Beispiel des Protons (uud) das Vorgehen – Probleme bereitet hier vermutlich der Spin, für den eine ↑↑↓ Anordnung motiviert werden muss –, können die Schülerinnen und Schüler für andere Hadronen den Quarkinhalt bestimmen.8 Bei der Behandlung der Quarkhypothese sollte betont werden, dass vor allem die drittelzahlige elektrische Ladung sehr verwegen ist. In der Bezeichnung „Elementarladung“ für e klingt ja gerade ihre Unteilbarkeit an. Dies leitet zur Frage der experimentellen Evidenz für Quarks über. In der Rückschau waren die Experimente zur tiefinelastischen Elektron-Proton-Streuung aus den 1960er Jahren am SLAC hierfür von entscheidender Bedeutung (Nobelpreis 1990 für Arbeiten zur „Entwicklung des Quarkmodells“ an J. Friedman, H. W. Kendall und R. E. Taylor). Die physikalischen Details und die mathematische Beschreibung der SLACExperimente zur tiefinelastischen Elektron-Proton-Streuung übersteigt die

8 Die

Geschichte ist jedoch komplizierer: Etwa haben  (Lambda) und  0 (Sigma 0) denselben Quarkinhalt, nämlich uds. Der Unterschied zwischen diesen Baryonen begründet sich erst durch Isospin- und Gruppendarstellungsargumente. Um diese Komplikation zu vermeiden, muss die Auswahl der Hadronen mit Bedacht vorgenommen werden. Günstig sind z. B. Neutron (udd),  + (uus; „schweres Proton“), ++ (uuu) und die geladenen π -Mesonen (u d¯ bzw. ud). ¯ Das neutrale Pion ¯ Das Reizvolle an der Diskussion (π 0 ) ist hingegen ein (bis auf Normierung) (u u¯ − d d)-Zustand. dieses Beispiels liegt natürlich darin, dass hier bereits auf dem Niveau des statischen Quarkmodells deutlich wird, dass die Teil-Ganze-Relation der Quantenphysik nicht Aggregation, sondern Superposition bzw. Mischung sind.

128

T. Zügge und O. Passon

Abb. 8.3 Ergebnis der tiefinelastische Elektron-Proton-Streuung (Breidenbach et al. 1969). Die geringe q 2 -Abhängigkeit der Daten ist ein Hinweis auf Konstituenten der Protonen. Die genauere Erläuterung enthält der Text

Möglichkeiten der Schule jedoch bei Weitem.9 Zum Glück liegt eine populäre Darstellung vor, die der für die SLAC-Experimente mit dem Nobelpreis ausgezeichnete Jerome Friedman in einem Vortrag vor Studierenden gegeben hat (Friedman 2008). Für Schülerinnen und Schüler der gymnasialen Oberstufe ist der englischsprachige Vortrag gut verständlich und vermittelt zudem die Autorität des für seine Forschung ausgezeichneten Nobelpreisträgers. Entsprechend schlagen wir vor, einen Auszug dieses Vortrages bearbeiten zu lassen.10 Friedman verwendet in diesem Vortrag die Analogie mit dem RutherfordExperiment zum Nachweis des Atomkerns. Während Rutherford 1909 jedoch α-

9 Bereits die Sprechweise „tiefinelastisch“

ist kurios. Unter einer elastischen Streuung versteht man bekanntlich einen Prozess, bei dem die Summen der kinetischen Energie vor und nach dem Prozess identisch sind. Bei einer inelastischen Streuung findet hingegen eine Veränderung (z. B. Anregung) des Streupartners statt. Die hier betrachtete tiefinelastische Streuung ist eine inelastische Streuung am Proton – aber gleichzeitig eine elastische Streuung an seinen Konstituenten. 10 Auf Anfrage stellen wir diesen Textauszug gerne zur Verfügung!

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

129

Teilchen mit einer Energie von 5MeV auf die bekannte Goldfolie lenkte, verwendete die Gruppe am SLAC Elektronen mit einer Energie von ca. 20GeV, die auf ein Target aus flüssigem Wasserstoff (also vor allem Protonen) gerichtet wurden.11 Die höhere Auflösung dieser Anordnung kann z. B. durch eine detaillierte Betrachtung des Streuprozesses bei Rutherford erklärt werden. Das Streutarget (elektrisch positiv geladener Atomkern) ist von einem das Streuprojektil (elektrisch positiv geladenes α-Teilchen) abstoßenden Coulomb-Feld umgeben. Je höher die Energie des Projektils ist, desto „tiefer“ kann es in das abstoßende Feld eindringen, bevor es abgelenkt wird. Entsprechend „näher“ kommen höher energetische Teilchen dem eigentlichen Streuzentrum. Ein zentrales Resultat dieser Messungen ist in Abb. 8.3 dargestellt (und im Vortrag von Friedman enthalten). Lassen Sie uns kurz die technische Bedeutung skizzieren, bevor die angemessene Elementarisierung diskutiert werden kann. Aufσ bei einem festen Beobachtungswinkel der getragen ist hier das Verhältnis σMott gestreuten Elektronen (hier: = 10◦ im Laborsystem) als Funktion des Viererimpulsübertrages zum Quadrat (q 2 ) zwischen Elektron und Proton. Unter σ ist der Wirkungsquerschnitt zu verstehen, also grob die Wahrscheinlichkeit eines solchen Ereignisses. Der sog. „Mott-Wirkungsquerschnitt“ σMott bezeichnet die Erwartung für die elastische Streuung an einem punktförmigen Objekt. Aufgetragen sind nun verschiedene Messungen, die sich durch den Wert von W (der invarianten Masse des rückgestoßenen Targets) unterscheiden. Charakteristisch ist die schwache q 2 Abhängigkeit der normierten Wirkungsquerschnitte bei zunehmenden Werten von W – also der flache Kurvenverlauf, der von der Erwartung einer elastischen Streuung am ausgedehnten Proton (untere Kurve) deutlich abweicht (Povh et al. 2006). Wie soll dieser hochkomplexe Zusammenhang den Lernenden verständlich gemacht werden? Dem Text von Friedman entnehmen die Schülerinnen und Schüler folgende lapidare und charmante Erläuterung: Here in this slide (Abb. 8.3), we show the probability distributions of scattering from the experiment as compared to that expected from the old model of the proton. The top curves here are the measurements. The rapidly falling curve is the type of distribution you would expect from the old model of the proton. And you see the difference, as much as a factor of a thousand between what the old model would have predicted in scattering probability and what the experiment produced. Basically what these measurements showed was that an unexpectedly large amount of large angle scattering was observed. (Friedman 2008)

Diese unerwartet große Zahl von unter großen Winkeln gestreuten Elektronen ist jedoch (so Friedman weiter) exakt die Signatur von kleinen (bzw. im Rahmen der Auflösung punktförmigen) Streupartnern – ebenso wie die Streuung unter großen Winkeln beim Rutherford-Experiment auf die Konzentration der elektrischen Ladung im Kern deutet.

11 Das

eV (sprich e-Volt oder Elektronenvolt) als verbreitete Energieeinheit der Atom- und Teilchenphysik entspricht näherungsweise 1, 60 · 10−19 J. Es wird wegen m = cE2 und der Vereinbarung ≈ 1,78 · 10−37 kg. c = 1 ebenso als Masseneinheit verwendet. Dann gilt die Umrechnung 1 eV c2

130

T. Zügge und O. Passon

Abb. 8.4 Interferenz am Spalt. Auch über eine Analogie zur Optik lassen sich die Ergebnisse des SLAC-Experiments richtig interpretieren

Die Strukturlosigkeit, also Punktförmigkeit, dieser Streupartner kann durch eine Analogie aus der Wellenoptik weiter erläutert werden (vgl. Abb. 8.4). In dieser kann aus der Form eines Interferenzmusters auf die Geometrie der beugenden Struktur geschlossen werden. Am Einfachspalt gilt: Je breiter das Interferenzmuster (d. h. auch hier: Je schwächer die Winkelabhängigkeit und „flacher“ die Intensitätsverteilung), desto schmaler (in unserem Bild also, umso „punktförmiger“) ist die beugende Struktur. Die Ähnlichkeit mit den Ergebnissen der SLAC-Experimente wird noch gesteigert, wenn man nicht Spalte, sondern die Beugung an Drähten mit unterschiedlichen Durchmessern betrachtet. Damit ist für die Schülerinnen und Schüler die Existenz von Konstituenten des Protons (und vernünftigerweise auch von anderen Hadronen) plausibel gemacht. Jedoch sollte erwähnt werden, dass die beschriebenen Messungen nicht unmittelbar zur allgemeinen Anerkennung des Quarkkonzepts führten. Andere Modelle konnten die gefundenen Eigenschaften zunächst auch erklären, und erst durch weitere und genauere Messungen wurde die Vorstellung der Quarks ab Mitte der 1970er Jahre allgemein etabliert. Wie bei allen wissenschaftlichen Entdeckungen handelte es sich um einen graduellen Prozess. An dieser Stelle droht natürlich die Gefahr, dass die von uns kritisierten naiven Teil-Ganze-Vorstellungen („Das Proton besteht aus drei Quarks“) geradezu affirmiert werden. Zum Abschluss soll deshalb erneut ein Blick auf die Tabelle der Quarks geworfen werden. Dort hatten wir zunächst bloß von „leichten“ u- und d-Quarks gesprochen. Die Angaben zu den Quarkmassen können nun mit dem allgemeinen Hinweis auf zusätzliche theoretische Berechnungen um konkrete Zahlwerte ergänzt werden:

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

131

m u = 2 MeV, m d = 5 MeV sowie m s = 100 MeV.12 Offensichtlich kann die Masse des Protons (m P ≈ 1 GeV = 1000 MeV) nicht als Summe der Konstituentenmassen erklärt werden. Buchstäblich 99 % der Masse aller Hadronen entzieht sich somit dieser intuitiven Erklärung. Die Aufklärung dieser Frage kann sinnvoll an zwei Punkten im Curriculum geschehen. Entweder schließt sich die Erklärung direkt hier an. Dann wird auf die bereits bekannten großen Bindungsenergien der starken Wechselwirkung und die im ersten Baustein aufgeleuchtete relativistische Energie-MasseÄquivalenz verwiesen. Alternativ kann die Erklärung des „Massenüberschusses des Protons“ auch im vierten Baustein geschehen. Dann können Feynman-Diagramme und Austauschteilchen im Rahmen des dynamischen Quarkmodells zur Erklärung genutzt werden.13

8.2.3

Baustein 3: Feynman-Diagramme und virtuelle Teilchen

Zusammenfassung In den vergangenen beiden Bausteinen wurden Streuexperimente nachvollzogen. Deren Grundprinzip war es, jeweils vom Wissen über Anfangs- und Endzustand der Streupartner auf mögliche Vorgänge zwischen diesen zu schließen. Dieses Prinzip liegt auch den aktuellen Experimenten der ETP zugrunde. In diesem Baustein wird mit den FeynmanDiagrammen ein Werkzeug zu ihrer theoretischen Beschreibung eingeführt. Dies motiviert auch das Konzept, dass Wechselwirkungen durch (virtuelle) Austauschteilchen vermittelt werden. Als Abschluss des Bausteins schlagen wir vor, die Lernenden die oft sehr verkürzten Darstellungen ihrer Schulbücher kritisieren zu lassen.

Feynman-Diagramme (wie das in Abb. 8.5) werden in zahlreichen populären oder didaktischen Darstellungen der ETP genutzt. Auf die missverständliche Interpretation dieser Symbolsprache sind Wagner, Harlander und Passon in ihren Beiträgen an verschiedenen Stellen bereits eingegangen (siehe die Kap. 1, 2 und 5).

12 Die

Bestimmung der Quarkmassen ist dabei eine subtile Angelegenheit. Da freie Quarks nicht beobachtet werden können, ist eine direkte Messung der Masse (vor allem der leichten Quarks) nicht möglich. Ihre indirekte Bestimmung erfolgt mit Methoden der sog. Gittereichtheorie. 13 Diese Massendifferenz markiert vielleicht am deutlichsten die Notwendigkeit, in der Teilchenphysik die traditionelle „Teil-Ganze-Beziehung“ zu revidieren. Das naive Teilchenbild für Materie ist im Grunde so lange sinnvoll, wie das Energieäquivalent der Massen der betrachteten „Konstituenten“ deutlich größer als die Bindungsenergie zwischen ihnen ist. Dies ist schließlich die notwendige Bedingung, um zwischen den „Teilen“ eines „Ganzen“ überhaupt unterscheiden zu können. Für die Abschätzung der Bindungsenergie kann auch die Anregungsenergie gewählt werden. Im Falle eines Atoms werden etwa 500 eV schwere Elektronen und Kerne mit Massen von O(1GeV) durch Energien in der Größenordnung von O(10eV) gebunden. Im Kern betragen die Anregungsenergien hingegen schon einige KeV, liegen damit aber immer noch deutlich unter den Massen von Proton und Neutron. Innerhalb der Nukleonen nun kehren sich (wie gerade erläutert) die Verhältnisse um. Die Behauptung „Neutron und Proton bestehen aus drei Quarks“ muss deshalb um die Bemerkung ergänzt werden, dass hier zwischen „Valenzquarks“ (auch „Konstituentenquarks“ genannt) und „Seequarks“ unterschieden wird – vgl. Baustein 4.

132

T. Zügge und O. Passon

Um der damit verbundenen Gefahr einer falschen Anschaulichkeit zu begegnen, schlagen wir vor, zu ihrer Einführung zwei (im Prinzip bekannte) Ideen zu verknüpfen. Dies ist zum einen das Konzept der Wahrscheinlichkeitsamplitude, wie es etwa bei der quantenmechanischen Behandlung des Doppelspalts eingeführt wird, und zum anderen das mathematische Näherungsverfahren der Störungstheorie. Im Folgenden erläutern wir nicht nur dieses Vorgehen, sondern vertiefen an einigen Stellen auch das relevante Hintergrundwissen für die unterrichtende Lehrkraft.14 Ausgangspunkt ist eine abstrakte Beschreibung von Streuexperimenten. Die Schülerinnen und Schüler haben bis zu diesem Zeitpunkt schon einige Beispiele für diesen Typus von Experiment kennengelernt, bei dem aus Anfangs- und Endzustand auf den intermediären Prozess geschlossen wird. Seine theoretische Beschreibung soll in dieser Lerneinheit genauer untersucht werden. Zu diesem Zweck muss eine Notation eingeführt werden, die zunächst rein symbolisch bleibt: Anfangs- und Endzustand werden durch „Wellenfunktionen“ Anf. und End. ausgedrückt. Formal wird der Streuprozess dann durch eine Matrix (bzw. Funktion) S beschrieben, für die gilt: S ( Anf. ) = End . Die Vorhersagen des Standardmodells der ETP zu testen bedeutet, die theoretischen Vorhersagen für S mit dem Experiment zu vergleichen. Es stellt sich jedoch heraus, dass die Gleichungen des Standardmodells für die meisten Probleme nicht exakt gelöst werden können. Stattdessen muss auf Näherungsverfahren zurückgegriffen werden. Hier kann eine Analogie aus der Schulmathematik helfen: Den Schülern ist vermutlich die Tatsache vertraut, dass für kleine Winkel sin x ≈ x gilt. Dies ist jedoch nur der Spezialfall für folgende Potenzreihe: sin(x) = x −

x5 x7 x3 + − + ··· 3! 5! 7!

(8.1)

Je mehr Terme dieser Reihe verwendet werden, umso exakter ist das Resultat. Für die „Streumatrix“ S wird nun genau ein solcher Näherungsausdruck (d. h. eine „Entwicklung in Potenzen einer Größe x“) gesucht. Diese Berechnungen führen bei der Betrachtung von realistischen Problemen leicht auf Hunderte von Termen – und dabei hängt die Korrektheit der Berechnung davon ab, alle Terme zu einer bestimmten „Ordnung“ (d. h. Potenz von x in unserem Beispiel aus Gl. 8.1) zu berücksichtigen. Der amerikanische Physiker Richard Feynman entwickelte zu diesem Zweck in den 1940er Jahren eine mathematische Symbolsprache, die dabei hilft, bei dieser Arbeit den Überblick nicht zu verlieren. Ausgangspunkt war die Beobachtung, dass bei den Berechnungen bestimmte Ausdrücke wiederholt auftauchen und durch eine grafische Notation viel schneller und übersichtlicher erfasst werden können.15 Die Elemente dieser Symbolsprache sind

14 Es wird sich zeigen, dass der Versuch einer angemessenen Darstellung dieses theoretischen Werk-

zeugs recht technisch ausfällt. Die vielen populären Darstellungen erkaufen sich ihre Verständlichkeit leider durch fachliche Fehler. 15 Diese Darstellung zeichnet den historischen Entwicklungszusammenhang nur ungenau nach. Für eine genauere Darstellung siehe Passon (2019) und die Referenzen darin.

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

133

„Linien“ (gerade oder wellig für verschiedene Feldtypen) und Kreuzungspunkte („Vertices“) dieser Linien, die die „Kopplung“ zwischen den Feldtypen (z. B. Elektronfeld und quantisiertes elektromagnetisches Feld =„Photon“) ausdrücken. An den Vertices gilt die Erhaltung aller Ladungen sowie des Viererimpulses. Diese Diagramme werden in der Regel in einem abstrakten „Impulsraum“ gezeichnet und stellen natürlich keine „Trajektorien“ der Teilchen dar. Aus diesem Grund sind die Längen der Linien, die Winkel zwischen ihnen und die genaue Position der Vertices auch ohne jede Bedeutung.16 Das Einzige, was einer beobachtbaren Größe entspricht, sind einlaufende und auslaufende Linien. Diese repräsentieren nämlich gerade die Anfangs- und Endzustände des Experiments. Deshalb besitzen FeynmanDiagramme auch eine „Zeitachse“, auf der zwar keine Zeitintervalle abgelesen werden können, mit der jedoch die präparierten Zustände ( Anf. ) vom Messergebnis ( End. ) unterschieden werden können. In der theoretischen Beschreibung der „Quantenelektrodynamik“, d. h. des Teils des Standardmodells der ETP, der die elektromagnetische Wechselwirkung beschreibt, sind alle zulässigen Feynman-Diagramme dabei aus einem einzigen „fundamentalen Vertex“ aufgebaut. Er besteht aus dem Kreuzungspunkt einer einlaufenden geraden Linie, einer auslaufenden geraden Linie und einer Schlangenlinie, die als Photon bezeichnet wird. Die Pfeilrichtungen unterscheiden dabei zwischen Materieteilchen (in Richtung der Zeitachse) und Antimaterieteilchen (gegen die Richtung der Zeitachse).17 Dieser Vertex alleine entspricht jedoch keiner Näherung der S -Matrix, die einen beobachtbaren Streuprozess beschreibt, da er die Energie-Impulserhaltung verletzt. Erst durch Kombination aus mindestens zwei dieser Vertices entsteht eine solche Vorhersage.18 In Abb. 8.5 ist dafür ein Beispiel gegeben, das den Prozess e+ e− → e+ e− beschreibt. Da die Zeitachse waagerecht orientiert ist, kann man den Vorgang als e+ e− -Vernichtung beschreiben, bei der anschließend durch Paarerzeugung ein e+ e− -Paar entsteht. Die mittlere Photonlinie scheint in diesem Bild die Wechselwir-

16 Das

Lehrbuch zur Quantenfeldtheorie von (Klauber 2013, S. 239) formuliert dies so: „[...] Feynman diagrams imply, for example, that an incoming particle sheds a virtual propagator particle at a particular spacetime point (vertex). But recall that we integrate over all spacetime to get a final transition amplitude relation in terms of momenta, with no spacetime coordinates involved“. 17 Aus diesem Grund ist die Wellenlinie des Photons auch ungerichtet, da es sein eigenes Antiteilchen darstellt. 18 Wir hatten eingangs die Analogie zur Reihenentwicklung der Sinus-Funktion hergestellt. Dem Argument x  1 dieser Funktion entspricht in der Reihenentwicklung der Streumatrix S die sog. Kopplungskonstante α, die in der QED im Wesentlichen dem Quadrat der elektrischen Ladung 2 1 ). Jeder Vertex trägt nun einen Faktor der Kopplung bei; entspricht (genauer: α = 2c e 0 h ≈ 137 deren Anzahl entspricht also der „Ordnung“ der Reihenentwicklung. Für eine konsistente Näherung in n-ter Ordnung müssen also alle Beiträge mit ≤ n Vertices berücksichtigt werden. Je genauer die Berechnung der Streumatrix S erfolgen soll, desto höhere Zahlen von Vertices (und damit auch Feynman-Diagrammen) müssen betrachtet werden. (Hinweis: In Lehrbüchern zur ETP gibt es unterschiedliche Konventionen für die Nummerierung und Bezeichnung der Ordnungen.)

134

T. Zügge und O. Passon

Abb. 8.5 Ein Feynman-Diagramm aus der Kombination zweier fundamentaler Vertices

Abb. 8.6 Ein anderer Beitrag zum Prozess e+ e− → e+ e−

kung zu vermitteln. Dies begründet die Sprechweise von Photonen als „Austauschteilchen der elektromagnetischen Wechselwirkung“.19 Allerdings können in der Regel viele verschiedene Feynman-Diagramme angegeben werden, die dieselben Anfangs- und Endzustände aufweisen. Im Falle unseres Prozesses e+ e− → e+ e− liefert Abb. 8.6 einen anderen Beitrag zur Berechnung der Streumatrix S . Hier scheinen die Teilchen des Anfangszustandes (so die übliche Sprechweise) „durchzulaufen“ und „ein Photon auszutauschen“.20 Wie von Harlan-

19 Der NRW-Lehrplan verwendet diese Sprechweise; andere Bezeichnungen sind „Botenteilchen“, „Wechselwirkungsteilchen“ oder (fachsprachlich) „Eichbosenen“. An dieser Stelle ist zusätzlich eine Anmerkung zum Photonbegriff angebracht: Es erscheint zunächst günstig, dass mit dem „Photon“ ein Konzept aus dem Unterricht der Quantenmechanik (QM) wieder aufgegriffen wird. Kurioserweise stellt das Photon jedoch einen Fremdkörper in einem Curriculum der nicht-relativistischen QM dar! Die übliche Einführung über den lichtelektrischen Effekt missachtet, dass dieser Effekt auch semi-klassisch (d. h. ohne „Photonen“) erklärt werden kann. Einsteins Lichtquantenhypothese von 1905 war zwar historisch sehr bedeutsam und radikal – konzeptionalisiert das „Lichtquant“ in gewisser Hinsicht aber noch zu klassisch (d. h. als lokalisiert und unterscheidbar). Das „aktuelle Photon“ findet seine fachwissenschaftliche Heimat erst in der relativistischen Quantenfeldtheorie und ist z. B. vollkommen unlokalisiert. Die in Schulbüchern und Lehrplänen übliche Parallelisierung von „Elektronen“ und „Photonen“ als „Quantenobjekte“ ist somit fachlich problematisch (Passon und Grebe-Ellis 2015, 2017). 20 Es bietet sich an, dass die Lernenden die Konstruktion weiterer Feynman-Diagramme versuchen, die in höherer Ordnung (also mit mehr Vertices) zum Vorgang e+ e− → e+ e− beitragen. Ebenfalls reizvoll kann die Aufgabe sein, Feynman-Diagrammen zu zeichnen, bei denen die Anzahl der Teilchen im Anfangs- und Endzustand verschieden ist. Man erkennt dadurch, dass dieses Kalkül

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

135

der in Abschn. 2.3.2 beschrieben, erlaubt der mathematische Formalismus aber auch eine andere Sprechweise: Eigentlich „laufen“ die Teilchen nicht vom Anfangs- zum Endzustand durch, sondern es findet eine Vernichtung und anschließende Erzeugung eines Zustandes statt. Die Betrachtung dieses Beispiels erlaubt nun den Schülerinnen und Schülern, eine zentrale Einsicht zu gewinnen: Die Beiträge S1 und S2 zur Streumatrix, die aus den beiden Diagrammen zur e+ e− -Streuung gewonnen werden können, entsprechen in ihrer Funktion strukturell den Wahrscheinlichkeitsamplituden bei der quantenmechanischen Beschreibung z. B. des Doppelspaltversuchs. Auch dort war man auf zwei Terme geführt worden (ψ1 und ψ2 ), die den Beiträgen der beiden Spalte entsprachen. Genauso wie beim Doppelspalt die Wahrscheinlichkeit P für den Messwert als P ∝ |ψ1 + ψ2 |2 berechnet wird, so gilt auch für die Wahrscheinlichkeit unseres Streuprozesses21 P ∝ |S1 + S2 |2 . Hier wie dort berechnet sich die Wahrscheinlichkeit als Quadrat der Summe der Wahrscheinlichkeitsamplituden. Wenn jedes Feynman-Diagramm jedoch bloß eine Wahrscheinlichkeitsamplitude beiträgt, dann beschreibt es den physikalischen Prozess so wenig, wie die einzelnen Amplituden in der Quantenmechanik den Doppelspaltversuch. Wer etwa mit Hinweis auf die Amplituden ψ1 und ψ2 folgert, Elektronen würden tatsächlich durch den einen oder anderen Spalt dringen, macht in der QM einen groben Fehler. Beobachtbar ist schließlich nur das Quadrat der Summe (mit seinen charakteristischen Interferenzeffekten, die einem einzelnen Summand gar nicht zugeordnet werden können), und der Vorgang zwischen Präparation und Messung erlaubt keine raumzeitliche Beschreibung. Genauso wenig beschreibt nun ein einzelnes Feynman-Diagramm einen physikalischen Prozess, sondern visualisiert lediglich eine mathematische Formel. Wir glauben deshalb auch nicht, dass an dieser Stelle die Schülerinnen und Schüler eine besondere „Modellkompetenz“ erwerben können, da die Feynman-Diagramme eben nicht als „Modell“ eines physikalischen Vorgangs aufgefasst werden dürfen. Vielmehr handelt es sich um eine in der wissenschaftlichen Forschung etablierte Rechentechnik. Die inneren Linien von Feynman-Diagrammen entziehen sich prinzipiell der Beobachtung und werden als „virtuelle Zustände“ bezeichnet.22 In diesem Sinne sind „virtuelle Photonen“ (und nicht bloß „Photonen“) die Austauschteilchen der elek-

in der Lage ist, die für die ETP typische Erzeugung und Vernichtung von Teilchen zu beschreiben. Gleichzeitig ist die Konstruktion streng regelgeleitet: An allen Vertices muss die elektrische Ladung erhalten sein, und lediglich der fundamentale Vertex tritt (in verschiedenen Orientierungen) auf. Die Nützlichkeit dieses mathematischen Werkzeugs leuchtet unmittelbar ein. 21 Ein Unterschied zum Doppelspaltexperiment besteht jedoch darin, dass wir hier lediglich einen Näherungswert betrachten. Es tragen (beliebig) viele weitere Feynman-Diagramme zum Wirkungsquerschnitt bei. Und noch ein technisches Detail sei der Vollständigkeit halber erwähnt: Bei der hier betrachteten sog. Bhabha-Streuung (e+ e− → e+ e− ) werden die Beiträge der beiden Diagramme aus den Abb. 8.5 („s-Kanal“) und 8.6 („t-Kanal“) nicht addiert, sondern subtrahiert, da Elektronen und Positronen der Fermi-Dirac-Statistik unterliegen. Für unser Argument spielt dies jedoch keine Rolle, denn in jedem Fall treten zusätzliche Interferenzterme auf. 22 Der Begriff „virtuell“ hat hier auch eine technische Bedeutung, auf die Robert Harlander in Kap. 2 genauer eingeht.

136

T. Zügge und O. Passon

tromagnetischen Wechselwirkung – wenngleich die Ausführungen deutlich gemacht haben sollten, dass diese Sprechweise metaphorisch aufzufassen ist.23 Und noch auf eine andere strukturelle Analogie sollte an dieser Stelle hingewiesen werden: Sowohl die QM als auch die ETP treffen lediglich Wahrscheinlichkeitsaussagen. In diesem Sinne entziehen sich Einzelprozesse ihrer Vorhersage, und die Beschreibung eines Feynman-Diagramms als „Geschichte“ eines individuellen Prozesses ist alleine schon aus diesem Grund falsch. Ebenso dienen FeynmanDiagramme der Berechnung eines stationären Problems („Mit welcher Wahrscheinlichkeit tritt bei gegebenen Anfangszuständen, ein bestimmter Endzustand auf?“). Eine explizite Zeitabhängigkeit, wie sie die bildhafte Sprechweise von sich bewegenden Teilchen und die Abfolge von Emissions- und Absorptionsprozessen suggeriert, liegt nicht vor.24 Beide Punkte können im Unterricht z. B. anhand der folgenden Übung verdeutlicht werden: Die Schülerinnen und Schüler erhalten Overheadfolien, auf denen bereits einheitlich Anfangs- und Endzustände vorgegeben sind. In Kleingruppen sollen sie diese mit Hilfe der bekannten fundamentalen Vertices ineinander überführen. Die Arbeitsergebnisse können im Anschluss auf dem Projektor übereinandergelegt werden. Man findet auf jeder Folie eine andere (jedoch korrekte) Zeichnung der entsprechenden Diagramme – es ergibt sich mithin eine bildliche Darstellung der (geringen) Aussagekraft einzelner Diagramme sowie eine Veranschaulichung des Konzepts „virtuelle Zustände“. Zum Abschluss des Bausteins soll das erworbene Verständnis angewendet werden. Die Lernenden werden aufgefordert, Darstellungen und Textabschnitte zu Feynman-Diagrammen in ihren Schulbüchern zu finden und begründet zu kritisieren. Dies kann durch weitere Ausschnitte aus anderen Schulbüchern (siehe etwa Abb. 4.2), populärwissenschaftlichen Artikeln und/oder Fernsehsendungen ergänzt werden.25 Besonders durch die Kritik von Schulbuch und medialen Darstellungen soll Gelegenheit gegeben werden, sich als „Expertinnen oder Experten“ (auch von den etablierten Autoritäten im Physikunterricht) zu emanzipieren.

23 Um einem Missverständnis vorzubeugen: Die sog. „Eichfelder“

und zugehörigen „Eichbosonen“ des Standardmodells (Photon, Gluonen, W und Z ) sind natürlich ein etablierter Bestandteil der mathematischen Beschreibung. Unsere Kritik richtet sich gegen die bildhafte Vorstellung, dass der „Austausch“ dieser „Teilchen“ eine angemessene Beschreibung der Wechselwirkung ist. 24 Technisch ausgedrückt, werden die ein- und auslaufenden Zustände „asymptotisch“, d. h. für t → ±∞, betrachtet. 25 Die Fernsehserie „The Bang Theory“ verwendet Feynman-Diagramme häufig. In Folge S1.13 scheitern die Hauptfiguren während einer Quiz-Show an der Interpretation eines Diagramms. Für die Schülerinnen und Schüler ist dieses Feynman-Diagramm am Ende des Bausteins nicht nur beschreibbar, sondern auch die Frage des Moderators kritisierbar.

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

8.2.4

137

Baustein 4: Die schwache Wechselwirkung und die Austauschteilchenmetapher

Zusammenfassung Der letzte Baustein nutzt die Inhalte der vorangegangenen Lerneinheiten und liefert die im ersten Baustein angekündigte detailliertere Beschreibung des β-Zerfalls. Von diesem ausgehend wird die schwache Wechselwirkung mit ihren „Austauschteilchen“ eingeführt. Aus einer Analogiebetrachtung kann die starke Wechselwirkung dann ebenfalls (metaphorisch) durch einen Austausch von Teilchen, den sog. Gluonen, gedeutet werden. Für verschiedene Anwendungsfälle wird die Nützlichkeit des Feld- und Austauschteilchenbildes gegeneinander abgewogen.

Für die „chemische Notation“ des β-Zerfalls in Form der „Reaktionsgleichung“ n → p + e− + ν e können nun (i) die beteiligten Konstituentenquarks angegeben werden (ddu → duu + e− + ν e ) und (ii) ein Feynman-Diagramm konstruiert werden, welches einen Beitrag zur Übergangsamplitude liefert (vgl. Abb. 8.7). Dabei sollte darauf hingewiesen werden, dass das gezeichnete Diagramm eben nicht das Feynman-Diagramm des β-Zerfalls ist, sondern nur einen von (im Prinzip) beliebig vielen Beiträgen darstellt.26 Für dieses Diagramm können die Schülerinnen und Schüler nun die Erhaltung der elektrischen Ladung an den Vertices überprüfen. Würde es sich bei der Wechselwirkung (geschwungene Linie) um die elektromagnetische handeln (die innere Linie also ein Photon darstellen), so wäre die Erhaltung dieser Größe an den Vertices verletzt. Entsprechend kann die elektromagnetische Wechselwirkung als Ursache für den β-Zerfall ausgeschlossen werden. Die Eigenschaft, Quarksorten ineinander umzuwandeln (und damit auch die elektrische Ladung zu verändern), weist auf eine neue Wechselwirkung hin, die auf alle beteiligten Teilchen wirkt. Der Name dieser neuen Kraft ist schwache Wechselwirkung. Diese neue Form der Wechselwirkung ist folgerichtig mit einem anderen „Austauschteilchen“ assoziiert. Aus Gründen der Erhaltung der elektrischen Ladung muss das in Abb. 8.7 mit dem Fragezeichen gekennzeichnete Austauschteilchen die elektrische Ladung −1 haben.27 Tatsächlich kennt die schwache Wechselwirkung nicht nur dieses (W − genannte) Austauschteilchen, sondern ebenfalls das positive W + sowie ein neutrales Z -Boson. Wie das Photon haben sie alle den Spin 1. Im Gegensatz zum Austauschteilchen der elektromagnetischen Wechselwirkung sind die W - und Z -Teilchen jedoch mas-

26 Wir

bemerken am Rande, dass die Störungstheorie streng genommen gar nicht auf gebundene Zustände (wie das Neutron) anwendbar ist, da die vorausgesetzte Kleinheit der Kopplung nicht vorliegt. In diesem konkreten Fall sind die notwendigen Korrekturen jedoch relativ klein. 27 Das einkommende d hat eine elektrische Ladung von − 1 , und am Vertex verzweigt seine Linie 3 in ein u (+ 23 ) und das neue Austauschteilchen. Für dessen elektrische Ladung x muss folglich − 13 = x + 23 gelten. Ein neues Austauschteilchen einzuführen, bedeutet technisch gesprochen auch, weitere Typen von Vertices und Kopplungskonstanten einzuführen (hier: eine schwache Ladung).

138

T. Zügge und O. Passon

Abb. 8.7 Eines der möglichen Feynman-Diagramme zum β-Zerfall. Mit den bekannten Wechselwirkungen kann weder die Erhaltung der elektrischen Ladung noch die Umwandlung des Quarks erklärt werden

siv.28 Wie bei der starken Wechselwirkung kann die Beobachtung, dass die schwache Wechselwirkung im Lebensalltag der Schülerinnen und Schüler keine spürbare Wirkung hat, auf ihre kurze Reichweite zurückgeführt werden. Im Austauschteilchenbild kann hierfür auf die Masse der Austauschteilchen verwiesen werden.29 Aus einer Analogiebetrachtung kann die starke Wechselwirkung dann ebenfalls (metaphorisch) durch einen „Austausch“ von „Teilchen“, den sog. Gluonen, gedeutet werden. Neben elektrischer und schwacher Ladung muss also ebenfalls eine „starke Ladung“ postuliert werden. In aller Skizzenhaftigkeit wird dadurch das statische Quarkmodell aus Baustein 2 mit der aktuellen Erklärung der starken Wechselwirkung im Rahmen der sog. „Quantenchromodynamik“ (QCD) verknüpft.30 Die-

28 Die

Massen sind beträchtlich: Die W -Bosonen wiegen ca. 80 GeV und das Z ca. 90 GeV. Dies entspricht der Masse von großen Atomen wie Brom, Krypton oder Rubidium. 29 Üblicherweise (auch in vielen Lehrbüchern auf Hochschulniveau) wird hierfür die Heisenbergsche Unbestimmtheitsrelation für Energie und Zeit verwendet. Aus Et ≈ h wird gefolgert, hc abgeschätzt werden kann. Setzt man für E das Energiedass die Reichweite s = ct zu s ≈ E äquivalent der Austauschteilchenmassen ein (m W ≈ 80 GeV), findet man eine „Reichweite“ von s ≈ 10−17 m (in der Literatur wird i. d. R. ein Wert von 2 · 10−18 m angegeben). Unbefriedigend an diesem Argument ist jedoch, dass in der Energie-Zeit-Unbestimmtheitsrelation eigentlich ein ≥-Zeichen steht – die Abschätzung also nur eine untere Grenze liefert, obwohl man eine obere Grenze der Reichweite argumentieren möchte! 30 In der (nicht unproblematischen) Verbildlichung durch Feynman-Diagramme kann auf diese Weise ein dynamisches Bild des Quarkinhalts gezeichnet werden, in dem Gluonen in virtuelle Quark-Antiquark-Paare aufspalten etc. Diese zusätzlichen Quarks werden als „Seequarks“ bezeichnet (vgl. Fußnote 13). Pivarski (2014) formuliert im selben Zusammenhang: „[...] so when we say that a proton contains three quarks, it is because the total number of quarks minus the total number

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

139

ser dynamische Aspekt erlaubt es, die am Ende des zweiten Bausteins evtl. offen gelassene Massendifferenz zwischen z. B. dem Proton (m p ≈ 1 GeV) und der Summe seiner „Konstituentenquarks“ (2m u + m d ≈ 10 MeV) plausibel zu machen. Die fehlenden 99 % der Protonmasse (und Gleiches gilt für alle anderen Hadronen) sind der Wechselwirkung geschuldet. Bereits im ersten Baustein war die kurze Reichweite der starken Wechselwirkung aus dem Neutronenüberschuss schwerer Kerne abgeleitet worden. Welche Begründung findet diese im Bild der Austauschteilchen? Im Gegensatz zur schwachen Wechselwirkung ist es nicht die (große) Masse der Austauschteilchen, die dafür verantwortlich gemacht werden kann, denn tatsächlich sind Gluonen, wie das Photon, masselos. Stattdessen ist es ihre sog. „Selbstwechselwirkung“. In der theoretischen Beschreibung der QCD tragen Gluonen selber „starke Ladung“. Während die unendliche Reichweite der elektromagnetischen Wechselwirkung also dadurch erklärt werden kann, dass die masselosen (und elektrisch neutralen) Photonen sich ungehindert ausbreiten können, gilt dies für die Gluonen nicht. Wie in Abschn. 8.1 erwähnt, fordert der NRW-Lehrplan eine Gegenüberstellung der Konzepte „Feld“ und „Austauschteilchen“. Im Kompetenzbereich Erkenntnisgewinnung findet sich etwa die Formulierung: Die Schülerinnen und Schüler vergleichen das Modell der Austauschteilchen im Bereich der Elementarteilchen mit dem Modell des Feldes (Vermittlung, Stärke und Reichweite der Wechselwirkungskräfte) (MSW 2014, S. 46)

Allem Anschein nach ist hier intendiert, dass die Schülerinnen und Schüler Stärken und Schwächen der beiden Modellvorstellungen in verschiedenen Anwendungsbeispielen vergleichen – etwa wie leicht die abstoßende Kraftwirkung durch den Teilchenaustausch gedeutet werden kann, während eine anziehende Kraftwirkung nicht plausibel erscheint. Auf die Deutung der kurzen Reichweite von schwacher und starker Wechselwirkung durch die Eigenschaften der betreffenden „Austauschteilchen“ (Masse bzw. Selbstwechselwirkung) sind wir bereits weiter oben eingegangen.31 Zum Ende der Unterrichtsreihe (das ja mit dem Ende der Schulzeit zusammenfällt) scheint es sinnvoll, mit den Schülerinnen und Schülern die Unabgeschlossenheit des aktuellen physikalischen Weltbildes zu thematisieren. Auch das Standardmodell liefert nicht für alle beobachteten Phänomene Erklärungen, und die Suche nach

of antiquarks is always three (two more up quarks than anti-up and one more down quark than anti-down). Adding a few more quark-antiquark pairs doesn‘t change the difference“. In einem technischen Sinne enthält das Proton aber sogar unendlich viele Seequarks. 31 Obiger Kompetenzerwartung scheint jedoch die Voraussetzung zugrunde zu liegen, dass es sich bei den Austauschteilchen um ein „Modell“ im gleichen Sinne handelt, wie z. B. bei der Modellierung des elektrischen Stromkreises durch einen Wasserstromkreis. Unsere Darstellung sollte deutlich gemacht haben, dass wir bei aller Unschärfe des Modellbegriffs das Austauschteilchen in diesem Sinne nicht für ein Modell der Wechselwirkung halten. Die Austauschteilchen-Metapher leitet sich vielmehr aus der Symbolsprache der Feynman-Diagramme ab, deren Elemente lediglich auf einzelne mathematische Terme referieren, die zur Berechnung beobachtbarer Größen beitragen.

140

T. Zügge und O. Passon

„Physik jenseits des Standardmodells“ ist ein aktives Forschungsfeld. Einige der offenen Fragen, die die Entwicklung neuer Theorien motivieren, knüpfen unmittelbar an Inhalte des Unterrichts an: • Warum gibt es so wenig Antimaterie? Das Standardmodell behandelt Materie und Antimaterie vollkommen symmetrisch (Paarerzeugung, β-Zerfall etc.). Es liefert demnach keine Erklärung dafür, dass das von uns beobachtete Universum beinahe ausschließlich aus „normaler“ Materie zu bestehen scheint. • Was ist mit der Gravitation? Das Standardmodell beschreibt die elektromagnetische, schwache und starke Wechselwirkung zwischen Elementarteilchen. Die Gravitation wird hingegen nicht berücksichtigt. Da die Massen der Objekte so gering sind, ist diese Vernachlässigung praktisch zu rechtfertigen. Jedoch entzieht sich die Gravitation bisher prinzipiell einer quantentheoretischen Formulierung. Die Suche nach einer einheitlichen Beschreibung aller Wechselwirkungen ist Gegenstand aktueller Forschung. • Was sind dunkle Energie und dunkle Materie? Aus astrophysikalischen und kosmologischen Beobachtungen gibt es Hinweise auf bisher unbekannte bzw. unverstandene Formen von Materie und Energie. Abschätzungen ergeben, dass der Teilcheninhalt des Standardmodells lediglich 4 % der gesamten Materie ausmacht. Welche dieser offenen Fragen (oder eine der vielen anderen) letztlich für den Unterricht ausgewählt wird, richtet sich sinnvollerweise nach der Vorliebe und Expertise der Lehrkraft, den Fragen der Schülerinnen und Schülern oder etwaigen Projektveranstaltungen in der Vergangenheit.

8.3

Zusammenfassung

Der Eingang der ETP in die Lehrpläne einiger Bundesländer stellt die Fachdidaktik (im Dialog mit Fach- und Bildungswissenschaften) vor eine anspruchsvolle Aufgabe. Es gilt, für diesen komplexen Inhalt eine fachlich angemessene, lernwirksame und für Bildungsprozesse bedeutsame Auswahl an Unterrichtsinhalten und Bearbeitungsmethoden anzugeben. Das hier vorgeschlagene Curriculum versucht der Gefahr vorzubeugen, dass das reine Überblickswissen über den Teilcheninhalt des Standardmodells, den Quarkinhalt der Hadronen und die Verwendung der Symbolsprache der FeynmanDiagramme, zu einem Rückfall in naive Teil-Ganze-Vorstellungen führt, die durch den Unterricht der Quantenmechanik bereits kompromittiert wurden. Daneben ist es durch lehr-lerntheoretische und entwicklungspsychologische Impulse informiert. Die Aufgabe bleibt jedoch – auch angesichts der anspruchsvollen Lehrplananforderungen – in der Kürze der zur Vefügung stehenden Unterrichtszeit äußerst ambitioniert.

8

Das Wuppertaler Curriculum der Elementarteilchenphysik

141

Literatur Breidenbach M, Friedman JI, Kendall HW, Bloom ED, Coward DH, DeStaebler H, Drees J, Mo LW, Taylor RE (1969) Observed behavior of highly inelastic electron-proton scattering. Phys Rev Lett 23(16):935–939 Friedman J (2008) The road to the nobel prize. Vortrag an der Hue University, Vietnam. http://hueuni. edu.vn/portal/en/index.php/News/the-road-to-the-nobel-prize.html. Zugegriffen: 23 Juli 2008 Klauber RD (2013) Student friendly quantum field theory. Sandtrove Press, Fairfield, Iowa (USA) Ministerium für Schule und Weiterbildung (MSW) (Hrsg) (2014) Kernlehrplan Oberstufe Physik NRW. Frechen: Ritterbach. https://www.schulentwicklung.nrw.de/lehrplaene/lehrplannavigators-ii/gymnasiale-oberstufe/physik/physik-klp/index.html Passon O, Grebe-Ellis J (2015) Moment mal: was ist eigentlich ein Photon? Praxis der Naturwissenschaften – Physik in der Schule 64(8):46–48 Passon O, Grebe Ellis J (2017) Planck’s radiation law, the light quantum, and the prehistory of indistinguishability in the teaching of quantum mechanics. Eur J Phys 38(3):035404 (10pp) Passon O (2019) On the interpretation of Feynman diagrams, or, did the LHC experiments observe H → γ γ ? Eur J Philos Sci 9:20(21pp) Pivarski J (2014) How many quarks in a proton? Fermilab Today 31. 1. 2014 http://www.fnal.gov/ pub/today/archive/archive_2014/today14-01-31.html Povh BK, Rith C, Scholz F Zetsche, Rodejohann W (2006) Teilchen und Kerne, 7. Aufl. Springer Spektrum, Heidelberg

9

Diskussion der didaktischen Impulse und Abschlussdiskussion Oliver Passon und Thomas Zügge

Inhaltsverzeichnis 9.1 9.2

Diskussion zu den didaktischen Impulsen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 Abschlussdiskussion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

Die Diskussion der fachdidaktischen Impulse fand nicht nach den einzelnen Beiträgen statt, sondern im Anschluss an den gesamten Vortragsblock. Sie wird in Abschn. 9.1 von Thomas Zügge dokumentiert. Das Symposion schloss mit einer weiteren Diskussion – diesmal im Rückblick auf alle Beiträge der zweitägigen Veranstaltung (Abschn. 9.2, zusammengefasst von Oliver Passon). Hier wurde versucht, vorläufige Ergebnisse und offene Fragen für die weitere Arbeit zusammenzutragen.

9.1

Diskussion zu den didaktischen Impulsen

9.1.1

Zum Vortrag von Michael Kobel

Andreas Schulz findet das von Michael Kobel vorgestellte Konzept der Ladungen sehr überzeugend, hat dazu aber zwei Fragen: Erstens möchte er wissen, wie es sich mit der Gravitation verhielte und ob diese sich einfüge, wenn man die Masse als Ladung betrachte. Zweitens fragt er, ob die dunkle Energie sich auch in die präsentierte Trias einordnen ließe. Kobel verneint die zweite Frage und erklärt bezüglich

O. Passon (B) · T. Zügge Fakultät für Mathematik und Naturwissenschaften, Physik und ihre Didaktik, Bergische Universität Wuppertal, Wuppertal, Deutschland E-Mail: [email protected] T. Zügge E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020 O. Passon et al. (eds.), Kohärenz im Unterricht der Elementarteilchenphysik, https://doi.org/10.1007/978-3-662-61607-9_9

143

144

O. Passon und T. Zügge

der ersten, dass das Gravitationsgesetz zwar formale Ähnlichkeit mit den Gesetzen der anderen fundamentalen Wechselwirkungen habe, die Masse aber nicht gequantelt sei. Entsprechend sei weder die Bestimmung eines Kopplungsparameters noch die einer Elementarladung möglich. Außerdem ermögliche das Vorzeichen bei anderen Wechselwirkungen auch negative Produkte, die sich in abstoßenden Kräften äußerten, während das Produkt zweier Massen immer nur positiv sei. Philipp Lindenau ergänzt, dass die Masse keine Erhaltungsgröße sei, was sie im Sinne einer Ladung disqualifiziere. Stefan Heusler erwidert, dass die Masse nicht losgelöst von der Energie verstanden werden dürfe und diese im Rahmen der Energieerhaltung sehr wohl erhalten sei. Wolfgang Wagner begrüßt es sehr, dass vermieden wurde, den Teilcheninhalt mit dem Standardmodell zu identifizieren, was seiner Meinung nach viel zu häufig geschehe. Er glaubt, dass die meisten Wissenschaftlerinnen und Wissenschaftler Michael Kobels Satz „Das Standardmodell ist eine Theorie der Wechselwirkungen“ vollkommen zustimmen würden und in ihrer Sprache zu oft unvorsichtig seien. Zu Abb. 6.3) habe er aber noch eine weitere Frage. Es sei üblich, alle Materieteilchen gemeinsam in die gleichen drei verschiedene Generationen zu ordnen. Im Standardmodell gebe es darauf aber keinen Hinweis, und erst in höheren Symmetriegruppen (etwa der SU(5)) ergäben solche Einordnungen Sinn. Entsprechend würde häufig fälschlich suggeriert, die Teilchen derselben Generationen hätten untereinander eine Verbindung. Kobel stimmt ihm zu und betont, dass sich das Problem vor allem beim Vergleich mit dem Periodensystem noch weiter verschärfe und häufig durch die Ergänzung der Bosonen im gleichen vermeintlichen Ordnungsschema noch weiter verschlimmert würde. Wagner schlägt vor, die in der Schuldidaktik gewonnene Sensibilität stärker in die Hochschuldidaktik zu übernehmen. Er erinnert sich daran, dass dies eines der zu Beginn des Kooperationsprojektes an der Bergischen Universität Wuppertal formulierten Ziele gewesen sei und betont, dass sich hier nun ein konkretes Beispiel dafür böte. Oliver Passon fragt, wie die Eichbosenen im Konzept des Netzwerk Teilchenwelt motivert würden. Zu Beginn parallelisiere es die Kraftgesetze sehr stark und weise anschließend darauf hin, dass die Reichweiten nicht mehr r12 -Profile haben. Wie Michael Kobel in seinem Vortrag erwähnt habe, könne dies sowohl auf massive Wechselwirkungsteilchen wie auch ein Dielektrikum zurückzuführen sein. Kobel antwortet, dass die beiden Herangehensweisen für die schwache Wechselwirkung äquivalent seien. Das eingeführte Dielektrikum (das Higgs, das „Schwachladikum“) sei eben das, was dem W-Boson die Masse gebe. Bei der starken Wechselwirkung dagegen sei dies nicht mehr möglich. Der Grund hierfür sei der Charakter der Feldlinienbilder, in denen das elektrische Feld typischerweise über die Kraft auf eine Probeladung definiert werde. Diese müsse gegenüber den felderzeugenden Ladungen klein sein – solch eine gebe es im Fall der starken Ladung aber nicht. Insofern sei es nur möglich, die „klassischen Feldlinien“ zwischen zwei Quarks zu zeichnen. Passon weist darauf hin, dass für die Kurzreichweitigkeit der starken und schwachen Wechselwirkung unterschiedliche Erklärmuster propagiert würden: einmal die Selbstwechselwirkung der Botenteilchen, einmal ihre Masse. Dies habe das Potenzial, Lernende zusätzlich zu verwirren. Kobel stimmt zu und betont, dass mit der

9

Diskussion der didaktischen Impulse und Abschlussdiskussion

145

Lehrplanforderung „Übergang vom Feld- zum Botenteilchenkonzept“ die Autorinnen und Autoren eine schwer lösbare Aufgabe formuliert hätten. Selbst in der Hochschule werde dies oft nicht vollständig thematisiert. Stefan Heusler begrüßt die Darstellung, möchte aber einen Punkt kritisieren. Zur Darstellung der Feynman-Diagramme (in diesem Band nicht enhalten) habe Michael Kobel gesagt, in der nächsten Auflage sei es geplant, die Zeitachse nicht mehr durchgängig zu zeichnen. Somit seien die asymptotischen Felder frei. Im Fall des elektrischen Feldes sei dies vielleicht zielführend, Quarks aber seien letztlich nie als frei zu beschreiben, und es würde weiterhin ein Bahnbegriff auf Ebene der Quantenphysik suggeriert, den die Fachdidaktik eigentlich zu eliminieren suche. Michael Kobel betont, dass ihnen selbst die Darstellungen zu sehr raumzeitlich eingebettet und dem Bahnbegriff nahe seien. Dies sei einer der Anlässe für die Änderungen in der zweiten Auflage. Nach geeigneteren Darstellungen suche man aber derzeit noch und sei für jeden Impuls dankbar. Thomas Zügge bezweifelt die vorgestellte Argumentation, nach der die Betrachtung der starken und schwachen Wechselwirkungen als Feld nicht mehr zielführend sei, weil sich hierfür Feldlinien verzweigen, bzw. im Vakuum enden müssten. Er merkt an, dass es sich bei dem klassischen Feldlinienbild vielmehr um die zweidimensionale Projektion der Kraftvektoren des elektrischen Feldes handele. Die dafür gefundenen Regeln auf neue Wechselwirkungen anzuwenden, ihre Unanwendbarkeit festzustellen und daraus auf die Nicht-Betrachtbarkeit als Feld zu schließen, scheine ihm nicht ganz redlich. Michael Kobel antwortet, dass ihm die Holprigkeit der Argumentation bewusst sei. Ihm sei aber wichtig, das neue Konzept Botenteilchen an das etablierte Konzept der Feldlinien anzuknüpfen. Dieser Übergang werde in der Unübertragbarkeit der elektrischen Feldlinien auf die neuen Wechselwirkungen sichtbar.

9.1.2

Zum Vortrag von Thomas Zügge

Michael Kobel weist darauf hin, dass die Angaben − 13 e und 23 e für Quarks irreführend seien. Für ihn bedeute es einen konzeptionellen Unterschied, ob beispielsweise die Elementarladung e Teil des Kopplungsparameters oder der Teilcheneigenschaften sei. Er würde sich eine einheitliche Sprachregelung wünschen, die man z. B. auch in Lehrkräftefortbildungen so verwenden würde. Stefan Heusler stimmt Michael Kobels Vorschlag einer konsequenten Trennung von Ladungszahl und Kopplungsparameter zu. Speziell im Falle der starken Wechselwirkung sei αs beispielsweise energieabhängig. Philipp Lindenau betont, dass dieses Vorgehen über den Unterricht der Elementarteilchenphysik hinausweise. Vor dem Hintergrund, dass in der Oberstufe weitere Ladungsarten eingeführt würden, müsse bereits der Unterricht der Mittelstufe deutlich machen, dass man über die elektrische Ladung spreche. Er betont, dass man damit zusätzlich der Fehlvorstellung der Ladung als Stoffmenge/Elektronenmenge, wie sie häufig im Unterricht der Elektrostatik entstehe, entgegenwirke. Wolfgang Wagner stimmt diesem Vorschlag zu.

146

O. Passon und T. Zügge

Andreas Schulz stellt in Frage, ob man im Unterricht Feynman-Diagramme benutzen solle. Er verweist auf die Diskussion vom Vortag und die große Gefahr, FeynmanDiagramme als Weg-Zeit-Diagramme misszuverstehen. Thomas Zügge antwortet, in Gesprächen in Dresden und vor allem Wuppertal habe man sich wiederholt mit der Frage ihrer Behandlung auseinandergesetzt und sich letztlich dafür entschieden. Als etabliertes Werkzeug der teilchenphysikalischen Forschung ergebe es seiner Meinung nach durchaus Sinn, Feynman-Diagramme im Unterricht zu behandeln. Sie böten zudem eine Gelegenheit, die Verbindung zwischen Quantenmechanik und Elementarteilchenphysik herzustellen. Zusätzlich sprächen gerade ihre weite Verbreitung und ihr missverständlicher Charakter dafür, eine entsprechende Sensibilität im Unterricht zu schulen.

9.1.3

Generelle Diskussionen der didaktischen Impulse

Georg Haehn weist darauf hin, dass er als Lehrer an einer Schule mit über 700 Schülerinnen und Schülern nur etwa jedes vierte Jahr den Physikleistungskurs und damit ca. zwei Wochen lang Elementarteilchenphysik unterrichte. Damit wolle er die Bedeutung des Themas für die einzelne Lehrkraft einordnen. Um Lehrkräfte zu erreichen, sei weniger die Klärung von Details wichtig als das Angebot eines sehr konkreten Curriculums, welches in zwei Wochen umsetzbar sei. Michael Kobel antwortet, dass die Fortbildungen des Netzwerk Teilchenwelt sehr konkrete Unterrichtsmaterialien bereithielten. Dazu zählten beispielsweise Arbeitsblätter und in GeoGebra nutzbare Blasenkammeraufnahmen. Die Diskussion hier werde sehr theoretisch geführt, lege dabei aber den Grund für zukünftige, schulnahe Arbeit. Er plädiere dafür, dass sich die Lehrkräfte in der Gestaltung ihres Unterrichts daran orientierten, welche Themen ihnen selbst „am Herzen lägen“. Hierfür sei es notwendig, ein breites Angebot zu gestalten, aus dem Lehrkräfte entsprechend auswählen könnten. Wolfgang Wagner versteht Herr Haehns Beitrag als Appell, ein leicht handhabbares Produkt zu liefern. Seiner Meinung nach dürfe das Ziel aber nicht darauf verengt werden, nur ein Curriculum zu entwickeln. Man könne sich durchaus verschiedene Curricula im Sinne von unterschiedlichen Wegen durch die Elementarteilchenphysik vorstellen. Johannes Grebe-Ellis erinnert daran, dass Michael Kobel im Rahmen seiner Rückfrage zum Ladungsbegriff auch darum geworben habe, sich auf einen terminologischen Konsens zu verständigen. Die vorgestellten Beiträge seien in ihrer Natur sehr unterschiedlich. Bei dem von Michael Kobel vorgestellten Konzept handele es sich seiner Wahrnehmung nach um einen sehr ausgereiften Ansatz. Dieser sei nicht allein physikdidaktisch nutzbar, sondern beinhalte auch eine eigenständige fachliche Lesart, die er sehr begrüße und auch hochschuldidaktisch für interessant halte. Die Ansätze aus Wuppertal und Genf ergänzten dieses in unterschiedlicher Nähe zum Unterricht. Er regt an, das Zusammenspiel der Impulse genauer zu betrachten und danach zu fragen, wie ein verbindendes Ganzes aussähe, zu dem diese drei Beiträge verschiedene Aspekte beisteuerten. Julia Woithe vermutet, dass die Herstellung solcher Kohärenz nicht in der verbleibenden Gesprächszeit gelingen könne, sondern vielmehr einer „Design-Based-Research-Doktorarbeit“ bedürfe. Michael

9

Diskussion der didaktischen Impulse und Abschlussdiskussion

147

Kobel glaubt nicht, dass man eine Doktorarbeit benötige. Er stimmt aber zu, dass die verbleibende Zeit des Symposion zu knapp sei und regt darum an, sich regelmäßig zu treffen, auch um gemeinsame Sprachregelungen zu finden, die in der Hochschuldidaktik trügen. Andreas Schulz betont, dass er das von Michael Kobel vorgeschlagene Dreieck (Abb. 6.1) für eine gute Diskussionsbasis halte. Stefan Heusler stimmt zu und sagt, die Trias „Ladungen, Wechselwirkungen, Elementarteilchen“ sei tatsächlich so zentral, dass er hauptsächlich im Hinblick auf die verwendeten Begriffe Klärungsbedarf sehe. Thomas Zügge begrüßt die Impulse von Georg Haehn und Johannes Grebe-Ellis, sich auf ein Curriculum zu einigen. Er pflichtet aber seinen Vorrednerinnen und Vorrednern darin bei, dass im Rahmen dieses Symposions die Zeit hierfür fehle. Bezüglich des Dreiecks „Ladungen, Wechselwirkungen, Teilchen“ glaubt er, darin eine übersichtliche Strukturierung des Fachinhalts zu finden. Für eine didaktische Grundlegung aber genüge die ausschließliche Klärung der Fachinhalte nicht. Diese benötige vor allem auch eine Verständigung über die Bildungsziele des Lehrgangs jenseits der Vermittlung fachlicher Konzepte. Johannes Grebe-Ellis fragt, ob dies bedeute, dass er an der Struktur des Dreiecks etwas ändern wolle. Dieser verneint und erklärt, dass er es gerne um eine Analyse des Bildungsgehalts ergänzen wolle. Wolfgang Wagner bemerkt, dass für eine didaktische Perspektive z. B. auch noch nicht klar sei, ob die gezeigte Trias den Einstieg oder das Ziel des Unterrichts der Elementarteilchenphysik bilden solle. Für Michael Kobel ergibt sich ein erster bildungswerter Erkenntnisgewinn aus der Anwendbarkeit des Konzepts „Erhaltungsgrößen“ über unterschiedlichste Skalen hinweg. Ein weiterer läge darin, zu vermitteln, wie weit die moderne Wissenschaft in der Lage zur Weltbeschreibung sei. In einer Welt der „Fake-News“ und „PseudoWissenschaft“ stelle gerade diese Verlässlichkeit wissenschaftlicher Erkenntnisgewinnung einen Bildungswert dar. Johannes Grebe-Ellis gibt zu bedenken, dass bereits die Marsmissionen und der Bau moderner Brücken leicht einleuchtende Indizien für die erreichte Reife wissenschaftlicher Präzision seien. Er stellt in Frage, ob man die Präzision des LHC benötige, um die Sicherheit der wissenschaftlichen Methode bestätigt zu finden und zu vermitteln. Beinahe alle Teilnehmenden betonten im Verlauf der Diskussion ihr Interesse daran, im weiteren Gespräch curriculare Entwürfe auszuschärfen.

9.2

Abschlussdiskussion

Die Diskussion zum Abschluss des Symposions wollte sowohl offene Fragen als auch die bereits erreichten Ergebnisse zusammentragen. Zu ihrem Beginn spricht Johannes Grebe-Ellis den übergeordneten Gesichtspunkt an, in welchem Sinne gerade auch in der Teilchenphysik die Ergebnisse der Untersuchung von den verwendeten Instrumenten abhängen. Dabei denke er sowohl an die apparativen als auch die begrifflichen „Instrumente“. Diese Abhängigkeit sei als „Perspektivität“ zu bezeichnen und betone die Tatsache, dass die Physik einen spezifischen Wissenstypus aufweise, der neben anderen Perspektiven stehe. Vernachlässige man diese Perspektivität, könne es zu

148

O. Passon und T. Zügge

einer unberechtigten Gleichsetzung von „Welt“ und ihrer physikalischen Beschreibung kommen. Grebe-Ellis erinnert in diesem Zusammenhang an die Debatten zwischen Mach und Planck zu eben diesem Problem. Innerhalb der Tagung seien diese Fragen immer wieder implizit, aufgetaucht und ihr besonderer Bildungswert sei auch für die Schule nutzbar zu machen.

9.2.1

Vorläufige Ergebnisse und offene Fragen

Heusler stellt fest, dass die von Kobel (vgl. Kap. 6) eingeführte Trias aus „LadungWechselwirkung-Teilchen“ in ihrer fachlichen Zentralität für die Sachstruktur des Standardmodells unbestritten erscheine. Davon unberührt seien jedoch Fragen der didaktischen Umsetzung dieser Idee. Oliver Passon bemerkt, dass die große Rolle der „Ladung“ über Symmetrieargumente etc. tatsächlich fachlich unangreifbar erscheine, erinnert jedoch an den Hinweis von Georg Haehn zur anzustrebenden Schulnähe. Die Materialien des Netzwerk Teilchenwelt zeigten auch, wie aufwendig die angemessene Behandlung etwa der vektorwertigen „starken Ladung“ sei. Zugunsten der Praktikabilität in der Schule könne sich deshalb die Umsetzung der Trias aus Abb. 6.1 als problematisch erweisen. Kobel sieht einen Kompromiss darin, dass zumindest die „schwache Ladung“ über die m-Quantenzahl eingeführt werden könne. Zu betonen sei schließlich, dass „Ladung“ nicht als „Stoff“ aufzufassen sei, sondern lediglich eine „Zahl“ darstelle. Daran knüpft er die Hoffnung, dass der Vektorcharakter der starken Ladung dann ebenfalls weniger erstaunlich sei. Stefan Brackertz plädiert für eine stärkere Betonung des Zusammenhangs zwischen Symmentrie und Erhaltungsgrößen. Dieser Zugriff solle jedoch bereits bei anderen Themengebieten der Schulphysik betont werden. Von der frühzeitigen Einführung dieser Begriffe bereits in der Mittelstufe könne dann der Unterricht der Teilchenphysik profitieren. Philipp Lindenau knüpft ebenfalls hier an. Aus seiner Erfahrung mit Lehrenden berichtet er, dass vor allem die Erhaltung der elektrischen Ladung im Schulunterricht bereits etabliert sei. Die Verallgemeinerung auf andere „Ladungen“ sei also weniger problematisch, und man knüpfe nicht bloß an die Erfahrungen aus Energie- und Impulserhaltung an. Kobel sieht ein weiteres Resultat der Diskussion darin, dass die tief-inelastische Streuung einen geschickteren Zugang zum Quarkbegriff darstelle als der Teilchenzoo (Gell-Mann, Zweig). Er sieht zudem die Möglichkeit, über Jet-Erzeugung an neuere Experimente anzuknüpfen. Auf sinnvolle Weise werde hier auch die Rolle des Experiments betont. Julia Woithe betont den breiten Konsens, dass die Begriffsbildungen im Unterricht der Teilchenphysik anschlussfähig zur Quantenmechanik gewählt werden sollen. Passon erinnert in diesem Zusammenhang an das bekannte Spannungsverhältnis zwischen dem didaktischen Gebot der „Anschaulichkeit“ und dem Verlust der raumzeitlichen Einbettung (also eben: „Anschaulichkeit“) in der Quantentheorie. Die Arbeiten zur Visualisierung der QM, die die Arbeitsgruppe um Stefan Heusler

9

Diskussion der didaktischen Impulse und Abschlussdiskussion

149

in Münster entwickelt, würden nicht zufällig eine „Visualisierung der Mathematik“ bieten – in gewisser Hinsicht also immer noch abstrakt und „unanschaulich“ sein. Kobel sieht im Übergang zwischen Feldbegriff und Botenteilchen eine noch nicht abschließend geklärte Frage. Ein weiteres Desiderat ist die im Verlauf der Tagung mehrfach angesprochene Vereinheitlichung der Terminologie.