523 95 5MB
German Pages 591 [592] Year 2023
Handbuch Sprache in Mathematik, Naturwissenschaften und Technik HSW 15
Handbücher Sprachwissen
Herausgegeben von Ekkehard Felder und Andreas Gardt
Band 15
Handbuch Sprache in Mathematik, Naturwissenschaften und Technik Herausgegeben von Vahram Atayan, Thomas Metten und Vasco Alexander Schmidt
ISBN 978-3-11-029582-5 e-ISBN (PDF) 978-3-11-029625-9 e-ISBN (EPUB) 978-3-11-039391-0 Library of Congress Control Number: 2022943045 Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2023 Walter de Gruyter GmbH, Berlin/Boston Satz: jürgen ullrich typosatz, Nördlingen Druck und Bindung: CPI books GmbH, Leck www.degruyter.com
Inhalt Vahram Atayan, Thomas Metten und Vasco Alexander Schmidt Einleitung 1
I
Rahmenbedingungen und Akteure
Gregor Nickel 1. Mathematik und Sprache
9
Thomas Naumann 2. Physikalische Erkenntnis, Denken und Sprache Klaus Kornwachs 3. Sprache und Technik
55
91
II Wissenskonstitution in Mathematik, Naturwissenschaften und Technik Petra Drewer 4. Die kognitive Metapher als Instrument der Erkenntnisgewinnung, -versprachlichung und -vermittlung 119 Thomas Metten 5. Zur Konstitution und Kommunikation naturwissenschaftlichen Wissens in und mit Bildern 139 Laura Giacomini 6. Terminologiearbeit und Wissensmanagement
167
Annely Rothkegel 7. Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung 191 Radegundis Stolze 8. Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
221
VI
Inhalt
Helmut Horacek 9. Texts in Mathematics and Natural Sciences Phenomena and Processing Methods 241
III Wissensvermittlung in Mathematik, Naturwissenschaften und Technik Wolf-Andreas Liebert 10. Kommunikative Strategien der Wissenschaftspopularisierung
271
Wolfgang Kesselheim 11. Sprache und Wissensvermittlung im naturwissenschaftlichen Museum Armin Grunwald 12. Die Rede über Technik in der wissenschaftlichen Politikberatung Kerstin Kallass und Thomas Metten 13. Zur Auseinandersetzung mit Naturwissenschaften im Web 2.0 – das Beispiel Wikipedia 335 Nina Janich, Lisa Rhein und Niklas Simon 14. Nichtwissen und Unsicherheit in Naturwissenschaften und Mathematik 355
IV Diskurs, Text, Sprache Katharina Jacob 15. Diskurs 381 Nina Kalwa 16. Denkstil und Fachsprache
405
Vasco Alexander Schmidt 17. Textsorten des mathematischen und naturwissenschaftlichen Diskurses 423 Brigitte Horn-Helf (†) 18. Textsorten in technischen Diskursen
445
315
291
VII
Inhalt
Theresa Kruse 19. Vocabulary of Mathematics
469
Michael Szurawitzki 20. Deutsch als Sprache von Mathematik, Naturwissenschaften und Technik 489 Anne Weber 21. Sprache der Mathematik, Naturwissenschaften und Technik im Französischen 509 Stefania Cavagnoli 22. Sprache der Mathematik, Naturwissenschaften und Technik im Italienischen 527 Valentina Aristova 23. The Russian Language of Exact, Natural and Engineering Sciences Autorenverzeichnis Sachregister
581
579
551
Vahram Atayan, Thomas Metten und Vasco Alexander Schmidt
Einleitung In unserer Wahrnehmung ist das mathematische, naturwissenschaftliche und technische Wissen v. a. mit Präzision, empirischer Überprüfbarkeit und Formalisierung assoziiert. Dabei rückt leicht die Tatsache in den Hintergrund, dass auch dieses Wissen schlussendlich in und durch Sprache erzeugt, tradiert und gespeichert wird. Um diese zentrale Bedeutung von Sprache in Mathematik, Naturwissenschaften und Technik zu umreißen, stellt dieses Handbuch in einem bündigen Überblick die Forschungstraditionen, aber auch neuere Forschungsperspektiven und ausgewählte Fragestellungen vor, die verdeutlichen, wie Erkenntnisse in diesen Wissensdomänen in und durch Sprache gewonnen und verfestigt werden. Dadurch wird gleichzeitig sichtbar, wie ein reflektierter Einsatz der Sprache und anderer Medien eine gelungenen Technik- und Wissenschaftskommunikation unterstützen kann. Es werden zentrale Aspekte der Wissensgewinnung und -vermittlung behandelt, der Stand ihrer linguistischen Erforschung zusammengefasst und aufgezeigt, welche wissenschaftspraktischen Implikationen dies für Forschende in den Natur- und Technikwissenschaften sowie in der Mathematik haben kann. Das Handbuch richtet sich somit nicht nur an Linguistinnen und Linguisten, sondern gerade auch an die Forschenden und die Lehrenden derjenigen Wissensdomänen, die auf den nachfolgenden Seiten zum Gegenstand der linguistischen Auseinandersetzung werden, mit dem Ziel, die Rückübertragung der hierbei gewonnenen Einsichten in diese Disziplinen zu ermöglichen. Die hieraus resultierende interdisziplinäre Verständigung, die einen wechselseitigen wissenschaftsinternen Transfer von Erkenntnissen zwischen Natur- und Geisteswissenschaften fördert, ist unabdingbar, um der gewachsenen Notwendigkeit der Integration wissenschaftlichen Wissens in globale wissenschaftliche und gesellschaftliche Entwicklungs- und Transformationsprozesse gerecht zu werden. Die Relevanz linguistischer Zugänge für ein tiefer gehendes Verständnis der Rolle von Sprache in Mathematik, Naturwissenschaften und Technik ergibt sich hierbei nicht nur aufgrund der besonderen Bedeutung dieser Wissensdomänen für den wissenschaftlich-technischen Fortschritt im 20. Jahrhundert. Die Notwendigkeit der Abschätzung der Folgen von Technik und Wissenschaft hat in den vergangenen 40 Jahren zunehmend auch deutlich werden lassen, dass gerade jene Wissensdomänen, die hier im Fokus stehen, für das Gelingen einer globalen nachhaltigen Entwicklung zentral sind, für welche die Vereinten Nationen 2015 mit der Formulierung der so genannten 17 Sustainable Development Goals (SDG) den Weg vorgezeichnet haben. Dabei ist die Erkennung der sprachlich-medialen Grenzen der Erkenntnis und das hermeneutische Wissen um die Möglichkeiten einer inter- und transdisziplinären Verständigung sowie über die damit verbundenen Möglichkeiten der Integration von Wissen in andere Disziplinen und Tätigkeitsfelder einer Gesellschaft entscheidend für das angemessene Verständnis der Rolle dieser Disziplinen in nachhaltigen Entwick
https://doi.org/10.1515/9783110296259-001
2
Vahram Atayan, Thomas Metten und Vasco Alexander Schmidt
lungsprozessen. Linguistische Zugänge ermöglichen es hier zu reflektieren, dass und inwiefern Sprache einerseits eine notwendige Bedingung wissenschaftlicher Erkenntnis ist, wie sie unser Wissen von naturwissenschaftlichen Phänomenen strukturiert oder als Vollzugsmedium der mathematischen Forschung dient. Andererseits aber trägt Sprache auch stets spezifische Grenzen in Erkenntnisprozesse hinein. Grundlegend hierfür ist zunächst die Einsicht: Erkenntnisse werden auch in den Naturwissenschaften, in Mathematik und Technik nicht unabhängig von Medien gewonnen, in denen sich der Prozess des Erkennens vollzieht oder in denen Erkenntnisse dargestellt oder vermittelt werden. Linguistische Untersuchungen tragen dazu bei, diese Funktionen und Effekte von Sprache differenziert zu betrachten, wodurch nicht nur das linguistische Verständnis der Erkenntnisprozesse sondern auch die Möglichkeiten der Erkenntnisgewinnung in den benannten Wissensdomänen erheblich profitieren. Gleichzeitig gilt es aufzudecken, welche Herausforderungen und Probleme bei und aus der Vermittlung von wissenschaftlichen Einsichten an eine breite Öffentlichkeit resultieren. Phänomene wie die Ikonisierung von Expertinnen und Experten, die Schematisierung wissenschaftlicher Bilder zu öffentlichen Stereotypen, die Transformation der Erkenntnisse in zwar verständliche, aber nicht mehr sachangemessene Darstellungen sind nur einige der Aspekte, bei denen linguistische Einsichten in einer angewandten Perspektive zur Gestaltung einer besseren Kommunikation von Wissenschaft und wissenschaftlichem Wissen beitragen können. Wissenschaftskommunikation wird häufig jedoch immer noch gleichgesetzt mit der Presse- und Öffentlichkeitsarbeit an Hochschulen, die vielfach dazu dient, das Selbstverständnis, Image oder Profil einer Hochschule der breiten Öffentlichkeit, zunehmend aber auch spezifischen Teil- und Themenöffentlichkeiten oder einzelnen Anspruchsgruppen (Fördermittelgeber, Stiftungen, etc.) zu vermitteln. Wissenschaftskommunikation kann im Kontrast dazu aber auch von einer anderen, nicht-institutionellen Seite her gedacht werden, etwa wenn die Frage im Vordergrund steht, wie wissenschaftliches Wissen, das in der Forschung gewonnen wird, in öffentliche Diskurse integriert sowie Akteuren vermittelt werden kann, die nicht am Forschungsprozess selbst beteiligt sind. Herausfordernd sind hierbei stets zwei Aspekte: 1) Wissen ist kontextgebunden und kann aus den konkreten Entstehungszusammenhängen nicht einfach herausgelöst werden; es basiert auf spezifischen Voraussetzungen oder auch Vorwissen, über das teilweise nur kleinste fachwissenschaftliche Communitys verfügen; 2) Wissen ist mediengebunden, d. h. jeder Medienwechsel kann nicht als bloße Remedialisierung begriffen werden, sondern stellt eine tatsächliche Rekonstitution und Transformation des Wissens dar. Solche Translationen von einem Medium in ein anderes haben zur Folge, dass Wissen nicht konstant bleibt, sondern im Zuge seiner Zirkulation durch unterschiedliche Kontexte sukzessive auch transformiert wird. Die Corona-Pandemie hat zudem gezeigt, dass grundlegende Prämissen des wissenschaftlichen Arbeitens, die Arbeitsweisen und Methoden der Wissenschaften, aber auch die mit wissenschaftlichem Wissen verbundenen Auszeichnungen gleichfalls mit kommuniziert werden sollten, da die Voraussetzungen, Orientierungen und Arbeitsweisen der Wissenschaften öffentlich
Einleitung
3
vielfach kaum bekannt sind. Daraus können grundlegende Missverständnisse resultieren, die dazu führen, dass relevante Einsichten aufgrund von nicht sachbezogenen Gründen verkannt werden, was wiederum Folgen hinsichtlich der Angemessenheit politischer Entscheidungen oder individuellen Verhaltens haben kann. Dass sich wissenschaftliche Erkenntnisse verändern, Wissen von den spezifischen Kontexten seiner Entstehung abhängt oder fachwissenschaftliche Debatten nicht einfach durch konsensorientierte Verfahren aufgelöst werden können, führt dazu, dass die Bedeutung von Wissenschaft gerade auch in einer Demokratie nicht erkannt wird. Die Wissenschaften bewegen sich dabei innerhalb eines Spannungsfeldes, das durch die Gefahr einer Expertokratie auf der einen Seite geprägt ist, in der politische Entscheidungen obsolet werden, da alleine die Stimme der Erkenntnis gilt, ohne dass Erkenntnisse in Bezug gesetzt werden zu gesellschaftlichen Werten oder Herausforderungen, während auf der anderen Seite eine reine Popularisierung von Wissenschaft stattfindet, die primär dazu dient, partikulare Interessen wie die Legitimation wissenschaftlicher Vorhaben, institutionelle Imagegewinne oder eine konkurrenzfähige Profilierung durchzusetzen. Große gesellschaftliche Herausforderungen wie der Klimawandel, die digitale Transformation oder auch die Corona-Pandemie zeigen jedoch, dass wissenschaftlich gewonnene, evidenzbasierte Informationen die Grundlage für sachangemessene Entscheidungen bilden. Politischen Entscheidungen gehen dabei vielfach öffentliche Debatten voraus, die wiederum voraussetzen, dass die Verfahren der Erkenntnisgewinnung bekannt sind und spezifische fachwissenschaftliche Positionen oder Erkenntnisse angemessen eingeordnet werden können. Dies setzt in verschiedener Hinsicht nicht nur ein Sachverständnis mit Blick auf bestimmte Themen, sondern auch ein Grundverständnis von Wissenschaft bzw. grundlegender Verfahren etwa der Geistes- oder Naturwissenschaften voraus. Wissenschaftskommunikation trägt hier dazu bei, einerseits ganz grundlegend zur Teilhabe an spezifischen gesellschaftlichen Debatten zu befähigen, andererseits aber auch dazu, dass spezifische Erkenntnisse überhaupt öffentlich wahrgenommen, diskutiert und in Entscheidungsprozesse einbezogen werden. Umso wichtiger ist es, ein breites Verständnis von Wissenschaftskommunikation zu etablieren, das die Vermittlung von Wissen an unterschiedlichen Orten und in unterschiedlichen Medien wie Museen, Tageszeitungen oder Sozialen Medien ebenso in den Blick nimmt wie die hiermit verbundenen Spezifika und Herausforderungen. Eine unabdingbare Bedingung hierfür ist nun auch die Auseinandersetzungen mit der sprachlichen Komponente dieser Prozesse, die einerseits die Wissensentstehung und Weitergabe überhaupt erst ermöglicht, andererseits aber auch die kognitiven Rahmenbedingungen und Grenzen der Wissensgenerierung und die kommunikativen Abläufe der Wissensweitergabe massiv mitbestimmt. Der vorliegende Band beleuchtet diesen Einfluss aus einer vierfachen Perspektive, die im Sinne eines einfachen Kommunikationsmodells verstanden werden kann: Wer sind die Beteiligten? Hier geht es um die Relation zwischen der Sprache und den Rahmenbedingungen und Akteuren der drei Domänen. Wie entsteht das Wissen? Diese Frage beleuchtet das Verhältnis zwischen Sprache und Sache, d. h., die Wissens
4
Vahram Atayan, Thomas Metten und Vasco Alexander Schmidt
konstitution. Wie wird das Wissen vermittelt? Im Vordergrund steht hier die Wissensvermittlung in Mathematik, Naturwissenschaften und Technik in und durch die Sprache im Allgemeinen. Welche Eigenheiten weist die Sprachverwendung in diesen Kontexten auf? Hier werden die spezifischen linguistischen Beschreibungsebenen von der Diskurs- über die Text- bis zur Wortebene sowie einzelsprachliche Aspekte behandelt. Selbstverständlich kann dabei vielfach nicht die ganze Breite sprachlicher und wissensbezogener Parameter dieser komplexen Konstellation beleuchtet werden. Daher zielen die Beiträge darauf ab, die relevanten Themen jeweils anhand einer der drei Wissensdomänen Mathematik, Naturwissenschaften und Technik und ausgewählter sprachlicher Phänomene zu entwickeln und prototypisch vorzustellen. Das hohe Maß an Sprachreflexion, das Mathematiker, Naturwissenschaftler und Ingenieure in ihrer Arbeit zeigen, ist Ausgangspunkt des ersten Teils des Handbuchs. Drei Selbstauskünfte, jeweils von Fachvertretern der besagten Wissensdomänen, geben einen Überblick aus Akteursperspektive und liefern Anknüpfungspunkte für künftige linguistische Untersuchungen. Der Einstiegsbeitrag ist der Mathematik gewidmet und stellt zunächst philosophische Positionen zu den mathematischen Gegenständen und das Sprechen über mathematische Sachverhalte vor, um anschließend semiotische Ansätze, die die mathematische Praxis beschreiben, in den Vordergrund zu rücken. Da auch die Naturwissenschaften und Technik von der Mathematik durchdrungen sind, liefert der Beitrag zu Sprache und Mathematik damit eine Grundlegung für die darauf folgenden Beiträge, die Sprache der Naturwissenschaften am Beispiel der Physik und Sprache in der Technik aus Sicht der wissenschaftlichen Praxis vorstellen. Der zweite Teil fasst Beiträge zusammen, die die sprachlich-mediale Wissenskonstitution beleuchten und dabei einen Bogen von der Rolle der Sprache im Erkenntnisprozess bis zu Mechanismen der Wissensdokumentation und Sprachverarbeitung spannen. Zunächst wird die Rolle von Metaphern als Instrument der Erkenntnisgewinnung, -versprachlichung und -vermittlung dargestellt sowie die Rolle von Bild und Film bei der Sichtbarmachung oder Darstellung der Untersuchungsgegenstände und Erkenntnisse beleuchtet. Eigene Beiträge sind etablierten sprachlichen Tätigkeiten der Wissenskonstitution und -verfestigung gewidmet, darunter die Terminologiearbeit, das technische Schreiben, das Fachübersetzen sowie die elektronische Sprachverarbeitung. Im dritten Teil des Handbuchs, der die Wissensvermittlung zum Inhalt hat, steht das Verständlichmachen naturwissenschaftlich-technischer Inhalte im Vordergrund. Nach einem Beitrag zu den kommunikativen Strategien der Wissenschaftspopularisierung werden Einzelaspekte in größerem Detail beleuchtet und so ein breites Spektrum an Kommunikationsbereichen mit ihren spezifischen Herausforderungen in den Blick genommen: die Wissensvermittlung im Museum, die Politikberatung in der Technikfolgenabschätzung sowie die Rolle neuer Medien am Beispiel Wikipedia. Diese Reflexion von Herausforderungen der Wissenschaftskommunikation wird ergänzt durch einen Beitrag zum Nichtwissen, das die fachinterne und fachexterne Kommunikation konzeptuell zu ordnen hilft.
Einleitung
5
Der vierte Teil beleuchtet sprachliche Aspekte im engeren Sinne und stellt linguistische Methoden und Teilgebiete und ihren Beitrag zur Untersuchung von Sprache in Mathematik, Naturwissenschaften und Technik vor. Hierzu gehört die linguistische Diskursanalyse, Fachsprache und Denkstile, die Rolle von Textsorten in technikbezogenen und mathematisch-naturwissenschaftlichen Diskursen sowie Fachterminologie. Auch die Rolle einiger europäischer Einzelsprachen in den Wissensdomänen wird beleuchtet. Vorgestellt werden das Deutsche als Vertreter der germanischen Sprachen, Russisch für das Slawische sowie die romanischen Sprachen Französisch und Italienisch, wobei das Italienische exemplarisch auch eine historische Perspektive auf Sprache in Mathematik, Naturwissenschaften und Technik gibt. Der grundlegende interdisziplinäre Anspruch dieses Bandes soll, so unsere Hoffnung, dazu führen, dass die Beiträge sowohl von Forschenden in den hier bearbeiteten Wissensdomänen aber auch von Forschenden und Studierenden der Linguistik und verwandter im weiteren Sinne kommunikationswissenschaftlicher Fächer rezipiert werden, wodurch ein fruchtbarer Dialog zwischen diesen Disziplinen oder eine Bereicherung der disziplinären Forschung durch eine neue Perspektive möglich wird. Wir danken den Reihenherausgebern für ihr Vertrauen und die Unterstützung für dieses Handbuchprojekt. Auch dem Verlag de Gruyter, der das Projekt geduldig und professionell begleitet hat, sind wir zu großem Dank verpflichtet. Ein besonderer Dank gilt den Autoren für ihr Engagement, den Wissensstand zur Sprache in Mathematik, Naturwissenschaft und Technik in dieser Vielfalt und mit Blick auf die Wissenskonstitution durch Sprache zusammenzutragen.
I Rahmenbedingungen und Akteure
Gregor Nickel
1. Mathematik und Sprache Abstract: Sprache und Mathematik sind nahezu gleichursprünglich und ähnlich universell; sie begleiten und formen – gerade auch in ihrem Wechselverhältnis – die gesamte menschliche Kulturgeschichte. Angesichts der Universalität des Themas kann dieser Beitrag nur exemplarisch wichtige Positionen und historische Stationen vorstellen. Der erste Abschnitt skizziert Theorien zu Gegenstand und Sprache der Mathematik von der Antike bis in die Gegenwart. Im zweiten Abschnitt wird die seit Aufkommen der neuzeitlichen Physik gängige Meinung diskutiert, Mathematik sei die ‚Sprache der Natur‘. In den folgenden Abschnitten sind Sprache und Mathematik sowohl Gegenstand als auch methodische Perspektive – in jeweils vertauschten Rollen: Der dritte Abschnitt diskutiert die in der formalen Logik unternommene Analyse und Regelung der Sprache mit Hilfe mathematischer Methodik. Im vierten Abschnitt werden aus einer semiotischen Perspektive das kommunikative Geschehen und der Zeichengebrauch in der Mathematik analysiert. 1 2 3 4 5 6 7
Prolog Mathematik als Sprache – aber mit welchem Gegenstand? Mathematik – Sprache der Natur? Mathematik reguliert die (natürliche) Sprache Linguistische Perspektiven auf die Mathematik Epilog Literatur
1 Prolog Sprache und Mathematik sind nahezu gleichursprüngliche und gleichermaßen universelle Hervorbringungen und Träger menschlicher Kultur. In der Tat lassen sich mathematische Artefakte in frühesten Zeiten der Kulturgeschichte aufweisen, lange vor den ersten erhaltenen Zeugnissen einer Schriftsprache. Bekannt sind z. B. ein 18 cm langer Wolfsknochen, der in der gut untersuchten Mammutjägersiedlung Dolni Vestonice (Tschechien) gefunden wurde, mit einem Alter von 25 bis 30.000 Jahren und eine erst kürzlich auf der schwäbischen Alb gefundene Mammutrippe, deren Alter sogar auf etwa 30 bis 35.000 Jahre geschätzt wird. Beide enthalten Einkerbungen, die nahezu einhellig als Zahlzeichen interpretiert werden (vgl. den Abschnitt zur prähistorischen Mathematik in Wussing 2008). Allerdings ist eine klare Unterscheidung von Sprache und Mathematik weder historisch-genetisch noch systematisch trivial. So stellt Ernst Cassirer (1874‒1945) im ersten Band seiner Philosophie der symbolischen Formen in einem längeren Abschnitt zur „sprachlichen Entwicklung des Zahlbegriffs“ (Cassirer 2009 Bd. 11, 184) eine Fülle verschiedenster Kulturen dar, bei denen Zahl
https://doi.org/10.1515/9783110296259-002
10
Gregor Nickel
konzept und sprachlich-grammatikalische Formung einander auf jeweils eigentümliche Weise wechselseitig bedingen. In der Tat kann es im Folgenden nicht darum gehen, scheinbar wohlbekannte und voneinander klar abgegrenzte Gegenstände ‚Mathematik‘ und ‚Sprache‘ in ihrem Wechselverhältnis zu untersuchen. Die Thematik stellt sich als deutlich komplexer heraus, selbst wenn wir von einem naiv-lebensweltlichen Konzept von Sprache – als Medium verbaler, menschlicher Kommunikation – ausgehen werden und uns auf die einigermaßen klar abgrenzbare Wissenschaft Mathematik beschränken werden. Zumindest eine kurze Anmerkungen soll jedoch vorab der elementaren Seite der Mathematik gewidmet werden: Insbesondere für die mathematische Fachdidaktik kommen die natürliche Sprache und die kompetente Verwendung einer adäquaten Fachsprache als Bedingung und auch als u. U. entscheidende Hürde für das Lehren und Lernen der Mathematik in den Blick (vgl. hierzu etwa Ruf/ Gallin 1998, Maier/Schweiger 1999, Gallin 2011, Meyer/Tiedemann 2017). Da die Wissenschaft Mathematik nicht ohne weiteres auf einen Gegenstand – ein Mineral, einen Planeten, eine Rose, einen Roman, ein Gemälde, ein historisches Dokument – verweisen kann, der die Einheit ihrer Bemühungen garantiert, richtet sich die Aufmerksamkeit schnell auch auf die spezifische Weise des Sprach- und Zeichengebrauchs innerhalb der Mathematik. Der erste Abschnitt wird daher sowohl die Frage nach dem Gegenstand der Mathematik stellen und Antwortversuche von der Antike bis in die Gegenwart skizzieren als auch die jeweils korrelative Charakterisierung des mathematischen Sprachgebrauchs darstellen. Im zweiten Abschnitt wird eine ‚Standard-Antwort‘ auf diese Frage diskutiert, nämlich die mit der neuzeitlichen Physik aufkommende und die Anwendungen der Mathematik (auch in einem weiteren Sinne) leitende Meinung, Mathematik sei die ‚Sprache der Natur‘. In den beiden folgenden Abschnitten sind dann Sprache und Mathematik sowohl Gegenstand als auch methodische Perspektive – in jeweils vertauschten Rollen. Zunächst skizziert der dritte Abschnitt eine ‚Mathematisierung der Sprache‘, d. h. die insbesondere in der formalen Logik unternommenen Bemühungen um eine Analyse und vor allem Regelung von Sprache und Sprechen mit Hilfe mathematischer bzw. an der Mathematik orientierter Methodik. Der vierte Abschnitt dreht die Blickrichtung um: Aus einer semiotischen Perspektive wird das kommunikative Geschehen und der Zeichengebrauch in der Mathematik analysiert. Wir werden im Folgenden die Perspektive einer historisch orientierten Mathematik-Philosophie einnehmen; Mathematisches in einem ‚technischen Sinne‘ werden wir weitestgehend vermeiden bzw. durch Verweise ersetzen. Zur Beschreibung der Kommunikation innerhalb der (Wissenschaft) Mathematik möchte ich terminologisch unterscheiden: das Sprechen der Mathematiker (hierzu gehört das gesamte Spektrum von der informellen Rede über den Fach-Jargon bis zum formalen Beweis), die mehr oder minder präzise mathematische Fachsprache (im Wesentlichen schriftlich fixiert, ein Bestandteil ist die formalisierte Zeichen-Sprache), und die mathematische Sprache bzw. die Sprache Mathematik, in der die Wissenschaft Mathematik als Sprache angesprochen bzw. in Anspruch genommen wird.
Mathematik und Sprache
11
Im Zentrum der Arbeit, im Produkt Text, gibt es die Sprache Mathematik, ein System von Worten und Symbolen mit formal strikten Gebrauchsregeln. Dazu kommt der Mathematikerjargon, eine Mischung der Sprache Mathematik mit weniger formal regulierten Elementen und mit der Alltagssprache. […] Zum dritten bedienen sich die Mathematiker, wenn sie miteinander kommunizieren, auch der natürlichen Sprache […] Der Diskurs dreht sich um die Sprache Mathematik, wird aber keineswegs ausschließlich in ihr geführt. (Mehrtens 1990, 410)
2 Mathematik als Sprache – aber mit welchem Gegenstand? Mathematik ist eine Sprache und die Arbeit an ihr, darum kann sich die Identität nicht an einem ‚Gegenstand‘ herstellen, und darum auch bleiben die ‚Grundlagen‘ so unklar und umstritten. (Mehrtens 1990, 8)
Gehen wir aus von der halbwegs klar abgrenzbaren, wissenschaftlichen Disziplin Mathematik, wie sie spätestens im 6. vorchristlichen Jahrhundert im antiken Griechenland entstanden sein mag, so wird von philosophischer Seite ziemlich bald genau danach gefragt, worüber und auf welche eigentümliche Weise in der Mathematik eigentlich gesprochen wird. Hier geben Platon und Aristoteles zwei bis eute einflussreiche Antworten: Mathematik spricht – Platon zufolge – in uneigentlicher Rede über einen speziellen Typ unveränderlicher Gegenstände, nämlich Zahlen und geometrische Figuren, die grundsätzlich nur dem Geiste, nicht aber den leiblichen Sinnen zugänglich sind. Aristoteles widerspricht dem vehement: Platon nehme die scheinbar gegenständliche Rede in der Mathematik irrtümlich für bare Münze, die nicht-sinnlichen ‚mathematischen Gegenstände‘ gebe es jedoch gar nicht. Mathematik spreche über die gewöhnlichen, sinnlich erfassbaren Gegenstände, aber auf eine ganz spezielle Weise, wobei sie von allen sinnlichen Qualitäten abstrahiere. Eine dritte Alternative wird zunächst programmatisch im ausgehenden Mittelalter von Nikolaus Cusanus vorgedacht und im Verlauf der Mathematik-Geschichte des 19. und 20. Jahrhunderts umgesetzt: Mathematik ist demnach eine rein geistige Schöpfung des Menschen, der sich dabei strikt an das Prinzip vom auszuschließenden Widerspruch hält. Diese Sicht radikalisierend kann Mathematik schließlich als reine Sprache ganz ohne vorgegebenen Gegenstand verstanden werden, bzw. eine Sprache, die ihren Gegenstand gerade nur mit dem Sprechen über diesen selbst hervorbringt.
2.1 Platon – Mathematik spricht (auf unvollkommene Weise) über besondere Gegenstände Zumindest aus der Sicht der Grammatik nimmt Platon (428‒348 v. Chr.) im Bereich der Philosophie eine ähnliche Operation vor, wie sie bereits im Rahmen der wissenschaft
12
Gregor Nickel
lichen Mathematik erfolgt war. Aus der adjektivischen Bestimmung ‚ein gerechter Mensch‘ mit vorzeigbaren Exemplaren, etwa Sokrates, wird die Frage nach dem allgemeinen und ewigen Wesen ‚des Gerechten‘. In ähnlicher Weise hatte sich die Mathematik aus der Indienstnahme durch Händler und Steuereintreiber befreit – eine Emanzipation, die bereits in der Antike Pythagoras und den Pythagoreern zugeschrieben wird (vgl. hierzu Cassirer 2009, Bd. 16, 339ff.) – und fragt nun nicht mehr nach fünf Schafen oder der Fläche eines Feldes, sondern nach den arithmetischen Eigenschaften der ‚Fünf‘ bzw. den geometrischen Eigenschaften eines ‚Rechtecks‘. Und in der Tat verortet Platon im Liniengleichnis der Politeia die Gegenstände der Mathematik ebenso wie die philosophischen Ideen auf derselben Seite der Linie im Bereich des Unveränderlichen, nur dem Denken Zugänglichen (Platon, Politeia 509d‒511e), und er grenzt sie von den weniger wirklichen, mit den Sinnen erfassbaren, veränderlichen Gegenständen ab. In beiden Disziplinen, Mathematik und Philosophie, wird also über Entitäten gesprochen, deren Existenz gegenüber dem am Urteil der Sinne orientierten common sense überhaupt erst behauptet und verteidigt werden muss. Dabei stellt sich die Mathematik zu Platons Zeiten bereits als Wissenschaft mit einer Vielzahl akzeptierter Resultate und mit gefestigten Formen und Standards des Diskurses dar. Insofern kann Platon sie immer wieder als Musterbeispiel einer apriorischen Wissenschaft verwenden, und sie kann im Rahmen eines ‚Vorstudiums‘ den Weg zur Philosophie mit ihren eigenen apriorischen Formen bahnen. Nach Platon ist die ‚Richtung‘ des Diskurses allerdings in Mathematik und Philosophie genau gegenläufig, was u. a. die klare Abgrenzung des mathematischen Verstandes (διάνοια) von der eigentlich philosophischen Vernunft (νόησις) begründet. In der Mathematik müssen (und dürfen) wir von Setzungen ausgehen, die nicht weiter geklärt werden. Wir tun so, als verstünde es sich von selbst, was ‚Einheit‘, was eine ‚Zahl‘ oder eine ‚Figur‘ sei, und gehen dann — gemäß den strengen Schlüssen des Verstandes — von den Prinzipien zu den Folgen über (509d). Im Gegensatz zu diesem hypothetischdeduktiven Vorgehen (510c) strebt Philosophie zu einem voraussetzungslosen Anfang; zwar muss auch sie irgendwo beginnen, aber sie darf diesen – mehr oder minder beliebig gesetzten – Anfang nicht unbefragt lassen, sie darf ihn lediglich als Denkanstoß behandeln, um von hier aus zu einem ‚letztbegründeten‘ Prinzip zu gelangen. Hat sie dies gefunden, so soll sie von dort aus wiederum alles andere ableiten. Bei ihrem Bemühen kann sie niemals auf Sinnliches verweisen oder sich an Sinnlichem orientieren (vgl. Platon, Politeia 511b). Auch hier tun sich die Mathematiker beim Sprechen über ihre Gegenstände insofern leichter, als sie sinnliche Hilfsmittel, Rechensteine, Figuren im Sand etc. verwenden können. Es gilt demnach, dass sie sich
der sichtbaren Gestalten bedienen und ihre Reden auf diese beziehen, obwohl sie gar nicht über diese nachdenken, sondern über jene, denen diese gleichen; und daß sie ihre Erörterungen wegen des Quadrats selbst und der Diagonale selbst anstellen, nicht aber wegen derjenigen, die sie zeichnen; und so auch sonst überall dasjenige selbst, was sie nachbilden und abzeichnen, [...] deren sie sich zwar als Bilder bedienen, immer aber jenes selbst zu erkennen trachten, was man nicht anders erkennen [sehen] kann, als mit dem Verstand. (Platon, Politeia 510d)
Mathematik und Sprache
13
Obwohl die sichtbaren Figuren extrem hilfreich, vielleicht sogar unverzichtbar für Konstruktion und Beweisführung und jedenfalls für das Erlernen der Mathematik sind, wird die Mathematik dadurch gerade nicht zu einer Lehre von Rechensteinen oder Sandfiguren. Dass durch den Gebrauch sinnlicher Hilfsmittel zeitweilig der Eindruck entstehen konnte, Mathematik gehe ‚quasi-empirisch‘ vor, ist allenfalls einer ungenauen Analyse des Phänomens geschuldet. Gottlob Frege (1848‒1925) hatte diese Auffassung trefflich als „Pfefferkuchen- oder Kieselsteinarithmetik“ verspottet. Der mathematische Diskurs spricht also stets mehr oder minder uneigentlich, die Gefahr einer Verwechselung des eigentlichen Gegenstandes mit dem sinnlichen Gegenstand, der lediglich Hilfsmittel zur Verdeutlichung des Gemeinten sein sollte, ist dabei nie ganz abzuweisen. Und so kritisiert Platon die Metaphorik explizit, die in der Fachsprache der Mathematik zum Ausdruck kommt. Der Diskurs der Geometer scheine auf eine zeitliche Aktivität des (menschlichen) Konstrukteurs hinzuweisen und eine Veränderlichkeit der geometrischen Figuren in Folge dieser Konstruktionen. Tatsächlich veränderlich sei demgegenüber allenfalls das subjektive Wissen des Geometers, während die mathematischen Gegenstände jeder zeitlichen Veränderlichkeit entzogen seien. Mathematische Theorie wird hier also explizit in den schärfsten Gegensatz zu jeder (handwerklichen) Tätigkeit gerückt: Sie reden gar lächerlich; denn es kommt heraus, als ob sie bei einer Handlung wären und als ob sie eines Geschäftes wegen ihren ganzen Vortrag machten, wenn sie quadrieren, eine Figur anfügen, hinzusetzen und was sie sonst für Ausdrücke haben; die ganze Sache aber wird bloß der Erkenntnis wegen betrieben. [...] wegen der Erkenntnis des immer Seienden, nicht des bald Entstehenden, bald Vergehenden. [...] Denn offenbar ist die Geometrie die Erkenntnis des immer Seienden. (Platon, Politeia 527b)
Die Frage nach dem Verhältnis von eigentlich gemeintem Gegenstand und eventuell unzureichendem mündlichen Sprechen bzw. sicherlich unzureichendem Schreiben über diesen Gegenstand führt in das weite Feld von Platons „ungeschriebener Lehre“, das wir nur an einer Stelle berühren wollen (vgl. Ferber 2007). In Platons siebentem Brief, der in diesem Kontext als eine Hauptquelle herangezogen wird, finden wir nämlich just einen mathematischen Gegenstand, den geometrischen Kreis, um das Verhältnis von Gegenstand, Erkenntnis und sprachlichem Ausdruck zu illustrieren: Bei einem jeden der Dinge gibt es drei Momente, durch welche nach ewiger Weltordnung die vollständige geistige Erkenntnis Schritt für Schritt zu Stande kommt, das vierte ist die Erkenntnis selbst, als das fünfte ist dasjenige zu setzen, was eben erst sich durch Vertiefung in der Vernunft erkennen läßt und das wahre Urbild des Dinges [εἶδος] ist. Das erste dieser Momente ist der Name, das zweite ist die sprachlich ausgedrückte Begriffsbestimmung, das dritte ist das durch die körperlichen Sinne wahrnehmbare Bild, das vierte ist die begriffliche Erkenntnis. (Platon, Politeia 342a‒343c)
In der Geometrie wird demnach mit dem rein konventionellen Wort ‚Kreis‘ ein davon ganz unabhängiger, unveränderlicher Gegenstand, ein ‚Kreis an sich‘ oder ‚Urkreis‘
14
Gregor Nickel
bezeichnet bzw. intendiert; die (Euklidische) Definition, „das von seinem Mittelpunkt überall gleich weit Entfernte“, mag für die weitere Arbeit der Geometrie nützlich sein, bleibt aber grundsätzlich im Bereich des unzureichenden und unwesentlichen sprachlichen Ausdrucks. Das sinnliche Bild, das erzeugt und wieder ausgelöscht werden kann, ist gleichfalls in wesentlichen Aspekten anders als der eigentliche Kreis, etwa durch seine Veränderlichkeit, durch hinzukommende kontingente Qualitäten wie z. B. Farbe und Strichdicke oder durch Unvollkommenheiten. Die gesuchte Erkenntnis wird von den ersten drei Momenten unterschieden, insofern sie weder sprachlicher noch sinnlicher Art ist, sondern „innerhalb der Seele“ stattfindet. Sofern diese Erkenntnis gelingt, steht sie dem eigentlichen Gegenstand ‚Platonischer Kreis‘ unvergleichlich viel näher als die ersten drei Momente, sie unterscheidet sich jedoch gerade wegen ihres Bezuges auf die Seele des Erkennenden nach wie vor von dem Gegenstand selbst. Platonische Motive bleiben in der Reflexion über Mathematik bis in die Gegenwart präsent, auch wenn Platon aus unterschiedlichen Gründen scharfer Kritik unterzogen wurde und ernstzunehmende Konkurrenten auf den Plan getreten sind. Die offenkundige Widerständigkeit der mathematischen ‚Gegen-stände‘ gegenüber allzu beliebigem Sprechen, das offenbar schnell ‚falsch‘ werden kann, die Spontaneität, mit der geistige ‚Ein-sichten‘ in der Mathematik erfolgen können, die Rolle präformaler Konzepte für den Fortgang der Disziplin wären allerdings einige Argumente dafür, Platons Perspektive nicht allzu schnell für obsolet zu halten.
2.2 Aristoteles – Mathematik spricht auf besondere Weise über die gewöhnlichen Gegenstände der Sinne Platons ontologische wie epistemische Konzeption wird ausgerechnet von seinem Meisterschüler Aristoteles (384‒322 v. Chr.) einer scharfen Kritik unterzogen. Die zentrale Fragestellung finden wir sehr klar formuliert im dritten Buch der Metaphysik:
Ferner ist die Frage, ob man nur von den sinnlichen Wesen [οὐσία] zu behaupten hat, daß sie seien, oder auch noch von anderen außer diesen, und ob dann, nur eine oder mehrere Gattungen von Wesen zu setzen sind, wie dies einige tun, welche die Ideen annehmen und das Mittlere, wovon, wie sie sagen, die mathematischen Wissenschaften handeln. (Aristoteles, Met. III-2/997b)
Vor allem im ersten Buch der Metaphysik finden wir eine Fülle von Argumenten gegen die Behauptung, es gäbe außer den sinnlich erfassbaren Dingen, die nach Aristoteles die einzigen realen Wesenheiten sind, noch andere, ebenso reale oder gar ‚realere‘ Dinge. Ein wichtiger Grund für den Irrtum Platons und der Pythagoreer sei es, die Auffassung der Mathematiker von ihrem Gegenstand kritiklos für begründet zu halten und die eigene ontologische Konzeption daran zu orientieren (Aristoteles, Met. I, Kap. 9). Die Zahlen seien aber nicht in den sinnlichen Dingen als — wie auch immer wirksame — erste Ursachen, und sie seien auch nicht als abgetrennt von den Dingen,
Mathematik und Sprache
15
für sich existierend zu denken. Zahl sei immer Zahl von etwas. Damit stellt sich nun aber umso dringlicher die Frage, wovon eigentlich die Mathematik spricht: Überdies ist noch zu untersuchen, ob die Zahlen, Linien, Figuren und Punkte Wesen [οὐσία] sind oder nicht, und wenn sie Wesen sind, ob abgetrennt von den sinnlichen oder immanent in denselben. In all diesen Punkten ist nicht nur die Auffindung der Wahrheit schwer, sondern selbst eine gute Fragestellung für das Denken nicht leicht. (Aristoteles, Met. III-1/996a)
Einerseits versteht es sich von selbst, dass die Mathematiker nicht von schlichten Luftschlössern oder Hirngespinsten sprechen. Die Mathematik bleibt eine Wissenschaft, die ihre Berechtigung hat, ja sie hat sogar gegenüber der Philosophie den Vorzug ihre Begriffe so klar und unzweideutig zu definieren, dass Fehlschlüsse durch Äquivokation ausgeschlossen sind (vgl. Aristoteles, Anal. post. I,12 77b-28). Die Antwort des Aristoteles soll nun aber andererseits auch nicht auf der Platonischen Linie liegen, und damit muss die Auffassung der Mathematiker von ihren Gegenständen revidiert und ihre Redeweise kritisch rekonstruiert werden. Seine Lösung ist, sie als eine spezielle Weise zu interpretieren, über die gewöhnlichen Dinge der Sinne zu urteilen: Der Mathematiker stellt nun Betrachtungen an über das, was aus einer Wegnahme [ἀφαίρεσις, Abstraktion, GN] hervorgeht. Er betrachtet nämlich die Dinge, indem er alles Sinnliche wegläßt – z. B. das Schwere und das Leichte, das Harte und sein Gegenteil, ferner das Warme und das Kalte und die übrigen sinnlichen Gegensätze –; er läßt nur das Quantum und das Zusammenhängende übrig. (Aristoteles, Met. XI-3)
In der Mathematik spricht man demnach durchaus über Gegenstände, nämlich dieselben Gegenstände, die sich auch den Sinnen zeigen; als Wissenschaft untersucht sie jedoch nur ganz spezielle Eigenschaften und ignoriert alles andere, was sich den Sinnen darbietet. Übrig lässt der mathematische Blick nur die Quantität und das in ein, zwei oder drei Dimensionen Zusammenhängende. Die fachliche Rede der Mathematiker wird (ungewollt?) elliptisch, indem sie den (eigentlich gemeinten) sinnlichen Gegenstand nicht erwähnen. Allerdings wird auch bei Aristoteles die Mathematik keineswegs zu einer empirischen Disziplin: Wenn den Gegenständen der Mathematik zukommt, sinnlich wahrnehmbar zu sein, sie aber nicht von ihnen handelt, insofern sie sinnlich wahrnehmbar sind, so werden deshalb die mathematischen Wissenschaften nicht Wissenschaften vom Sinnlichen sein, aber ebensowenig getrennte, selbständige Wesen außer dem Sinnlichen zu ihrem Gegenstand haben. (Aristoteles, Met. M 1078a)
Gerade durch den weitestgehenden Verzicht auf das Stoffliche, das Empirische und damit Kontingente an ihrem Gegenstand werde die Erkenntnis der Mathematik genauer als diejenige fast aller anderen Wissenschaften. Übertroffen werde sie darin nur noch durch die Metaphysik. Dass der mathematische Diskurs und seine Gegenstände ‚abstrakt‘ seien, formuliert ein gängiges Stereotyp. Die ähnlich populäre Anbindung seiner Gegenstände an
16
Gregor Nickel
die empirischen Gegenstände des common sense durch den Vorgang einer ‚Abstraktion‘ in Bezug auf Quantität und Zusammenhängendes ist davon allerdings zu unterscheiden. Denn gerade die besonders ‚abstrakten‘ Gegenstände der mathematischen Moderne sind keineswegs mit Blick auf sinnliche Gegenstände gebildet worden; ihr Ursprung ist vielmehr rein innermathematisch motiviert.
2.3 Cusanus – Mathematik ist wie die Sprache vom menschlichen Geist hervorgebracht Um die Wende zur ‚Neuzeit‘ wird eine dritte große Alternative vorgeschlagen, wie mathematische Gegenstände und mathematischer Diskurs gedacht werden können: Nikolaus von Kues (1401‒1464) macht den menschlichen Geist selbst zum Schöpfer der mathematischen Gegenstände. Auch wenn er immer wieder Bezug auf die antike Philosophie nimmt, so grenzt er sich u. a. in diesem Punkt ganz bewusst von der Tradition ab: Sowohl Platon als auch Aristoteles hätten nämlich den zentralen Leitsatz „der Mensch ist ein zweiter Gott“ missachtet (vgl. Nikolaus von Kues, De beryllo, n. 7). Der Mensch könne demnach in schöpferischer Weise Formen (der Wissenschaften und Künste), Begriffe und Taten hervorbringen. So gilt nach Cusanus in explizitem Gegensatz zu Platons Konzeption des geometrischen Kreises im siebten Brief,
daß unser Geist, der die mathematischen Gegenstände schafft, das was er schaffen kann, wahrer und wirklicher in sich hat, als es außer ihm ist. [...] Und so ist es bei allem dergleichen, beim Kreis, bei der Linie, beim Dreieck, auch bei unserem Zahlbegriff, kurz bei allem, was seinen Ursprung aus dem menschlichen Geist nimmt und der Natur entbehrt. (Nikolaus von Kues 2002, De beryllo, c. 33, n. 55)
Wenn der menschliche Geist, mens, mathematisch tätig wird, dann bringt er insbesondere seinen begrifflich-diskursiven Verstand, ratio, und seine Einbildungskraft, imaginatio, ins Spiel, um Zahlen und Figuren hervorzubringen. Hierbei befolgt er das Prinzip des auszuschließenden Widerspruchs, das gerade die ratio im Gefüge der Geistesvermögen auszeichnet: Gegensätzliches von ein und demselben Gegenstand zu prädizieren, ist strikt auszuschließen. Nikolaus unterstreicht einerseits die zentrale Bedeutung des Satzes vom Widerspruch, er wird geradezu zum Charakteristikum und alleinigen Grund des mathematischen Wissens: In der Mathematik kann man nichts wissen, was eine andere Wurzel hätte. Alles, was man als wahr beweist, ist deshalb wahr, weil sonst das Zusammenfallen der Gegensätze unterschoben würde, und das hieße den Bereich der ratio verlassen. (Nikolaus von Kues 2002, De coniecturis II c. 1, n. 77, 1 ff.)
Andererseits begrenzt er die Gültigkeit des Widerspruchsprinzips auf genau diesen Bereich der in strikten Gegensätzen unterscheidenden ratio, die sich in der Mathematik auf exemplarische Weise entfaltet. Das geistige Einheitsvermögen des intellectus
Mathematik und Sprache
17
reguliert wiederum die ratio und übersteigt sie, insofern er mit dem Zusammenfall der Gegensätze, der coincidentia oppositorum, virtuos umgehen kann (vgl. hierzu Nickel 2005a). Die mathematischen Gegenstände entsprechen insofern in bestmöglicher Weise gerade nur der menschlichen ratio, und deshalb sind sie in Bezug auf die ratio auch am genauesten zu erkennen. Daher findet sich innerhalb der Ordnung der mathematischen Begriffe auch ein engstmöglicher Zusammenhang: Wenn »Dreieck« der genaue Name der dreiwinkligen Figur ist, dann weiß ich die genauen Namen aller Vielecke. Dann weiß ich nämlich, daß der Name der vierwinkligen Figur »Viereck« sein muß, der der fünfwinkligen »Fünfeck« und so fort. (Nikolaus von Kues 2002, De mente, c. 3, n. 70, 7 ff.)
Dieser Begriffsholismus gilt grundsätzlich auch für die genauen Begriffe aller Gegenstände: Das genaue Wissen eines einzigen Begriffs würde genaues Wissen aller Begriffe implizieren. Allerdings stehen dem Menschen die genauen Begriffe der Dinge gerade nicht zur Verfügung, seine sprachlichen Formungen lassen sich – wie auch die mathematischen Konzepte – auf die Gegenstände der Sinne nur ungenau und als Mutmaßung anwenden. Die außergewöhnliche Gewissheit und Klarheit der mathematischen Erkenntnis, sofern sie im geistigen Bereich der ratio verbleibt und nicht auf eine Erkenntnis der sinnlich erfassbaren Gegenstände abzielt, liegt eben gerade darin, dass wir die von uns selbst geschaffenen Gegenstände viel genauer kennen können als die lediglich durch die Sinne wahrgenommenen und daher nie vollständig durchschaubaren empirischen: Ein Mensch hat zum Beispiel die mechanische Kunst und hat die Gestalten der Kunst wahrer in seinem geistigen Begriff, als sie nach außen hin gestaltbar sind, wie ein Haus, das auf Grund der Kunst entsteht, eine wahrere Gestalt im Geiste als in den Hölzern hat. (Nikolaus von Kues 2002, De beryllo, c. 33, n. 56)
Diese gegenüber der Antike radikal neue Sicht auf das kreative Vermögen des menschlichen Geistes wird durch zwei theologische Figuren ermöglicht: Zum einen darf der Mensch als Ebenbild Gottes, imago dei, gelten, zum anderen aber ist der jüdisch-christliche Gott dadurch ausgezeichnet, dass er als absoluter Ursprung ‚etwas mit sich anfangen‘ kann, und so aus dem Nichts heraus etwas ins Werk setzt (creatio ex nihilo). Cusanus stellt nun eine Analogie zwischen dem menschlichen und dem göttlichen Geist auf, gemäß der sich der Mensch zur Mathematik genauso als Schöpfer verhält wie Gott gegenüber den Dingen der sinnlich erfassbaren Welt. Die Mathematik wird auf diese Weise erweiterungsfähig und erweiterungsbedürftig, sie wird zu einer unendlichen Aufgabe für den menschlichen Geist. Folgen wir dieser Linie, so kann die Mathematikgeschichte als Geschichte zunehmender Autonomie beschrieben werden: Bereits mit Pythagoras macht sich die Mathematik von der Indienstnahme durch die Ökonomie frei, Platon sichert ihr einen eigenen, gleichwohl vorgegebenen Bereich ewiger Gegenstände, Aristoteles eine ganz eigene Art, über die wiederum vorgegebenen, empirischen Dinge zu sprechen. Erst mit Cusanus kann sie schließlich als
18
Gregor Nickel
gänzlich autonome Wissenschaft des menschlichen Geistes aufgefasst werden, der ihre Gegenstände gar nicht mehr extern vorgegeben sind.
2.4 Die Wende zur Mathematischen Moderne Die wissenschaftliche Disziplin Mathematik realisiert ihre Autarkie erst im Laufe der folgenden Jahrhunderte, und die Ansichten, was den ‚mathematischen Gegenstand‘ ausmacht, bleiben durchgehend von Platonischen, Aristotelischen, Cusanischen Motiven beeinflusst. Eine wichtige Etappe der Emanzipation ist das Aufkommen nichteuklidischer Geometrien im 19. Jahrhundert, also von Alternativen zur bis dahin unbestreitbar gültigen Geometrie Euklids. Geometrie ist seitdem nicht mehr die mathematische Theorie des ‚wirklichen Raumes‘, sondern eine Theorie alternativer ‚möglicher Räume‘, wobei deren Denkmöglichkeit nur noch die interne Konsistenz bedeutet. Damit gewinnt natürlich das (formal-sprachliche) Kriterium der Widerspruchsfreiheit größte Bedeutung, denn die Legitimität der Geometrie kann nun nicht mehr daran festgemacht werden, dass ein alternativloser, objektiver (wenn auch nicht empirischer) Gegenstand ‚Raum‘ zutreffend beschrieben wird. Türöffner der mathematischen Moderne – allerdings auf dem Boden einer eher konservativen, platonistischen Philosophie – wird schließlich Georg Cantor (1845‒1918), der mit seiner transfiniten Mengentheorie zugleich einen ganz neuen mathematischen Gegenstandsbereich erschließt wie auch eine Rahmentheorie bzw. ‚Sprachlehre‘ für die allermeisten mathematischen Konzepte anbietet. Cantors transfinite Mengen eröffnen ‚nebenbei‘ eine völlig neue Perspektive auch für die Frage nach dem Verhältnis von Sprache und Mathematik. Cantor kann nämlich zeigen, dass sich das für die gesamte Analysis zentrale Konzept des Kontinuums, das die Moderne durch die reellen Zahlen repräsentiert, nur dann als aus einzelnen Punkten bestehend denken lässt, wenn man bereit ist zu akzeptieren, dass dies mehr als abzählbar unendlich viele Punkte (bzw. reellen Zahlen) sind (ganz allgemein führen Cantors Mengenbildungen zu einer unendlich abgestuften Hierarchie unendlicher Mächtigkeiten, deren kleinste die abzählbare Mächtigkeit der natürlichen Zahlenreihe ist). Nun sind offenkundig die aus einem endlichen (oder abzählbaren) Zeichensatz konstruierbaren Wörter (beliebiger endlicher Länge) nur abzählbar viele. Und das bedeutet einerseits, dass sich alle Texte einer Schriftsprache mit präzisem Zeichensatz eindeutig durch die natürlichen Zahlen durchnummerieren bzw. codieren lassen (dies wird ein zentraler Baustein für Gödels Theoreme), und dass sich andererseits nur ein vergleichsweise verschwindend kleiner (abzählbarer!) Teil aller (überabzählbar vielen) reellen Zahlen mit einem eigenen Namen versehen lässt; fast alle anderen müssen im strikten Sinne anonym bleiben (vgl. hierzu Scholz/Hasenjaeger 1961, 17). Gegen die Kritik seiner Kollegen verteidigt Cantor eine nahezu unbeschränkte Freiheit bei der Bildung neuer Konzepte (hier insbesondere transfiniter Mengen):
Mathematik und Sprache
19
Die Mathematik ist in ihrer Entwickelung völlig frei und nur an die selbst-redende Rücksicht gebunden, daß ihre Begriffe sowohl in sich widerspruchslos sind, als auch in festen durch Definitionen geordneten Beziehungen zu den vorher gebildeten, bereits vorhandenen und bewährten Begriffen stehen. (Cantor 1962, 182)
Die von Cantor beanspruchte Freiheit wird aus verschiedenen Richtungen einer teilweise vehementen Kritik unterzogen (vgl. Mehrtens 1990). Leopold Kronecker (1823‒ 1891) etwa führt an, dass alle mathematischen Gegenstände möglichst konkret, letztlich am besten in der Form natürlicher Zahlen bestimmbar sein müssten. Cantors Theoreme über transfinite Mengen seien somit nur Gerede über Luftschlösser. Die normative Frage, über welche Gegenstände in der Mathematik eigentlich gesprochen werden darf, wird allerdings recht schnell von der mathematisch reizvollen Frage überlagert, welche (formal-sprachlichen bzw. axiomatischen) Regelungen die interne Widerspruchsfreiheit der Begriffsbildungen garantieren. Diese Frage kann u. a. durch verstärkte Formalisierung mathematisch präzisiert und bearbeitet, wenn auch nicht abschließend beantwortet werden. Vorbild für eine solche Thematik sind David Hilberts (1862‒1943) Grundlagen der Geometrie von 1899, in denen ein formaler, axiomatischer Rahmen für unterschiedliche Varianten der Geometrie präsentiert wird. Die Frage nach der ‚wahrhaften Geltung‘ einer dieser Geometrien stellt er nicht mehr: Wenn in seinen Grundlagen von „Punkten“, „Geraden“, „Ebenen“ etc. gesprochen wird, dann ist dies nur noch eine Reverenz gegenüber der mathematischen Tradition und dient allenfalls der Heuristik, signalisiert aber keinesfalls den Anspruch, vorab existierende Gegenstände korrekt zu beschreiben. Die Axiome dürfen in völliger Unabhängigkeit davon gesetzt werden. Solange ihre Konsistenz gesichert ist, schaffen sie einen legitimen Bereich mathematischer Gegenstände. Gegenüber Gottlob Frege (1848‒1925), der darauf besteht, dass Mathematik auf wahre Aussagen über unabhängig existierende Gegenstände abziele und dass sie daher auch widerspruchsfrei sprechen müsse, dreht Hilbert hier das Verhältnis von Wahrheit und Widerspruchsfreiheit um:
Wenn sich die willkürlich gesetzten Axiome nicht einander widersprechen mit sämtlichen Folgen, so sind sie wahr, so existieren die durch die Axiome definierten Dinge. Das ist für mich das Criterium der Wahrheit und Existenz. (Hilbert an Frege vom 29.12.1899, Frege 1976, 66)
Zu betonen ist hierbei allerdings, dass es Hilbert nie um ‚völlig willkürlich‘ gesetzte Axiome ging, sondern um mathematisch interessante (vgl. Abschnitt 1.4) bzw. für die Naturwissenschaften, insbesondere die Physik brauchbare (vgl. Abschnitt 2). Die nun zentrale Konsistenzfrage für die Geometrien beantwortet Hilbert zwar nicht absolut, aber doch in relativer Weise: Sofern die bereits 1889 durch Giuseppe Peano (1858‒1932) axiomatisierte Arithmetik widerspruchsfrei ist, sind dies auch die von Hilbert axiomatisierten Geometrien. Ein ähnliches Vorgehen schlägt Hilbert nun auch für die Mengentheorie Cantors vor: Eine streng formale Fassung, die die inzwischen aufgetauchten, offenkundig widersprüchlichen Mengen-Bildungen von vornherein ausschließt, und
20
Gregor Nickel
anschließend ein Beweis der Konsistenz dieses Axiomensystems. Dabei müsse strikt zwischen der (formalisierten) Mathematik – Geometrie, Mengentheorie, Arithmetik etc. – und einer (inhaltlichen) „Metamathematik“ unterschieden werden, die für den jeweiligen Konsistenzbeweis zuständig ist. Radikal interpretiert besteht die formale Mathematik in diesem Programm nur noch aus wohl-unterscheidbaren Zeichen ohne eine wie-auch-immer geartete Referenz; Theoreme werden zu reinen Zeichenketten, die aus (möglichst wenigen) vorab gesetzten Axiomen (wiederum Zeichenketten ohne externe Referenz) ‚bewiesen‘ werden sollen, d. h. durch Operationen nach vorab festgelegten, formalen Regeln aus den Axiomen abzuleiten sind. Eine metamathematische Aussage ist dann etwa die Widerspruchsfreiheit des formalen Systems, wobei es gar nicht mehr so klar ist, was ein ‚Widerspruch‘ in der formalen Mathematik überhaupt sein soll. In seiner axiomatischen Behandlung der Arithmetik führt Hilbert die formale Zeichenkette 0≠0 als Stellvertreter ein: Gemäß dem metamathematischen Prinzip des ex falso quodlibet wird Widersprüchlichkeit mit der formalen Ableitbarkeit dieser Zeichenkette identifiziert. Mit dem metamathematischen Blick ‚von außen‘ soll dann gezeigt werden, dass in der formalisierten Arithmetik die obige Zeichenkette gerade nicht abgeleitet werden kann. Der Vergleich mit einem Spiel wie Schach oder Mühle liegt nahe und wird in den Debatten vielfach verwendet: Die Zeichenketten entsprechen Stellungen auf dem Spielbrett, die Ableitungsregeln entsprechen den erlaubten Zügen des Spiels. Ein metamathematischer Satz entspräche dann beispielsweise einer Aussage, die die Erreichbarkeit bestimmter Spiel-Stellungen durch gültige Spielzüge ausschließt. Wiederum soll zumindest in einer kurzen Bemerkung die innermathematische Kritik an diesem Forschungsprogramm erwähnt werden. Besonders prominent tritt hier Bertus Brouwer (1881-1966) hervor, der auch die griffige Apostrophierung für die Opposition im mathematischen Grundlagenstreit prägt: hier der „Formalismus“ Hilberts, dort sein eigener „Intuitionismus“. Im Gegensatz zu Hilberts leerem Zeichenspiel auf dem Papier gründe sich die Mathematik in der Einheit des denkenden Subjekts, und sie könne erst im Nachhinein und ggf. nur unvollkommen sprachlich kommuniziert werden (vgl. hierzu Mehrtens 1990, 257). Transfinite Mengen- bzw. Begriffsbildungen sind demnach nur mit äußerster Zurückhaltung zu verwenden, und insbesondere sei hier die Verwendung des logischen Prinzips vom ausgeschlossenen Dritten nicht unbeschränkt zulässig (vgl. Abschnitt 3), was Hilbert seinerseits als „Verbotsdiktatur“ bezeichnet. Eine gewisse Ironie der Geschichte ist es, dass Brouwers Schüler, Arend Heyting (1898‒1980), ganz gegen die Intention seines Lehrers eine Formalisierung der intuitionistischen Logik vorlegt. Die Auseinandersetzung um die Grundlagen hat natürlich auch eine Dimension in der Metaphorik der natürlichen Sprache des Diskurses, die von Mehrtens eingehend untersucht wird:
‚Anschauung‘, ‚Intuition‘, ‚Konstruktion‘ stehen auf der einen Seite und erzählen die Fabel von der Arbeit an der Wahrheit, deren Ur-Grund den Menschen gegeben und den Mathematikern als Gabe gewährt ist. […] Dagegen steht die Moderne mit ‚Freiheit‘, ‚Schöpfer‘, ‚Zeichen‘ und ‚System‘, später erst in die ‚Struktur‘ gefasst. Hilbert, herausgefordert von der Gegenmoderne, arbei-
21
Mathematik und Sprache
tet noch an einer einheitlichen Fabel, in der im ‚Zeichen‘ die ‚prästabilierte Harmonie‘, die auf das Ganze der Welt weist, mit der partikularen Wahrheit der Mathematik verknüpft wird, die, in der Meta-Mathematik mathematisiert, dem meisterlichen Denken untertan gemacht werden soll. (Mehrtens 1990, 511 f.)
Die Beziehung von mathematischer Sprache und Gegenstand ist in Hilberts ‚formalistischer‘ Konzeption allerdings vielschichtiger als die (teilweise polemische) Metapher vom leeren Zeichenspiel nahelegen würde. Zunächst werden aus mannigfachen Anwendungsbezügen und innermathematischen Entwicklungen bestimmte ‚mathematische Gegenstände‘ und Theorien ‚geerbt‘. Um deren Legitimität angesichts von Pluralisierung (Geometrie) und drohenden Inkonsistenzen (Mengentheorie) zu sichern, wird der traditionelle Gegenstandsbezug durch Formalisierung radikal eliminiert. Die Metamathematik soll sich schließlich auf die formalisierte Mathematik und deren Zeichen als speziellen Gegenstand beziehen und ihre ‚Konsistenz‘ beweisen. Nun zeigen allerdings kurze Zeit später die Resultate von Kurt Gödel (1906‒1978), dass sich für ‚hinreichend interessante‘ formale Systeme die Trennung von Mathematik und Metamathematik nicht durchhalten lässt. Metamathematische Aussagen über formale Ableitbarkeit und Widerspruchsfreiheit eines solchen formalen Systems können ihrerseits formalisiert werden – Gödel gelingt durch ein geschicktes Kodierungs-Verfahren die Übersetzung aller (formalisierten) mathematischen Aussagen, die ja als schlichte Zeichenketten darstellbar sind, in eindeutig gegebene Zahlen und der relevanten meta-mathematischen Aussagen in zahlentheoretische, also mathematische Aussagen, die dann ihrerseits formalisierbar sind. Damit gelingt für diese Systeme eine Art ‚mathematisches Selbstgespräch‘. Anders ausgedrückt, wird ein – aus der Sicht der Metamathematik als bedeutsam beurteilter – Prozess innerhalb der Mathematik, etwa ein Beweis, zu einem formalen mathematischen Objekt, das wiederum mittels mathematischer Methoden untersucht werden kann. Zugleich zeigt Gödel, dass der ursprünglich gesuchte Konsistenzbeweis etwa für Arithmetik oder Mengentheorie nicht möglich ist. Selbstverständlich nimmt Gödel seinerseits dabei einen vormathematischen (u. a. natürlich-sprachlichen) Bezugsrahmen in Anspruch. Bemerkenswert ist nun allerdings, dass Gödels Resultate, die streng genommen die Aussichtslosigkeit des Hilbert-Programms zeigen, gerade nicht das Ende der Formalisierung bedeuten. Im Gegenteil fügen sie sich mit ihrem Interesse hervorragend in den neu entstehenden Zweig der mathematischen Logik und Grundlagenforschung ein, und passen im Stil zur grundsätzlichen Tendenz einer Formalisierung aller Subdisziplinen (vgl. Mehrtens, 129). Erst das ausgehende 20. Jahrhundert wendet sich mit dem zunehmenden Einsatz elektronischer Rechner und einer vermehrten Anwendungsorientierung in gewisser Weise vom Stil der „Modernen Mathematik“ ab (zu diskutieren wäre nun z. B. der zunehmende Einsatz von durch Computer generierten Bildern als neues Medium der Erkenntnis, vgl. auch Metten in diesem Band). Die These einer dominanten Charakteristik der Mathematik als ganz spezieller Sprache, der mit der Wende zur Moderne in radikaler Weise zum Tragen kommt, soll hier allerdings nochmals in den Worten des
22
Gregor Nickel
Mathematik-Historikers Herbert Mehrtens (1946‒2021) unterstrichen werden, der die Debatten im ausgehenden 19. Jahrhundert und der ersten Hälfte des 20. Jahrhunderts längs der Unterscheidung „Moderne“ vs. „Gegenmoderne“ in vielen Verästlungen und Verknüpfungen nachzeichnet: Die Einheit der Mathematik, die Bedingung der Möglichkeit ihrer internen Kommunikation liegt [...] in ihrer Sprache. [...] Sie ist das primäre Produktionsziel mathematischer Arbeit, allemal in der Moderne. Diese Sprache läßt sich weder einfach als Gegenstand der Arbeit bestimmen, weil ja in ihr gedacht und kommuniziert wird, noch ist sie schlicht ein Fundus von Kommunikationsmitteln. Die Mathematiker arbeiten gleichsam an der Sprachwelt, in der sie leben. (Mehrtens 1990, 414)
2.5 Mathematik als Nachdenken über sprachloses Operieren oder doch als Diskurs mit zentralen Themenfeldern? Die Auffassung, Mathematik sei im Wesentlichen eine Sprache, die sich ausschließlich auf sich selbst bezieht, und die Arbeit an dieser Sprache, ist allerdings nach wie vor nicht unwidersprochen. Abschließend sollen beispielhaft zwei sehr unterschiedliche Gegenpositionen skizziert werden. Paul Lorenzen (1915‒1994) hält der „beinahe schon zum Dogma gewordenen These, dasz [sic!] Mathematik Sprache sei“ (Lorenzen 1956, 181) Argumente für die AntiThese entgegen, um damit allerdings eine friedliche Vermittlung von These und Anti-These zu ermöglichen. Dabei schließt er sich einer Sicht auf Mathematik an, die in ihr das Operieren mit Zeichen, auf deren mögliche Referenz es dabei gerade nicht ankommt, betont. Damit finden wir zunächst eine zentrale Gemeinsamkeit von Mathematik und Sprache, „beide operieren jedenfalls mit Zeichen“ (Lorenzen 1956, 181). Die entscheidende Differenz macht Lorenzen nun an den unterschiedlichen Zwecken fest. Die Grundfunktion der Sprache sei die „Beschreibung (Deskription) von Wirklichem.“ Für die Mathematik gelte dies nicht, zumindest wenn man elementares Zählen und Rechnen ausschließe und sich auf die „eigentliche“ Mathematik beschränke (Lorenzen 1956, 182). Hier zeige sich ihre „operative Grundfunktion“ (Lorenzen 1956, 182), die er mit drei kurzen Beispielen illustriert. Die (metamathematische) Aufgabe des Mathematikers charakterisiert er dabei folgendermaßen: Ein System von Regeln zur Konstruktion von Zeichen ist ihm vorgegeben. Seine Aufgabe ist es nun nicht, mechanisch nach diesen Regeln zu operieren, sondern nach Methoden zu suchen, die diese Arbeit erleichtern. [...] Die geistige Aufgabe, die dem Mathematiker gestellt ist, nämlich eine Technik zur Behandlung von Konstruktionsregeln zu entwickeln, ist mit der deskriptiven Aufgabe der Sprache schlechthin unverträglich. (Lorenzen 1956, 183 ff.)
Es liege also auf der Hand, Mathematik und Sprache als „voneinander unabhängige Fähigkeiten des Menschen“ aufzufassen (Lorenzen 1956, 185). Die irrige Meinung, Mathematik sei eine (spezielle) Sprache, stamme aber daher, dass man – wiederum irrig – annehme, auch die Mathematik hätte Gegenstände, die sie beschreibe. Die Rede von
Mathematik und Sprache
23
Gegenständen im mathematischen Diskurs sei jedoch nicht mehr als eine façon de parler: Die Möglichkeit, ideale Gegenstände einzuführen [...] trägt sicherlich viel dazu bei, die Mathematik mit einer deskriptiven Sprache zu verwechseln. Der Gegenstand der Mathematik sind nicht die Bedeutungen ihrer Zeichen, sondern sind die Konstruktionsregeln, die das Operieren mit den Zeichen definieren. (Lorenzen 1956, 186)
Einen Kontrapunkt zu Lorenzens Auffassung stellen Positionen dar, die ihre Motivation aus einer genauen Betrachtung der Mathematik-Geschichte beziehen und dieser eine zentrale Rolle auch für den systematischen Blick auf die Mathematik zubilligen. Immerhin geht es in der ‚real existierenden Mathematik‘ keinesfalls um völlig beliebig gewählte Systeme von Axiomen ohne jede Bedeutung. Ganz im Gegenteil gibt es zentrale Themen, die teilweise jahrhundertelang bearbeitet werden. Ralf Krömer unternimmt es, solche Zentral-Begriffe bzw. -Themen für die Mathematik aufzuzeigen, die durch eine Familienähnlichkeit im Sinne Ludwig Wittgensteins zusammengehalten werden: [D]die Begriffe Zahl, Menge, Funktion, Struktur, Raum stiften Mathematik, weil Mathematiker, die den mathematischen Diskurs erlernen, zu ihrer vernünftigen Verwendung letztlich durch Angabe von zahlreichen miteinander ‚irgendwie‘ verwandten Beispielen hingeführt werden, nicht durch Angabe einer präzisen Definition, und sie gerade deshalb als undefinierbar, unabgeleitet, grundlegend, die Mathematik charakterisierend wahrnehmen. (Krömer, 2010, 219)
Und so liegt es also schon aus historischen Gründen nahe, von einem wie auch immer gearteten ‚Gegenstand‘ des mathematischen Interesses zu sprechen. Imre Lakatos (1922‒1974), den wir als wichtigen Vertreter einer historisch informierten Mathematik-Philosophie kurz präsentieren möchten, charakterisiert die mathematisch interessanten formalen Systeme gerade dadurch, dass sie eine wohl etablierte, nicht formale mathematische Theorie formalisieren: There is indeed no respectable formal theory which does not have in some way or another a respectable informal ancestor. (Lakatos 2002, 188)
Im Rahmen solcher (noch) nicht formalisierter mathematischer Theorien könne man deren präformale Beweise als Gedanken-Experimente (Lakatos 2002, 189) bezeichnen. In seinem bekannten Werk Proofs and Refutations (1979) beschreibt er das Vorgehen mathematischer Forschung – die Geschichte des Eulerschen Polyeder-Satzes dient als zentrales Fallbeispiel; im Weiteren wird u. a. auch die Genese des Begriffs der gleichmäßigen Konvergenz analysiert – in vielen Aspekten als analog zum Vorgehen in den Naturwissenschaften: Die Analyse von mathematischen Beispielen, das tentative Verallgemeinern zu einem Theorem samt informellem Beweis, der dem Risiko einer nicht adäquaten Übergeneralisierung unterliegt, das Auftauchen und die Diskussion von Gegenbeispielen zu etablierten Theoremen und schließlich die Analyse der etablierten Beweise, um die fehlende bzw. stillschweigende Voraussetzung aufzuspüren. Eine solche präformale Phase lässt sich kaum anders beschreiben als im Sinne der Suche
24
Gregor Nickel
nach Erkenntnis über einen Gegenstand, der mit Hilfe einer mehr oder minder präzisen Sprache möglichst zutreffend beschrieben werden soll. Aber auch nach einer – laut Lakatos in aller Regel möglichen – strengen Formalisierung bleibt ein Gegenstandsbezug unvermeidlich: Up to now no informal mathematical theory could escape being axiomatized. [...] [B]ut we have no guarantee at all that our formal system contains the full empirical or quasi-empirical stuff in which we are really interested and with which we dealt in the informal theory. There is no formal criterion as to the correctness of formalization. (Lakatos 2002, 190)
Die Frage nach der ‚korrekten‘ Formalisierung, die bei Lakatos einer postformalen Phase zugeordnet wird, lässt sich allerdings nur ‚am Gegenstand selbst‘ – wie auch immer – klären. Als Beispiele für Axiomatisierungen, die durchaus auch anders aussehen könnten, führt er diejenige der Differentialgeometrie durch Riemann, des Wahrscheinlichkeitsbegriffs durch Kolmogorov und der Mengentheorie durch ZermeloFraenkel an. Zwei Typen postformaler Beweise skizziert er abschließend. Zunächst sei z. B. das Prinzip der Dualität in der (formalisierten) projektiven Geometrie, d. h. dass sich aus einem gültigen Theorem durch schlichten Austausch der Begriffe ‚Punkt‘ und ‚Linie‘ ein neues, wiederum gültiges Theorem gewinnen lässt, ein nicht formales (Meta-)Theorem. Zum zweiten zeigten Beweise der Unentscheidbarkeit bestimmter Sätze (beginnend mit Gödel) innerhalb formalisierter Theorien, dass immer noch ein Spielraum für informelle Überlegungen und Argumente sei. Die prä- und postformalen Beweise zeigten etwas über den tatsächlichen, wenn auch ziemlich schwer dingfest zu machenden Gegenstand der Mathematik, müssten aber stets auf bislang nicht beachtete Eigenschaften des Gegenstands gefasst sein. Dagegen gelte von den formalen Beweisen: Sie sind „absolutely reliable; it is a pity that it is not quite certain – although it is approximately certain – what it is reliable about.“ (Lakatos 2002, 192) Eine einfache ‚Lösung‘ für das Problem des umstrittenen Gegenstandsbezuges der mathematischen Sprache stellt zugleich die ‚Anwendbarkeit‘ der Mathematik ins Zentrum ihrer Charakterisierung. Wir setzen im nächsten Abschnitt chronologisch neu an im 17. Jahrhundert, also in der Zeit des Durchbruchs der Naturwissenschaft im modernen Sinne, und diskutieren von dort aus die einflussreiche Metapher von der Mathematik als „Sprache der Natur“.
3 Mathematik – Sprache der Natur? [Die Pythagoreer] waren die ersten, welche den [mathematischen] Studien einen bedeutenden Platz einräumten; und als sie darin erzogen worden waren, waren sie davon überzeugt, daß die konstitutiven Prinzipien des Mathematischen auch die konstitutiven Prinzipien der seienden Dinge seien. (Aristoteles, Met. A 5, 985b 23 ff. DK 58 B4)
Dass Mathematik die Sprache der Natur sei, ist in naturwissenschaftlicher und mathematischer Populär-Literatur nach wie vor eine häufig auftauchende Überzeugung und
Mathematik und Sprache
25
eine vielfach verwendete Redewendung (vgl. etwa Barrow 1996 und darin das kluge Nachwort des Übersetzers Herbert Mehrtens sowie Livio 2010). Der Locus classicus findet sich im Saggiatore Galileo Galileis (1564‒1642), der die ‚Lesbarkeit der Welt‘ gerade nur durch die Vertrautheit mit der „mathematische[n] Sprache“ gesichert sah: Die Philosophie steht in jenem riesigen Buch geschrieben, das uns ununterbrochen offen vor Augen liegt, ich meine das Universum. Aber man kann es nicht verstehen, wenn man nicht zuerst die Sprache und die Buchstaben kennen lernt, in denen es geschrieben ist. Geschrieben aber ist es in mathematischer Sprache, und die Buchstaben sind Dreiecke, Kreise und andere geometrische Figuren, und ohne diese Mittel ist es für Menschen unmöglich, auch nur ein einziges Wort zu verstehen; ohne sie irrt man sinnlos in einem dunklen Labyrinth umher. (Galilei 1623, 25)
Mit seiner Charakterisierung des Universums als Buch schließt Galilei an die lange Tradition der Metapher des liber naturae an, die zumindest auf Augustinus von Hippo (354‒430) zurückgeht und von dort in die mittelalterliche Naturphilosophie Eingang gefunden hatte: Neben die Bibel wird die Natur bzw. die Welt bzw. die Schöpfung als zweites „Buch“ der göttlichen Offenbarung gestellt (vgl. Nobis 1971). Indem er die zentrale Rolle einer Kenntnis der Sprache dieses Buches betont, folgt Galilei bewusst oder unbewusst dem Humanismus der Renaissance, der für das genaue Studium der Bibel, aber auch der Schriften antiker Autoren die Kenntnis der Sprache des Urtextes – also Griechisch bzw. Hebräisch – als essentiell ansah. Zugleich verschiebt er aber in drastischer Weise Gegenstand und Sprache. Zu Fragen der Naturwissenschaft sind nicht die Bücher der naturphilosophischen Tradition – und insbesondere die des Aristoteles – zu lesen, sondern das Universum selbst‚ das uns angeblich „offen vor Augen liegt“. An die Stelle des sprachlichen, grammatikalischen und logischen Werkzeugkastens (das Trivium des Universitätsstudiums) rückt die Mathematik, wobei er interessanterweise vor allem auf die auch ikonische Geometrie, nicht aber auf die Arithmetik verweist (vgl. Esterbauer et al. 2007, 127‒137), und anstelle der traditionellen Wissenschaftssprache Latein verwendet Galileo seine Muttersprache. Der Wechsel der methodischen Leitwissenschaft weg von der philosophischen Logik hin zur Mathematik ist allerdings von eminenter Bedeutung für die Wissenschaftsentwicklung; verorten lässt er sich bereits bei Nikolaus von Kues (vgl. Mandrella 2005). Diese neuerdings zentrale Rolle der Mathematik ist in der Tat das unterscheidende Merkmal zwischen der Physik im Anschluss an Aristoteles und der neuen Konzeption, die sich mit Galilei schließlich durchsetzt. Bereits in der Antike wurden zwar die Bewegungen der Gestirne höchst virtuos mit mathematischer Methodik beschrieben, die Astronomie wurde jedoch als Teilgebiet der Mathematik aufgefasst und ihre (ewig gleichförmigen) Phänomene waren u. a. deswegen begrifflich strikt von der sublunaren Physik getrennt. Galilei hebt diese Unterscheidung auf: Dabei wird einerseits die supralunare Sphäre veränderlich wie die irdische Physik (Sonnenflecken, Phasen der Venus etc.), und andererseits wird eben diese Physik mathematisierbar. Was Mathematik eigentlich ist, kümmert Galilei dabei eher wenig, es kommt ihm darauf an, was man mit ihr macht. Sein Kollege Jacopo
26
Gregor Nickel
Mazzoni (1548‒1598) bringt den Stellenwert einer Verwendung der Mathematik sehr genau auf den Punkt: Keine andere Frage [hat] Anlaß zu edlerer und schönerer Spekulation gegeben [...] als diejenige, ob der Gebrauch der Mathematik in der scientia physica als Prüfstein und vermittelnde Beweisinstanz von Nutzen ist oder nicht, d. h. ob sie uns etwas einbringe oder gar gefährlich, schädlich sei. Es war bekanntlich der Glaube Platons, daß die Mathematik sich ganz besonders für die physikalischen Untersuchungen eigne, daher er selbst viele Male Zuflucht zu ihr nahm, um physikalische Rätselfragen zu erklären. Aristoteles war aber ganz anderer Ansicht, und er erklärte die Irrtümer des Platon aus dessen allzu großer Wertschätzung der Mathematik. (Mazzoni, zitiert nach Koyré 1988, 45)
Die Frage, ob es möglich und legitim ist, Mathematik für die Naturbeschreibung zu verwenden, beantwortet Galilei also mit einem klaren “Ja!”, und er führt dies etwa im Rahmen der Fallgesetze konkret vor. Aristoteles’ Gegenargumente, dass die Veränderlichkeit der Gegenstände der Physik dem Unveränderlichen der Mathematik nicht entspräche, wird mit dem schlichten Faktum des eigenen Erfolges und dem Verweis auf Platon gekontert. In diesem Zusammenhang wird insbesondere Platons meistgelesenes Werk Timaios in Anspruch genommen, an dem schon Aristoteles eine Verwendung der Mathematik zur Erklärung physikalischer Phänomene kritisiert hatte. Galilei ignoriert dabei, dass Platon selbst ein experimentelles Nachprüfen der naturphilosophischen Spekulation explizit ablehnt, und auch die grundlegende Alternative, Platons Werk gar nicht als Schrift zur Naturphilosophie, sondern vielmehr als Fortsetzung der politischen Philosophie auf der nächstgrößeren Ebene zu lesen. Nachdem die Politeia die Gerechtigkeit im Mikrokosmos Seele und im Mesokosmos Staat besprochen hat, setzt der Timaios diese Parallele mit dem Blick auf den Makrokosmos WeltAll fort (vgl. Schäfer 2005). Aristoteles‘ zweites Argument, dass die Natur ganz anders, nämlich qualitativ und farbig sei, die Mathematik aber farblos, kontert er damit, dass die Qualitäten, die uns die Sinne zeigten, eigentlich gar nicht von Relevanz sind: [D]arum muß Galilei gleich Descartes die bunte, qualitative Welt der sinnlichen Wahrnehmung und der täglichen Erfahrungen verwerfen und durch die farblose, abstrakte, archimedische ersetzen. (Koyré 1988, 27)
Es ist jedoch nicht der Blick in die Natur, wohl aber in naturwissenschaftliche Lehrbücher, der seit dem 17. Jahrhundert Galileis Behauptung mehr und mehr bestätigt. Nicht die Natur spricht zu uns, sondern wir ‚sprechen‘ über die Natur in mathematischer Sprache bzw. unsere Wissenschaft von der Natur nutzt die Mathematik als formalen Kern ihrer Theorie-Sprache. Die Mathematisierung der Wissenschaften (vgl. hierzu ausführlicher Nickel 2007), genauer: ihres theoretischen Rahmens, wird zunächst nach dem Vorbild der Astronomie für die Physik vollzogen: Isaac Newtons (1643‒1727) Philosophiae Naturalis Principia Mathematica sind das bis heute gültige Paradigma. Dem schließen sich mehr und mehr ‚exakte‘ Naturwissenschaften an, schließlich mit dem ausgehenden 19. Jahrhundert auch Wirtschafts- und (empirische)
Mathematik und Sprache
27
Sozialwissenschaften. Eine systematische Analyse und Rechtfertigung dieser ‚mathematischen Sprache‘ für die moderne Naturwissenschaft findet sich bei Immanuel Kant (1724‒1804). In der Vorrede zu den Metaphysischen Anfangsgründen der Naturwissenschaften (1786), deren Ziel eine philosophische Begründung der Prinzipien von Newtons Physik auf der Grundlage der eigenen, kritischen Erkenntnislehre ist, weist Kant den Gebrauch der Mathematik als das Kriterium eigentlicher Wissenschaftlichkeit aus: Ich behaupte aber, daß in jeder besonderen Naturlehre nur soviel eigentliche Wissenschaft angetroffen werden kann, als darin Mathematik anzutreffen ist. (Kant 1903, MAN, AA 04, 70)
Diese – heute leichthin als Gemeinplatz angenommene – Überzeugung versieht Kant auf der Basis einer präzisen Charakterisierung von Mathematik und Naturlehre bzw. -wissenschaft mit einer genauen Begründung. Denn die Frage ist ja keineswegs trivial: Was haben ausgerechnet die idealen, präzisen und ggf. formalisierten, einer rein internen Logik genügenden Begriffe der Mathematik mit den Erlebnissen der sinnlich erfassbaren Wirklichkeit zu tun, was verbindet die notwendige Gültigkeit mathematischer Theoreme mit der Kontingenz empirischer Ereignisse? Fassen wir die Fragestellung noch etwas weiter, so ist zu erklären, inwiefern wir systematisch geordnet, d. h. wissenschaftlich über die nicht-sprachlichen Empfindungen bzw. Data der Sinne (in weitester Bedeutung genommen!) so erfolgreich sprechen können. Für Kant benötigt eine jede Wissenschaft, die über solche empirische Gegebenheiten sprechen möchte, einen vorausgehenden theoretischen Rahmen, der selbst nicht von zufälliger Erfahrung abhängen darf. Eine solche, der Erfahrung vorausgehende Theorie kann ihre Erkenntnis aber nur aus der bloßen Möglichkeit ihrer Gegenstände beziehen. Wollte man sie auf deren Wirklichkeit gründen, so müsste man ja bereits die Empirie einbeziehen. Insofern die Möglichkeit der Objekte der Naturwissenschaften (in Raum und Zeit) nicht allein aus der Widerspruchsfreiheit ihrer jeweiligen Begriffe erkennbar ist, sondern auch anschaulich angebbar sein muss, ist für eine naturwissenschaftliche Theorie die Fähigkeit zur Konstruktion ihrer Begriffe in der Anschauung gefordert. Vernunfterkenntnis durch die Konstruktion der Begriffe in der (reinen) Anschauung zeichnet aber gerade die mathematische Erkenntnisweise aus (vgl. auch Kant 2016, KrV B 202 ff.). Insofern findet Kant in der Mathematik die Vermittlung zwischen den (logisch geordneten, konsistenten) Begriffen des Verstandes und der im weitesten Sinne anschaulichen, sinnlichen Gegebenheit der empirischen Gegenstände (in Raum und Zeit). Besonders prägnant – und um die transzendentalphilosophischen Begründungen verkürzt – wird Kants Position von David Hilbert in die Aufbruchsstimmung des frühen 20. Jahrhunderts transferiert. Programmatisch ist sein keinerlei Erkenntnis-Grenzen akzeptierendes Bekenntnis:
Ich glaube: Alles, was Gegenstand des wissenschaftlichen Denkens überhaupt sein kann, verfällt sobald es zur Bildung einer Theorie reif ist, der axiomatischen Methode und damit mittelbar der Mathematik. (Hilbert 1970, 156)
28
Gregor Nickel
Dabei zeichne sich die Mathematik dadurch aus, dass jedes ihrer Probleme einer „vollen Erledigung fähig“ sei, durch Lösung im positiven Sinne oder Beweis der logischen Unmöglichkeit einer solchen. Die Mathematik ist allerdings nicht nur eine Kunst des Problemlösens, entscheidend ist zudem ihr systematischer, streng konsistenter Aufbau. Nach dem in Abschnitt 2.3 bereits Skizzierten ist die interne Konsistenz einer Axiomatik, d. h. die strikte Widerspruchsfreiheit der Axiome das einzige strikte Kriterium für ihre Zulässigkeit. Bemerkenswert ist nun allerdings, dass Hilbert für diese Forderung nicht mathematikimmanent argumentiert. Aus einem einzigen Widerspruch könnte man schließlich alle überhaupt formulierbaren Sätze – Positionen wie Negationen – unmittelbar ableiten gemäß dem Prinzip ex falso quodlibet; ein inkonsistentes Axiomensystem wäre also wertlos. Die für die Mathematik unmittelbar einleuchtende Forderung wird bei Hilbert aber auf die „Wirklichkeit“ projiziert und aus dieser dann abgelesen. Die Forderung der Konsistenz sei
eine Vorbedingung für die Anwendbarkeit auf die Wirklichkeit; denn in der Wirklichkeit gibt es keine Widersprüche. Diese kommen nur durch uns zustande. (Hilbert 1988, 84)
Die Anwendbarkeit wiederum beruht nach Hilbert auf einer „prästabilierte[n] Harmonie von mathematischem Denken und physikalischem Sein“ (Hilbert 1989, 80 f., Hilbert 1988, 98, Hilbert 1970, 381), wobei er hier sicherlich bewusst auf Leibniz’ Konzeption anspielen möchte. Gerade die spätere Verwendung von zunächst rein mathematischen Strukturen und Resultaten in den Naturwissenschaften hat für ihn große Überzeugungskraft. Diese „merkwürdige Tatsache [...], dass anscheinend die Materie sich ganz und gar dem Formalismus der Mathematik fügt“, wird als evident, aber nicht weiter erklärbar angesehen (vgl. den ‚modernen Klassiker‘ Wigner 1960 sowie erneut Hamming 1980). Welches der vielen möglichen Axiomensysteme auf die Wirklichkeit passt, lässt sich (einstweilen) zwar nur empirisch feststellen, sicher ist jedoch, dass ein passendes gefunden werden kann. Und so kann der zunächst für die Mathematik geforderte Erkenntnisoptimismus schließlich auch auf die Naturwissenschaften ausgeweitet werden. Die von Kant begründete bzw. geforderte Mathematisierung der Natur-Wissenschaften zeichnet zwar in der Tat ihre reale Entwicklung vor, bleibt aber in ihrer Legitimität trotzdem nicht unumstritten. Prominent ist hier natürlich die Polemik Johann Wolfgang von Goethes (1749‒1832), die sich exemplarisch gegen die optische Theorie Newtons richtet (zu Goethes Farbenlehre und deren Rezeption vgl. Illi 2017). Besonders prägnant formuliert wiederum Karl Ludwig von Littrow (1811‒1877) auf der Gegenseite die Legitimität einer Abgrenzung von mathematischem und sprachlichem Zugang zu Natur-Erscheinungen:
Nur wo man messen, wägen, zählen und rechnen kann, ist Hoffnung auf Erkenntniß, und alles vage Hin- und Herreden mit den Worten der gewöhnlichen Sprache führt auf Mißverständniß, auf Unklarheit, auf Abwege. (von Littrow, zitiert nach Illi, 418)
Mathematik und Sprache
29
Dass die Natur auf eine ganz andere Weise zu uns ‚spricht‘ und dass die naturwissenschaftliche ‚Lesart‘ als Verwirrung oder gar Zerstörung des ursprünglichen Textes verstanden werden muss, behauptet mit Nachdruck etwa auch Johann Georg Hamann (1730‒1788), der mittlerweile wieder vermehrt rezipiert wird (vgl. Bayer 1988, Moustakas 2003). In einer groß angelegten, auch philosophiehistorisch weit ausgreifenden Untersuchung analysiert Georg Picht (1913‒1982) die Voraussetzungen und Folgen neuzeitlicher Naturwissenschaft (Picht 1998, vgl. auch Mehrtens 1990, 465). Vor dem Hintergrund der sich abzeichnenden ökologischen Krise geht er von dem Befund aus, dass die neuzeitliche Naturwissenschaft wesentlich zur Zerstörung der Natur beiträgt, gerade weil sie (in ihrer technischen Ausprägung) korrekt ‚funktioniert‘. In einem tieferen Sinne kann sie daher nicht wahr sein. Ihr effektives Funktionieren beruht auch darauf, dass sie seit Galilei nach dem Begriff der Natur gerade nicht mehr fragt, und anstelle eines solchen (metaphysischen) Begriffs Gesetze und Methoden entwickelt: Die Gesamtheit der Naturwissenschaften beruht auf der Grundannahme, daß es in der Natur nichts gibt, was sich der Mathematisierung entziehen könnte. Von der Mathematik wird auf der einen Seite vorausgesetzt, daß die wirkliche Natur ihr wirklich gehorcht; andererseits wird von derselben Mathematik vorausgesetzt, daß sie auf den notwendigen Gesetzen der Operationen unseres Denkens beruhe. In diesem Sinne hat die moderne Mathematik die operationelle mathematische Logik zur axiomatischen Grundwissenschaft gemacht. (Picht 1998, 200)
Die Frage nach der Möglichkeit bzw. den Voraussetzungen von Hilberts „prästabilierter Harmonie“ wird innerhalb der Naturwissenschaft ebenfalls nicht gestellt. Mit Kant rekonstruiert Picht die hier fehlende Begründung, die wesentlich auf einer genauen Analyse des erkennenden Subjekts und seiner verwendeten Logik beruht, um einen Spielraum für Kritik zu eröffnen: [S]elbst wenn nicht daran gezweifelt werden kann, daß jeder Mensch, der sich auf den Standort des transzendentalen Subjektes versetzt und sich den durch diesen Standort ihm vorgezeichneten Regeln unterwirft, nur jene Resultate gewinnen kann, die die Naturwissenschaft uns präsentiert, so ist doch damit noch nicht ausgemacht, daß wir von diesem Standort aus die Natur so erkennen, wie sie von sich aus ist. [...] Darüber, ob dieser Standort selbst der wahre Standort des Menschen in der Natur ist, läßt sich aus der Richtigkeit der Naturwissenschaften weder positiv noch negativ etwas schließen. Indem wir die Frage nach der Wahrheit dieses Standortes stellen, verlassen wir also die Position von Kant, ohne die Resultate seiner Analyse der Subjektivität preiszugeben. (Picht 1998, 328)
4 Mathematik reguliert die (natürliche) Sprache [N]achdem einmal die Prinzipien des Schließens genannt sind, [braucht nun] nichts mehr überlegt zu werden. Die Regeln des Schließens müssen so beschaffen sein, dass sie das logische Denken eliminieren. Andernfalls müßten wir ja erst wieder logische Regeln dafür haben, wie jene Regeln anzuwenden sind. Dieser Forderung der Austreibung des Geistes kann nun wirklich genügt werden. (Bernays 1976, 9)
30
Gregor Nickel
Spätestens mit Platon und besonders wirkmächtig mit Aristoteles setzt eine für die (westliche) Geistesgeschichte prägende Entwicklung ein: Unabhängig vom jeweiligen Gegenstand des Diskurses sollen Regel für seine Form bestimmt werden, die einen sinnvollen, produktiven, fairen Austausch der Argumente sicherstellen. Im Gegensatz zu einer Orientierung an den – vom jeweiligen Gegenstand abhängigen und ggf. willkürlichen – Interessen der Gesprächspartner soll die Wechselrede am Ziel der (allgemeingültigen) Wahrheit ausgerichtet werden; an die Stelle eines trickreichen Kampfes der Meinungen soll die gemeinsame Suche nach wahrer Erkenntnis treten. Der Vorwurf einer den privaten Interessen folgenden, rein taktischen Gesprächsführung wird immer wieder gegenüber der rhetorischen Kunst(lehre) der als Sophisten bezeichneten philosophischen Konkurrenten erhoben; die Geschichte der Logik ist zugleich eine Geschichte ihres spannungsreichen Verhältnisses zur Rhetorik. Grundvoraussetzung für die Forderung der Logik ist es, dass sich Diskurs-Formen überhaupt finden bzw. formulieren lassen, die für jeden wahrheitsorientierten Diskurs völlig unabhängig vom Gegenstand zu befolgen sind. Als Wiederaufnahme einer solchen Intention im 20. Jahrhundert kann die gleichzeitige Formalisierung von Logik und Ethik durch Paul Lorenzen und Oswald Schwemmer betrachtet werden. Logische Schlüsse und ethische Argumentationen werden hier durch standardisierte Dialoge rekonstruiert; beweisbar bzw. begründbar sind genau diejenigen Sätze, für die es eine sichere ‚Gewinnstrategie‘ in solchen ‚Dialogen‘ gibt (vgl. Lorenzen/Schwemmer 1973). Heute wie zu Zeiten der Antike ist nun die Mathematik ein naheliegendes Vorbild, denn ihre Gegenstände sind von vornherein auf eine gemeinsame, objektive Orientierung zugeschnitten und im Normalfall lassen sich ‚Fehler‘ in der Rechnung schnell erkennen, gelingt die Einigung über die Zulässigkeit eines Arguments leicht, zielt der mathematische Beweis sogar darauf ab, die Notwendigkeit der behaupteten Aussage für alle einsichtig zu machen. Es kann nun an dieser Stelle weder um eine umfassende Darstellung der Geschichte der (formalen) Logik gehen (vgl. für eine nach wie vor lesenswerte kurze Übersicht Scholz 1959, für eine umfassende Darstellung Prantl 1855, Jørgensen 1962 und vor allem Gabbay/Woods 2004, für eine kommentierte Bibliographie Church 1936, zur Entwicklung der Logik aus einer sprachwissenschaftlichen Perspektive Illi 2017, 239‒267) noch darum, die gegenwärtige Gestalt der mathematischen Logik in ihren vielfältigen Verästlungen zu skizzieren (neben einer Vielzahl von Lehrbüchern zur mathematischen Logik gibt Seebohm 1984 eine umfassende systematische Einführung aus philosophischer Perspektive; die Orientierung formaler philosophischer Logik am mathematischen Stil lässt sich in Jacquette 2007 gut beobachten). Nur wenige Aspekte sollen im Folgenden herausgehoben werden, die das Zusammenspiel von Mathematik und Logik verdeutlichen können. In seinem großen Lehrgedicht hatte Parmenides von Elea (ca. 520‒460 v. Chr.) einer für die folgenden Jahrtausende wirkmächtigen Forderung Ausdruck verliehen. Zwei Wege der Forschung und Rede gebe es: der eine sei „doppelköpfig“ und dem trügerischen Zeugnis der Sinne folgend, er führe zur Behauptung, dass Seiendes (hin und wieder auch) nicht sei und Nicht-Seiendes (hin und wieder) sei, der andere aber
Mathematik und Sprache
31
respektiere die strikte Trennung von Sein und Nicht-Sein, so dass die Rede eine entsprechende strikte Binarität bewahrt: Seiendes ist, Nicht-seiendes ist nicht. In strengster Entsprechung werden hierbei Ontologie und Rede (Logik) normiert (eines der wenigen Lehrbücher der mathematischen Logik, das diese enge Verbindung von Ontologie und Logik explizit thematisiert, ist Scholz/Hasenjäger 1961). Im Schlagschatten der Forderung des Parmenides von Elea stehen alle späteren Überlegungen und Bemühungen um eine Regulierung der Form des (philosophischen) Sprechens. Aristoteles leistet hier zugleich Pionierarbeit, und er gibt dieser Wissenschaft eine bis ins 18. Jahrhundert hinein gültige Gestalt. Die formale Logik aus den später als Organon bezeichneten Schriften des Aristoteles kann dabei als eine vom mathematischen Beweis inspirierte Regelung sprachlicher Argumentationsfiguren aufgefasst werden. Der grammatikalischen Form der (griechischen) Sprache folgend diskutiert Aristoteles zunächst die genauere Bestimmung eines Gegenstandes (Subjekt) durch Eigenschaften (Attribute): Mit Hilfe der 10 Kategorien, was sich wörtlich mit ‚Anklage‘ übersetzen lässt, soll ein beliebiger Gegenstand vor den Gerichtshof des Verstandes zitiert werden und dort an Hand seiner Attribute ‚dingfest‘ gemacht werden. Anschließend wird die einfachste wahrheitsfähige Satz-Form ‚S ist P‘ herausgestellt: Einem Subjekt S wird durch die Kopula ist das Prädikat P zugesprochen. Zudem werden (verschiedene Formen der) Negation und die Quantifikationen ‚Einige S sind P‘ und ‚Alle S sind P‘ eingeführt. In den anschließenden Büchern werden solche Sätze zu logischen Schlüssen verbunden, die die Wahrheit der (beiden) Prämissen mit Notwendigkeit auf die Konklusion übertragen sollen, und es wird nach der Charakteristik, der Möglichkeit und der Form von Beweisen gefragt. Eine ausführliche Darstellung des obersten und zugleich sichersten logischen Prinzips finden wir allerdings erst in seiner Metaphysik. Es wird dort als konstitutive und nicht nur hypothetische Voraussetzung für eine jede Seins-Erkenntnis bezeichnet, und es besagt, dass [...] dasselbe demselben und in derselben Beziehung (und dazu mögen noch die anderen näheren Bestimmungen hinzugefügt sein, mit denen wir logischen Einwürfen ausweichen) unmöglich zugleich zukommen und nicht zukommen kann. Das ist das sicherste unter allen Prinzipien; [...] Es ist nämlich unmöglich, daß jemand annehme, dasselbe sei und sei nicht. (Aristoteles, Met. IV, 1005b)
Als Prinzip für alle logische Argumentation ist der Satz vom ausgeschlossenen Widerspruch natürlich weder beweisbar noch beweisbedürftig; allerdings wirbt Aristoteles wortreich dafür ihm zu folgen. Ein Hauptstrang der Argumentation läuft nun gerade darauf hinaus, dass Unterredungen überhaupt nur dann sinnvoll sind, wenn ein jedes Wort etwas, und nicht unendlich vieles bezeichnet, wenn ihm also ein präziser und unwandelbarer Sinn zugewiesen wird. Durch die Übersetzung des Boethius (480‒526) bleibt die Aristotelische Logik auch im lateinischen Mittelalter präsent; sie wird in dieser Zeit weiter ausgearbeitet, ein wenig ergänzt und schließlich in eine ‚schulgerechte‘ Form gebracht. Im Kanon der sieben freien Künste des Vorstudiums der mittelalterlichen Universität gehört sie
32
Gregor Nickel
allerdings zu den sprachlichen Fächern des Trivium (Rhetorik, Grammatik, Dialektik), die von den mathematischen Fächern des Quadrivium (Arithmetik, Geometrie, Harmonielehre, Astronomie) klar getrennt sind. Die auf Aristoteles zurückgehende formale Logik, das Finden, Formulieren und Rechtfertigen von Sprachregeln, nach denen eine ‚korrekte‘ Argumentation verlaufen soll, ist also zunächst und für viele Jahrhunderte eine Kernaufgabe der Philosophie, nicht der Mathematik. Mit Gottfried Wilhelm Leibniz (1646‒1716) setzt eine zunehmende Mathematisierung der formalen Logik ein, und allmählich löst sie sich damit aus der engen Bindung an die Philosophie. Seine Konzeption einer characteristica universalis soll alle Streitfragen – den historischen Hintergrund bilden die Konfessionsstreitigkeiten und nicht zuletzt der dreißigjährige Krieg! – durch Formalisierung auf eine transparente und faire Weise im Rahmen eines allgemeingültigen und zwingenden Kalküls lösen und damit „eine rationale Philosophie von gleicher unangreifbarer Klarheit wie die Arithmetik“ begründen (Leibniz 1677, 34). Die Parallele zu dem von Leibniz entwickelten Infinitesimalkalkül, der die Lösung schwierigster Probleme der Geometrie auf einfache, rechnerische Weise ermöglicht, liegt auf der Hand. Zur Durchführung seines Programms hat Leibniz zwei Teilprojekte vor Augen, die er in mehreren Anläufen skizziert und teilweise ausarbeitet: Neben einer Formalisierung von Satz- und Argumentationsstruktur müssen alle inhaltlich bedeutsamen Grundbegriffe (zunächst identifiziert und dann) formalisiert werden. Insofern die Arithmetik als „eine Art Statik des Universums“ aufgefasst werden kann und die Zahl „als metaphysische Grundgestalt“ (Leibniz 1677, 30), ist also für jeden Grundbegriff eine charakteristische Zahl anzugeben und für die Begriffsverbindungen und logischen Schlüsse passend definierte Verknüpfungen dieser Zahlen. Dieses Projekt scheint ihm durchaus realisierbar zu sein, einige Auserlesene [werden] das Ganze in fünf Jahren [...] leisten können, [...] jedoch schon nach zwei Jahren dahin kommen [...] die Sätze der Moral und Metaphysik nach einem unfehlbaren Rechenverfahren zu beherrschen. (Leibniz 1677, 35)
An die Stelle endloser Streitigkeiten, bei denen „schließlich meist die Affekte, nicht die Vernunftgründe den Sieg“ (ebd., 36) behielten, könnte dann ein einfaches und unfehlbares Berechnen und Abwägen der Gründe mit Hilfe der Charakteristik treten. Ein etwas späterer Versuch (Elementa calculi 1679) diskutiert einen konkreten Vorschlag: Grundbegriffe sollen durch Primzahlen, komplexe Begriffe durch deren Produkte und damit die logische Abhängigkeit von Gattung und Art durch die Teilbarkeit der entsprechenden charakteristischen Zahlen dargestellt werden. Aus einer gegebenen charakteristischen Zahl könnten so durch Primfaktorzerlegung die charakterisierenden Eigenschaften des entsprechenden Begriffs ermittelt werden. Allerdings weist der Teilerverband der natürlichen Zahlen eine viel zu simple Struktur auf, der Ansatz kann so nicht funktionieren. Leibniz vermerkt den Misserfolg explizit, lässt sich dadurch allerdings nicht dazu bewegen, die Intention seines Programms aufzugeben. Eine Hauptschwierigkeit sieht er allerdings darin, die Charaktere für alle elementaren Begriffe zu finden. Dieses Problem könne man jedoch durch einen „Kunstgriff“ umgehen:
Mathematik und Sprache
33
Ich machte nämlich die Fiktion, jene so wunderbaren charakteristischen Zahlen seien schon gegeben, und man habe an ihnen irgend eine allgemeine Eigenschaft beobachtet. Dann nehme ich einstweilen Zahlen an, die irgendwie mit dieser Eigentümlichkeit übereinkommen und kann nun mit ihrer Hülfe sogleich mit erstaunlicher Leichtigkeit alle Regeln der Logik zahlenmäßig beweisen und zugleich ein Kriterium dafür angeben, ob eine gegebene Argumentation der Form nach schlüssig ist. Ob aber ein Beweis der Materie nach zutreffend und schlüssig ist, das wird sich erst dann ohne Mühe und ohne die Gefahr eines Irrtums beurteilen lassen, wenn wir im Besitze der wahren charakteristischen Zahlen der Dinge selbst sein werden. (Leibniz 1677, 37 f.)
Das bereits in der Renaissance-Philosophie verfolgte Programm der Konstruktion einer universellen Sprache (vgl. Eco 1994), in der zunächst materiale Grundbegriffe (im Wesentlichen als platonische Ideen aufgefasst), gleichsam die logischen Atome der (sprachlichen) Bedeutung, und damit ein Zugang zum Wesen der Dinge gefunden und verwendet werden müssen, ersetzt Leibniz also durch die Suche nach einem rein strukturellen Gefüge von Verknüpfungs- bzw. Schlussregeln, die sich auf material nicht bedeutsame Variablen beziehen. Diese Konzeption erweist sich dann in der Tat als fruchtbar für die weitere Übernahme des logischen Themas in die Mathematik. Im 19. Jahrhundert können nun – etwas holzschnittartig – zwei zeitlich parallele und in der Umsetzung scheinbar ähnliche, in der Intention jedoch eher komplementäre Entwicklungen unterschieden werden, die jeweils das Leibniz-Programm aufnehmen und weiterführen (vgl. Peckhaus 1997). Auf der einen Seite steht die Indienstnahme (etablierter und als unproblematisch betrachteter) Mathematik für eine Neuformulierung, spezifischer: Formalisierung von Logik oder allgemeiner: von Sprache. Auf der anderen Seite geht es darum, die Geltung der Mathematik überhaupt erst zu sichern, indem diese auf – eigens thematisierte und begründete – logische Grundprinzipien zurückgeführt werden soll. Paradigmatisch für die eine Seite steht George Boole (1815‒1864), wenn er etablierte mathematische Verfahren verwendet, um die ebenfalls etablierte formale Logik, d. i. die Aristotelische Syllogistik, auf eine ganz neue Weise darzustellen (vgl. Boole 1847). Er zeigt nämlich, wie man die vertrauten logischen Schlussfiguren ableiten kann, indem man die beteiligten Sätze durch simple algebraische Gleichungen darstellt und die als gültig zu erweisenden Schlüsse durch ebenso simples Auflösen solcher Gleichungen erhält. Dass Boole dabei auf mathematischer Seite die vertraute Schulalgebra verwendet und auf philosophischer Seite zunächst nur die wohlbekannte Syllogistik betrachtet, schafft sicherlich Vertrauen in die Zulässigkeit seiner revolutionären Vorgehensweise (für eine detailliertere Darstellung vgl. Nickel/Rathgeb 2014). Etwa 75 Jahre später gehört ein formal-logischer Zeichengebrauch zum Standard-Repertoire der Mathematiker; bei David Hilbert finden wir darüber hinaus eine programmatische Ausweitung (vgl. Hilbert 1988, 92). Er geht zunächst davon aus, „[...] dass dasjenige Hülfsmittel, durch das sich der Mensch über die anderen Lebewesen erhebt, im Wesentlichen die Sprache ist.“ Anschließend skizziert er, wie die natürlichen Sprachen auf das „Wesentliche“ reduziert werden könnten:
34
Gregor Nickel
Wenn wir die Sprachen, die uns nahe stehen, überblicken, so drängt sich die Ähnlichkeit in der Struktur auf. Die Unterschiede sind wesentlich nur die Konvention, dass andere Worte, andere Namen gebraucht werden. [...] Ob man table, mensa oder Tisch, [...] ob man tree, Baum, arbre oder dendron sagt, ist ja ganz unwesentlich und gleichgültig. (Hilbert 1988, 92)
Als Ergebnis seiner „auf die Struktur der Sprache gerichteten Untersuchung“ soll schließlich „[...] das Aussprechen der Gedanken [...] wesentlich zu einem Operieren mit Begriffen“ werden. Die aktuelle Forschung zu einer Mathematisierung und (durch Computer-Einsatz) mechanisierten Verarbeitung von natürlicher Sprache radikalisiert die Leibnizsche Herangehensweise und folgt meist einem Ansatz, der nicht einmal mehr auf einzelne Begriffe – gleichsam als ‚Bedeutungs-Atome‘ – und auf explizite grammatikalische Regeln rekurriert. So ist etwa die Grundlage für automatische Übersetzungen demgegenüber ein möglichst großes Korpus zweisprachiger Texte, die als ‚gelungene Übersetzung‘ vorausgesetzt werden. Daraus können bei statistischen Verfahren Wörter und grammatische Formen in Ausgangs- und Zielsprache aufgrund ihrer Häufigkeit einander zugeordnet werden, so dass ein ‚empirisches Wörterbuch‘ und ‚empirische Regeln‘ für die Übertragung der Grammatik erhalten werden. Auf der gleichen Basis – hier dienen die Texte der einen Sprache als Input-Werte, die der Übersetzung als Ziel-Werte des Output – werden auch neuronale Netze ‚trainiert‘. Es scheint, dass es – vor dem Hintergrund großer Rechen- und Speicherkapazität – derzeit für die Entwicklung einer automatisierten Sprach-Verarbeitung erfolgversprechender ist, auf ein explizites Verstehen der (Regeln der) zu bearbeitenden natürlichen Sprachen zu verzichten. Für die konzeptionelle Beschreibung und Analyse natürlicher Sprachen kommt die Mathematik gleichwohl auch in expliziter und strukturierender Funktion zum Tragen (vgl. die Einführung in dieses aktuelle Forschungsfeld Kracht 2003). Eine amüsante Wendung in der Geschichte der Wechselwirkungen zwischen Mathematik und Logik ist schließlich die folgende ‚Mathematisierung zweiter Stufe‘: In (Wagner-Döbler/Berg 1993) rekonstruieren die Autoren die Entwicklung der mathematischen Logik auf der Basis bibliometrischer Daten mittels mathematischer Modelle aus der Epidemiologie. Eine bedenkenswerte Kritik der hier skizzierte Auffassung von Sprechen und Denken (unabhängig von der technischen Seite) legt Pirmin Stekeler-Weithofer vor, der mit einer Abgrenzung von dem allzu naiven Vorurteil, die einzig korrekte Weise zu denken sei die der Wissenschaften und insbesondere der Mathematik, einsetzt. Als Probierstein, der deren Limitation zeige, sei hier die Frage zu stellen, „[...] ob sich das mathematische und das wissenschaftliche Denken selbst im Rahmen derjenigen Methoden oder Denkwege angemessen [...] bedenken und begreifen lässt, welche die Wissenschaft bzw. das Wissenschaftliche auszeichnen. Dazu gehört zunächst das [...] axiomatisch-deduktive Denken, Rechnen und Schließen der Mathematik.“ (Stekeler-Weithofer 2012, 2 f.)
Völlig zu Recht weist er darauf hin, dass eine solche reflektierende Selbstbezugnahme bislang ausgeblieben ist.
Mathematik und Sprache
35
Das Vorbild für die andere Seite sind die bahnbrechenden Überlegungen und Entwicklungen Gottlob Freges (1848‒1925), der zwar auch eine formalisierte Fassung des logischen Schließens entwickelt, dem es aber in erster Linie darum geht, dadurch überhaupt erst die Grundlagen der Mathematik zu sichern (für weiterführende Literatur vgl. Wille 2013). Mittels eines streng regulierten Zeichengebrauchs und seiner eigens dazu entwickelten Begriffsschrift (Frege 1879) versucht er auf streng logischer Grundlage eine ‚wasserdichte‘ Grundlegung für Zahlbegriff und Arithmetik vorzulegen. Die Bemühungen Freges sind sicherlich vor dem Hintergrund der MathematikPhilosophie Immanuel Kants zu sehen, der – auch gegen Leibniz – betont, dass sich die Erkenntnisse der Mathematik eben nicht „rein analytisch“, also nur durch Zergliederung ihrer Begriffe unter Beachtung des Widerspruchsprinzips erhalten lassen. Bei Kant eröffnen die Formen der (menschlichen) Anschauung – Raum und Zeit – ein Spielfeld für die Konstruktion der mathematischen Begriffe (und Beweise). Dass hierbei auf bemerkenswerte Weise eine nicht-empirische Sinnlichkeit, und nicht nur das Begriffsvermögen involviert ist, ruft die Verfechter einer ‚streng logischen‘ Begründung der Mathematik auf den Plan. Gleichwohl lassen sich etwa unter Neu-Kantianern kluge Stimmen vernehmen, die eine ‚rein logische‘ Entfaltung der Mathematik, gar eine Identität von Mathematik und Logik ablehnen. So beschränkt Heinrich Rickert (1863‒1936) den „rein logischen Gegenstand“ auf eine abstrakte Vereinigung der „Gegenstands-Momente“ Inhalt und Form. Bereits die Zahl der elementaren Arithmetik komme erst zustande, wenn ein „homogenes Medium“ als „alogischer Faktor“ das Weiterzählen ansonsten gleicher Einheiten erlaube (vgl. Rickert 1924). Ein deutlich weiteres, die Entwicklung der mathematischen Logik affirmierendes Verständnis von Logik verwendet Ernst Cassirer, auch lehnt er als Marburger eine Verankerung der mathematischen Geltung in einem Zweig der Sinnlichkeit ab. Gleichwohl betont auch er einen vom rein Logischen klar zu unterscheidenden Charakter der Mathematik: In dieser seiner immanenten Entwicklung beweist somit das mathematische Denken ebensowohl seine innere Konsequenz, wie es auf der andern Seite seinen ‚synthetischen‘, seinen wahrhaftproduktiven Charakter beweist. Es verharrt nicht an derselben Stelle, und es unterwirft sich nicht der blossen Identität; es erweitert vielmehr ständig seinen Kreis und erprobt gerade in dieser Erweiterung seine Beständigkeit und seine Folgerichtigkeit. (Cassirer 1999, 81)
Frege wiederum bemerkt zu Beginn seines Logisierungs-Projekts, dass zwar schon vielfach ausgesprochen worden [sei], dass die Arithmetik nur weiter entwickelte Logik sei; aber das bleibt solange bestreitbar, als in den Beweisen Uebergänge vorkommen, die nicht nach anerkannten logischen Gesetzen geschehen, sondern auf einem anschauenden Erkennen zu beruhen scheinen. (Frege 1893, VII)
Solche nicht rein logisch ausgewiesenen Übergänge sollen u. a. dadurch ausgeschlossen werden, dass sprachliche Mehrdeutigkeiten oder Undeutlichkeiten von vornherein eliminiert werden:
36
Gregor Nickel
Die Beweise selbst enthalten keine Worte, sondern sind allein mit meinen Zeichen geführt. Sie stellen sich dem Auge dar als eine Reihe von Formeln [...] Jede dieser Formeln ist ein vollständiger Satz mit allen Bedingungen, die zu seiner Gültigkeit nothwendig sind. Diese Vollständigkeit, welche stillschweigend hinzuzudenkende Voraussetzungen nicht duldet, scheint mir für die Strenge der Beweisführung unentbehrlich zu sein. (Frege 1893, V)
Für unser Thema lohnt es, noch etwas genauer Freges Auskunft über sein Verhältnis zur natürlichen Sprache und seine wiederum an Begriffsbildungen der Mathematik orientierte Verfahrensweise anzufügen. Im Vorwort zur Begriffsschrift (Frege 1879, III) führt ihn das Ziel einer „nur auf die Gesetze des Denkens“ gestützten Begründung der Arithmetik zur bereits erwähnten Forderung nach „Lückenlosigkeit der Schlusskette“. Das wesentliche Hindernis liegt nun jedoch nicht im zu ersetzenden Bezug auf Anschauung, sondern [...] in der Unzulänglichkeit der Sprache, die bei aller entstehenden Schwerfälligkeit des Ausdrucks doch, je verwickelter die Beziehungen wurden, desto weniger die Genauigkeit erreichen liess, welche mein Zweck verlangte. Aus diesem Bedürfnis ging der Gedanke der vorliegenden Begriffsschrift hervor. (Frege 1879, IV)
Ihr Verhältnis zur „Sprache des Lebens“ vergleicht Frege mit der eines Mikroskops zum Auge. Während das Auge durch den „Umfang seiner Anwendbarkeit“ dem Mikroskop überlegen sei, weise es als „optischer Apparat betrachtet“ viele Unvollkommenheiten auf. Stellten „wissenschaftliche Zwecke große Anforderungen an die Schärfe der Unterscheidung“ so sei demnach das Mikroskop bei weitem vorzuziehen. Die Begriffsschrift solle man demnach nicht an der Begrenztheit ihres Anwendungsfeldes beurteilen. Er stellt seine Überlegungen explizit in die Tradition der characteristica universalis, wobei gerade der vorübergehende (!) Verzicht auf die Universalität einen Fortschritt gegenüber den Ansätzen bei Leibniz erlaube: Man kann in den arithmetischen, geometrischen, chemischen Zeichen Verwirklichungen des Leibnizschen Gedankens für einzelne Gebiete sehen. Die hier vorgeschlagene Begriffsschrift fügt diesen ein neues hinzu, und zwar das in der Mitte gelegene, welches allen anderen benachbart ist. (Frege 1879, VI)
Eine Erweiterung der Beschreibungskraft über die Arithmetik hinaus ist durchaus intendiert, zunächst auf die Geometrie. Aber gerade auch der Philosophie wird eine Sprach-Regulierung empfohlen: Wenn es eine Aufgabe der Philosophie ist, die Herrschaft des Wortes über den menschlichen Geist zu brechen, indem sie die Täuschungen aufdeckt, die durch den Sprachgebrauch [...] oft fast unvermeidlich geschehen, indem sie den Gedanken von demjenigen befreit, womit ihn allein die Beschaffenheit des sprachlichen Ausdrucksmittels behaftet, so wird meine Begriffsschrift [...] den Philosophen ein brauchbares Werkzeug werden können. (Frege 1879, VI)
An Frege schließen sich die Bemühungen des mathematischen Logizismus an, insbesondere Bertrand Russell und Alfred North Whitehead mit ihren monumentalen
Mathematik und Sprache
37
Principia Mathematica (1910‒1913). Nach einer zunächst zögerlichen Rezeption spielt die durch Frege angestoßene Thematik einerseits eine zentrale Rolle für spätere Entwicklungen, sie ist stilprägend für die (analytische) Philosophie, und innerhalb der Mathematik bildet sich eine ganz neue Subdisziplin „Logik und Grundlagenforschung“ heraus. Andererseits erweist sich jedoch das Programm Freges in doppelter Hinsicht als undurchführbar. Zum einen versteht es sich nicht einmal für den engeren Bereich der Mathematik von selbst, welche ‚logischen Gesetze‘ tatsächlich gelten sollen. Eine wichtige Facette der sog. mathematischen Grundlagendebatte zu Beginn des 20. Jahrhunderts betrifft gerade die Frage, ob das Prinzip des ausgeschlossenen Dritten (das zweite Grundprinzip des Aristoteles) uneingeschränkt gilt bzw. in Beweisen verwendet werden darf. Der von Brouwer begründete mathematische Intuitionismus verneint diese Frage, und er stellt inzwischen eine gut ausgearbeitete mathematische Subdisziplin dar (zu den Positionen von Logizismus, Formalismus, Intuitionismus in Bezug auf das Verhältnis von Logik und Mathematik vgl. Shapiro 2005). Viele wichtige, nicht-konstruktive Existenz-Beweise sind dann allerdings nicht mehr zulässig. Innerhalb der Mathematik entsteht so eine kontrollierte Pluralität jeweils unterschiedlicher, gleichwohl strikt geregelter logischer Werkzeugkästen, aber eben keine eindeutig gegebene, für die gesamte Mathematik gültige Logik. Zum zweiten trifft Freges logische Architektur eine ähnliche Konsistenz-Problematik wie bereits Cantors Mengenlehre (siehe Abschnitt 2.3). Im Gegensatz zu Cantors ziemlich gelassener Reaktion ist Frege jedoch erschüttert, als ihm Russell mitteilt, dass sich aus seinen Begriffsbildungs-Regeln widersprüchliche Begriffe konstruieren lassen. Im Nachwort zu seinen Grundgesetzen der Arithmetik nimmt Frege Stellung zu dieser Problematik: Einem wissenschaftlichen Schriftsteller kann kaum etwas Unerwünschteres begegnen, als daß ihm nach Vollendung einer Arbeit eine der Grundlagen seines Baues erschüttert wird. [...] Solatium miseris, socios habuisse malorum. [...] Es handelt sich hierbei nicht um meine Begründungsweise im Besonderen, sondern um die Möglichkeit einer logischen Begründung der Arithmetik überhaupt.“ (Frege 1893, 253)
Freges „Gefährten im Unglück“, zumindest sofern sie dem Bereich der Mathematik angehörten, haben die von Frege beklagte Situation allerdings als deutlich weniger tragisch angesehen. Zunächst stellen die auftauchenden Antinomien eine willkommene Motivation zur Präzisierung der verwendeten Konzepte dar. Mit Gödels Resultaten wird dann zwar deutlich, dass für ein (hinreichend reichhaltiges) formales System die Widerspruchsfreiheit (und auch die Vollständigkeit) gerade nicht gezeigt werden kann. Die Rechtfertigung der mathematischen Methode kann also mittels einer (hinreichend nahe am Mathematischen operierenden) metamathematischen Methode nicht gelingen. Gleichwohl konnte der working mathematician zur Tagesordnung übergehen, weitgehend unberührt von den Spezialproblemen der Grundlagenfächer und ohne deren Rückversicherung:
38
Gregor Nickel
[D]ie bekannten Axiomensysteme [...] gelten heute bei den Mengentheoretikern als widerspruchsfrei. [...] Wie tragfähig ist diese Basis? Ihre Widerspruchsfreiheit ist nicht beweisbar; wir können nur intuitive Argumente für sie ins Feld führen.“ (Ebbinghaus et al. 1988, 306)
5 Linguistische Perspektiven auf die Mathematik Was er sah war sinnverwirrend. [...] Griechische Schriftzeichen waren mit lateinischen und mit Ziffern in verschiedener Höhe verkoppelt, mit Kreuzen und Strichen durchsetzt, ober- und unterhalb waagrechter Linien bruchartig aufgereiht, durch andere Linien zeltartig überdacht, durch Doppelstrichelchen gleichgewertet, durch runde Klammern zusammengefaßt, durch eckige Klammern zu großen Formelmassen vereinigt. […] Kabbalistische Male, vollständig unverständlich dem Laiensinn, umfaßten mit ihren Armen Buchstaben und Zahlen, während Zahlenbrüche ihnen voranstanden und Zahlen und Buchstaben ihnen zu Häuptern und Füßen schwebten. Sonderbare Silben, Abkürzungen geheimnisvoller Worte waren überall eingestreut, und zwischen den nekromantischen Kolonnen standen geschriebene Sätze und Bemerkungen in täglicher Sprache, deren Sinn gleichwohl so hoch über allen menschlichen Dingen war, dass man sie lesen konnte, ohne mehr davon zu verstehen als von einem Zaubergemurmel. (Thomas Mann, Königliche Hoheit)
Ausdrucksvoll beschreibt Thomas Mann, was sich dem Laien beim Blick in ein mathematisches Kollegheft zeigt, und dabei schildert er vermutlich die eigene Erfahrung mit den Notizen seiner u. a. Mathematik studierenden späteren Ehefrau Katja. Warum sind Zeichengebrauch und Fachsprache der Mathematik in dieser merkwürdigen Weise gestaltet? Wir wollen abschließend die Perspektive des vorigen Abschnitts umwenden. Nachdem also zunächst die Mathematik ihr Instrumentarium zu einer Analyse bzw. Regulierung der (natürlichen) Sprache zur Verfügung gestellt hatte, soll nun aus der Perspektive einer Sprach- bzw. Zeichen-Theorie das Agieren innerhalb der mathematischen Texte beobachtet werden. Wiederum kann es hier nur um einzelne, keinesfalls umfassende und nicht einmal repräsentative Beobachtungen gehen. Vorab soll allerdings noch darauf hingewiesen werden, dass auch dem nicht-formalen Diskurs in der Mathematik ausführliche Analysen gewidmet werden. Die Wissenschaftssoziologie bringt mittlerweile auch der mündlichen, diskursiven Alltagspraxis einiges Interesse entgegen (vgl. Heintz 2000). Und schließlich gibt es auch aus philosophischer Perspektive eine Diskussion über das „Sprechen der Mathematiker“ (vgl. etwa Matthiscyk 2016 mit Bezug auf Platon, Wittgenstein und Cassirer). Der fachpolitische und auch der heuristische Diskurs werden bei Mehrtens eingehend diskutiert; bei ihm kommt vor allem die doppelte Bedeutung von ‚Sprache‘ für die Mathematik besonders prägnant zum Tragen:
Das, woran sich die Disziplin Mathematik identifiziert, ist die selbstbezügliche Sprache Mathematik in den Produkten der Mathematiker, den Texten. In einer Diskursanalyse hat die Frage nach den Regeln zu folgen, die die Identifikation bestimmen. (Mehrtens, 404)
Mathematik und Sprache
39
Den fachpolitischen Diskurs innerhalb der Disziplin Mathematik charakterisiert er durch Produktion, Reflexion, Position und Reproduktion. Zum ersten geht es um die Produktivität, wobei die Richtigkeit neuer Resultate nur ein erstes Filter-Kriterium ist; vor allem sind es Fruchtbarkeit, Bedeutung oder zumindest Nützlichkeit, auf die es darüber hinaus ankommt und die nicht so schlicht binär codiert sind. Der interne Diskurs wird so geführt, dass die Produktion von neuer Mathematik gemäß solcher Qualitätskriterien gefördert wird. Je stärker dabei die Sprache der produzierten Texte formal wird, desto mehr muss der informelle Diskurs „Denk- und Redesprache“ (ebd., 419) sein, der Diskurs reagiert auch auf die Entwicklung der formalen Mathematik selbst: „Mit der Moderne ändern sich nicht nur die Schriftsprache und das Verhältnis von formeller Sprache und informeller Rede zueinander, sondern auch die Regeln des Informellen.“ (Mehrtens 1990, 419)
Die Reflexivität – „Worüber reden wir, und wie tun wir es am besten und am produktivsten?“ (ebd., 420) – ist der Produktivität im Range deutlich nachgeordnet. Dabei ist die Zeit der ‚Grundlagenkrise‘ insofern besonders ergiebig, als hier Produktion und Reflexion, die außerhalb von Umbruchzeiten eher getrennt voneinander verhandelt werden, in engster Weise zusammenhängen (siehe auch 5.4). Reflexive Äußerungen mit großem Horizont sind in der Regel den anerkannten Größen des Faches vorbehalten und häufig mit starken normativen Ansprüchen durchsetzt: In diesem Diskurs wird darüber geschrieben und gesprochen, wie sich die Mathematik selbst zu verstehen hat im Anspruch, produktiv, wahr, autonom, anerkannt und nützlich zu sein. (Mehrtens 1990, 420)
Ein Primat der Produktion scheine erst mit der mathematischen Moderne prägnant zum Ausdruckt gekommen zu sein; so zeigt eine Detailbeobachtung, wie der Begriff des Axioms „vom großen zum kleinen Wort“ in der Bedeutung herabgestuft wird: vom Satz, der Prinzipien formuliert (mit immer wieder umstrittener Bedeutung), zur schlichten Spielregel, die eine präzisere und damit auch produktivere Verwendung diktiert. Die Kriterien bzw. die jeweilige Beurteilung ist ggf. auch umstritten, im fachlichen Diskurs werden insofern auch Positionen bezogen und verteidigt. Die Opposition von Moderne vs. Gegenmoderne gliedert sich im Detail in recht unterschiedliche individuelle Positionen, denen die herausragenden Protagonisten durch die normative Bestimmung von Forschungsprogrammen (hier beobachtet Mehrtens u. a. die Rolle von „Ich“ und „Wir“ in den programmatischen Reden) eine einheitliche Stoßrichtung geben möchten. Schließlich soll der Diskurs auch seine Reproduktion sichern, das heißt ganz schlicht, Nachwuchs für die mathematische Arbeit zu gewinnen. Hier richtet sich der Diskurs partiell auch an die gesellschaftlich relevanten Instanzen, etwa in Kultusund Wissenschaftsverwaltung.
40
Gregor Nickel
Nach dem Durchgang durch einige Aspekte der Sprache und des Sprechens im Diskurs der Mathematik zeigt sich die Mathematik als eine merkwürdige Arbeit. Die Mathematiker sprechen eine lebendige Sprache über die Sprache Mathematik, die in ihrer vorwiegend metonymischen Struktur eine Poetik nahelegt, die der des realistischen Romans oder der Erzählung verwandt wäre. […] Ziel dieser Arbeit mit der lebendigen Sprache ist es, sie abzutöten und in Texte zu bringen, die reines Regelwerk sind. […] Der Diskurs organisiert und richtet die Arbeit, nach außen legitimierend, nach innen positionierend und reproduktiv. Der Diskurs hat Macht über die Subjekte, indem er ihnen die Worte gibt zu sagen, was gute Mathematik sei […] Zugleich ist der Diskurs auf die Arbeit an einer Sprache der Macht konzentriert, in der nicht die Macht über etwas, sondern die über die Sprache in der Form der Macht der Regeln dieser Sprache gefragt ist. (Mehrtens 1990, 509 f.)
5.1 Zur Rolle der Notation – Was kann überhaupt ausgedrückt werden? Die in mathematischen Texten verwendete Notation ist in ihrer Funktion deutlich wichtiger als es demjenigen erscheinen mag, der in ihr nur eine nötige, aber doch eigentlich beliebige und dem Inhalt nur äußerliche Konvention erkennen will. Betrachten wir als erstes Beispiel die Sandrechnung des Archimedes von Syrakus (287‒ 212 v. Chr.). Er stellt sich darin die Aufgabe, die Anzahl der Sandkörner abzuschätzen, die das Weltall erfüllen würden. Dieser kurze Traktat ist nicht nur deswegen bedeutsam, weil wir dort – in kühnem Außenblick auf das All – eine wissenschaftlich fundierte Abschätzung der räumlichen Ausdehnung des Kosmos finden. Mathematisch interessanter ist das von Archimedes entwickelte System, extrem große Zahlen darstellen zu können, was vor dem Hintergrund der relativ leistungsschwachen griechischen Systeme, die sich im Wesentlichen mit Zahlen bis zur Myriade – dekadisch also bis zehntausend – begnügen, durchaus bemerkenswert ist. Archimedes ermächtigt die sprachliche Ausdruckskraft dabei stufenweise: Zunächst werden die Zahlen von 1 bis Myriaden von Myriaden, also dekadisch 108, als Zahlen 1. Ordnung benannt. Die größte dieser Zahlen 1. Ordnung wird nun als Einheit der zweiten Ordnung verwendet; in dieser Ordnung kann dann bis 108 ⋅ 108 = 1016 weitergezählt bzw. -benannt werden. Es folgt die 3. Ordnung bis zu 108 ⋅ 1016 = 1024. Weiter fortschreitend können schließlich Zahlen der myriad-myriadsten Ordnung gebildet werden, d. h. bis 8 P = 10(8⋅10 ) = 10800000000. Die Zahlen von 1 bis P werden nun als Zahlen der ersten Periode bezeichnet, und das Spiel beginnt von Neuem in der „zweiten Periode“, indem die erste, zweite, dritte... bis zur P. Ordnung der ersten Periode gebildet wird. Die so erreichte Zahl P2 wird zur neuen Einheit einer dritten Periode; er fährt schließlich fort bis zur Periode Nummer 108. Dezimal notiert spricht Archimedes auf diese Weise 8 8 8 die Zahl P (10 ) = 10(8⋅10 ⋅10 ) an. Natürlich gibt Archimedes keine Eigennamen für jede einzelne so erfasste Zahl an, sondern nur ein verbales Schema, also eine geistig überblickbare Benennungs-Regel. Bei genauerem Überlegen ist es in der Tat gar nicht trivial, ‚beliebig große‘ Zahlen überhaupt zu benennen bzw. zu notieren.
Mathematik und Sprache
41
Nur kurz erwähnt werden soll in diesem Kontext die Bedeutung der Einführung eines dezimalen Stellenwertsystems aus dem islamischen Kulturraum für die Geschichte der europäischen Mathematik sowie die Genialität, die etwa in der Leibniz’schen Notation der Differential- und Integralrechnung steckt, bei der z. B. die Konstruktion des Integrals als Grenzwert bestimmter Summen klar ausgedrückt wird, und deren Überzeugungskraft bzw. ‚implementierte Intelligenz‘ zuweilen soweit reicht, dass korrekte Rechnungen weit über das mathematische Verständnis eines Anwenders hinaus ermöglicht werden.
5.2 Ladislav Kvasz: Muster in der historischen Entwicklung des mathematischen Sprachvermögens Deutlich differenzierter und grundsätzlicher als die bislang angedeutete Analyse einer Rolle der Notation ist der ausgesprochen inspirierende Blick, den Ladislav Kvasz auf die Geschichte der Mathematik wirft (Kvasz 2008, 2010). Deren innere Dynamik charakterisiert er durch Muster bzw. Typen eines linguistischen Wandels: It turns out that the fundamental discoveries in the history of mathematics were closely connected with important linguistic innovations. [...] And often it was the change of language, the change of the rules of syntax or semantics, that enabled a mathematician to express connections that were until then inexpressible, and so arrive at a discovery. (Kvasz 2008, 6)
Dabei geht Kvasz komplementär zu einer rein historischen Perspektive vor, die in erster Linie auf soziale, politische und kulturelle Rahmenbedingungen achtet, aber auch zu einer analytisch-philosophischen Perspektive, die im Wesentlichen die (aktuelle) formale Seite der Mathematik und die damit verbundenen Fundierungsfragen beachtet. Kvasz unterscheidet drei Typen des Wandels. Der erste Typ, die re-codings, bedeuten eine Änderung der mathematischen Sprache auf einer syntaktischen Ebene, in der Regel durch die Aufnahme neuer Elemente – im Bereich der Algebra etwa durch neue Regeln für die Bildung von Termen und Formeln, im Bereich der Geometrie durch neue Konstruktionsregeln. Dabei geht es jeweils um eine Erweiterung der sprachlichen Möglichkeiten, die u. a. dadurch motiviert ist, dass Situationen auftreten, die von der Sprache einer bestimmten Entwicklungsstufe nicht behandelt werden können; hier stößt die Sprache an Grenzen der Logik, wenn unerwartete Widersprüche auftauchen, an Grenzen des Ausdrucks, wenn komplexe Situation gar nicht beschrieben werden können:
The evolution of the language of mathematics consists in the growth of its logical and expressive power – the later stages of development of the language make it possible to prove more theorems and to describe a wider range of phenomena. The explanatory and the integrative power of the language also gradually increase – the later stages of development of the language enable deeper understanding of its methods and offer a more unified view of its subject. To overcome the logical and expressive boundaries, more and more sophisticated and subtle techniques are developed. (Kvasz 2008, 16)
42
Gregor Nickel
Kvasz verfolgt solche re-codings längs der Geschichte der Arithmetik und Algebra sowie der Geometrie von der Antike bis in die Moderne, wobei sich zeigt, dass jeweils eine ikonische Zwischenstufe nötig wird, um den Schritt von einer Stufe der symbolischen Sprache zur nächsten vollziehen zu können (vgl. Kvasz 2008, 85f.). Dabei kommen „ikonischer“ und „symbolischer Pol“ der Mathematik nie in eine perfekte Harmonie (vgl. Kvasz 2008, 99). Bei dem zweiten Typus, den relativizations, ändert sich die Beziehung von sprachlichem Ausdruck und Gegenstand, also die mathematische Sprache auf einer semantischen Ebene, wobei die Regeln zur Erzeugung sprachlicher Ausdrücke jeweils unverändert bleiben können. Historisch werden solche Relativierungen am Beispiel der Entwicklung von der Geometrie Euklids über die projektive Geometrie, zur Geometrie in Kleins Erlanger Programm und schließlich bis zur algebraischen Topologie nachvollzogen. Für seine Analyse des durch die mathematische Fachsprache explizit Ausgedrückten und dem dabei jeweils implizit Bleibenden bezieht sich Kvasz auf Ludwig Wittgenstein (1889‒1951), dessen Philosophie der Mathematik gerade auch mit ihrer Rahmung durch Sprache bzw. Sprachanalyse für unser Thema durchaus einschlägig wäre (vgl. Mühlhölzer 2010). Dabei betont Kvasz einerseits, dass die mathematische Sprache einer jeweiligen Entwicklungsstufe eine Dimension aufweist, die nicht explizit ausgedrückt, auf die jedoch implizit hingewiesen werden kann. Andererseits gebe es nicht nur eine bildliche Form, sondern eine Pluralität von mathematischen Sprachformen, ohne deren Betrachtung die historische Entwicklung der Mathematik nicht lesbar gemacht werden könne (vgl. Kvasz 2008, 109), und die durch Explizieren des Impliziten auseinander hervorgingen: The evolution consists in two alternating processes – the explicit incorporation of the form of language which was at the previous stage only implicit, and the emergence of a new implicit form in the place of the previous one which was made explicit. (Kvasz 2008, 110)
Sein Paradebeispiel für ein solches Explizit-Werden des Impliziten ist die (durch die Renaissance-Kunst angestoßene) Erfindung der Projektiven Geometrie und damit die Integration der Beobachter-Perspektive in die Geometrie selbst: The four linguistic innovations […] the introduction of the representation of a representation, of the point of view, of the double reference, and of ideal objects, the language of geometry was enriched to such a degree that it became able to express things that were hitherto inexpressible. (Kvasz 2008, 119)
Die Entwicklungslinie der Geometrie wird bis zur Moderne weiterverfolgt, und eine ‚parallele‘ Entwicklung wird für die Algebra nachgezeichnet. Kvasz gibt für beide Bereiche Sprach-Formen an, die jeweils unterschiedlich tiefgehende intentionale Ebenen bezeichnen; der Wechsel von einer Ebene zur nächsten sind dann gerade die Relativierungen:
Mathematik und Sprache
43
I suggest calling the epistemic ruptures that consist in the incorporation of deeper and deeper structures of the subject into the language relativizations. In their course, successive layers of our own subjectivity are reified in the language in the form of explicit objects, such as a point, a translation dictionary, or a symmetry group. (Kvasz 2008, 119)
Der dritte Typ, die re-formulations, sind schließlich die häufigsten und eher unspektakulären, ‚lokalen‘ mathematischen Sprach-Entwicklungen, bei denen etwa einzelne Definitionen oder Beweise durch äquivalente ersetzt werden. Die Wirkung kann allerdings fundamental und weitreichend sein. Die Umformulierung des 5. Postulats der Elemente des Euklid durch John Playfair (1795) erlaubt etwa seine Negationen viel klarer zu übersehen, was die Erfindung nicht-euklidischer Geometrien erheblich erleichtert haben dürfte (vgl. Kvasz 2008, 226f.). Die parallele, unabhängige Erfindung mathematischer Theorien (die Analysis bei Newton und Leibniz sind das prominenteste Beispiel) kann ebenso unter die – in diesem Falle nicht intendierten – Reformulierungen subsumiert werden wie praktisch alle gängigen Formulierungen in Lehrbüchern (vgl. Kvasz 2008, 227). Was Kvasz als treibende Kraft für die historische Entwicklung der Mathematik beschreibt, wird in dem ebenso unkonventionellen wie raffinierten Grundlagenwerk George Spencer Browns explizit vorgeführt. Aus der natürlichen Sprache heraus entwickelt er beginnend mit dem schlichten Befehl „draw a distinction“ einen Kalkül für Unterscheidung und Bezeichnung, der sich schließlich schrittweise von einer Arithmetik zur Algebra erweitert (vgl. die Analyse sowohl aus mathematischer wie philosophischer Perspektive in Rathgeb 2016a).
5.3 Brian Rotman: Mathematics as scribbling and thinking Die kommunikative Praxis und der Zeichengebrauch in der aktuellen Mathematik stehen im Fokus des Interesses von Brian Rotman, der einen höchst aufschlussreichen semiotischen Rahmen für eine systematische Analyse der Mathematik vorschlägt (Rotman 1988, 1993, 2000, vgl. auch Mehrtens 1990, 433): As the sign system whose grammar has determined the shape of Western culture’s techno-scientific discourse since its inception, mathematics is implicated, at a deeply linguistic level, in any form of distinctively intellectual activity; […] My purpose here is to initiate the project of giving a semiotic analysis of mathematical signs; a project which, though implicit in the repeated reference to mathematics in Perice’s writings on signs, seems not so far to have been carried out. (Rotman 1988, 97)
Die üblichen Zugänge der Semiotik – „formal, psychological, referential“ –können allerdings für die Mathematik nicht unmittelbar verwendet werden, ohne die systematischen Anfragen an den Charakter des mathematischen Handelns in unzulässiger Weise vorab zu beantworten. Immerhin passen sie in gewisser Weise zu den drei gängigen
44
Gregor Nickel
Grundlagen-Theorien der Mathematik: Formalismus, Intuitionismus und Platonismus, die in ihrer Betonung jeweils eines Aspekts der Mathematik durchaus berechtigt sind, aber einzeln defizitär bleiben müssen: Certainly, in some undeniable but obscure way, mathematics seems at the same time to be a meaningless game, a subjective construction, and a source of objective truth. […] A semiotics of mathematics […] must attempt to explain […] how each is inadequate, illusory, and undeniably attractive. (Rotman 1988, 101)
Eine erste Beobachtung der mathematischen Arbeit zeigt keine besonders dramatischen Aktionen, aber doch eine charakteristische Mischung von Kritzeln und Denken: Mathematics can be an activity whose practice is silent and sedentary. The only things mathematicians can be supposed to do with any certainty are scribble and think; they read and write inscriptions which seem to be inescapably attached to systematically meaningful mental events. (Rotman 1988, 105)
Diese Tätigkeiten werden jedoch in der Sicht von Formalismus und Intuitionismus auseinandergerissen und einseitig gewichtet, worin zugleich ihre Stärke wie auch ihre Begrenzung liegt: If formalism projects the mathematical amalgam of thinking/scribbling onto a plane of formal scribble robbed of meaning, intuitionism projects it onto a plane of thought devoid of any written trace. (Rotman 1988, 122 f.)
Der semiotische Zugang muss also – will er nicht zirkulär werden – die Bevorzugung einer einzelnen Theorie vermeiden, der Startpunkt kann also nicht der formale Zugang über die Syntax oder der rein psychologische, aber auch nicht die Referenz auf etwas dem Mathematiker vorgegebenes Externes sein. Rotman schlägt vor, die Texte der Mathematik und deren Grammatik bzw. das Ineinander von natürlicher (Fach)sprache und formalen Zeichen genau zu untersuchen (der Zusammenhang zwischen der informellen, mündlichen Kommunikation an Tafel und Notizzettel und den geschriebenen Texten sei zwar wichtig, er wird aber vorerst übergangen). Ein Blick auf die Texte zeigt Substantiva mit fraglicher Referenz (nur der Platonismus hätte hier eine einfache Antwort), Rotman achtet dann aber insbesondere auf die Fülle unterschiedlichster Verben und ihre jeweilige Rolle in Indikativ- und Imperativ-Form: „Consider a Hausdorff space“ etabliert etwa einen gemeinsamen Bezugsrahmen, „integrate the function f“ ordnet eine Operation innerhalb des gegebenen Rahmens an (vgl. ebd., 104). Fragt man genauer nach den Adressaten solcher Imperative, so liegt es nahe, den arbeitenden Mathematiker in drei handelnde Entitäten zu zerlegen: „Agent, Mathematician, Person“: If the Agent is a truncated and abstracted image of the Mathematician, then the latter is himself a reduced and abstracted version of the subject– let us call him the Person who operates with the signs of natural language and can answer to the agency named by the ‘I’ of ordinary nonmathematical discourse. [...] The Mathematician’s psychology, in other words, is transcultural and disembodied. (Rotman 1988, 107)
Mathematik und Sprache
45
Während sie gemeinsam Mathematik betreiben, führen Mathematiker und Agent verschiedene Arten von Aktivitäten aus, zum Beispiel ist es der Mathematiker, der die inklusiven Forderungen, bestimmte Welten zu ‚betrachten‘ oder zu ‚definieren‘ und Theoreme in Bezug auf diese Welten zu ‚beweisen‘, und es ist sein Agent, der Aktionen innerhalb solcher Welten ausführt, wie z. B. ‚zählen‘ oder ‚integrieren‘, die von exklusiven Imperativen gefordert werden (vgl. Rotman 1988, 106). Der gemeinsame (Nach)vollzug eines Beweises ist dabei eine zentrale Aufgabe, wobei Rotman das Theorem als eine Voraussage des Mathematikers an sich bzw. andere interpretiert, wie ein regelgerechtes Zeichen-Spiel ausgehen wird. Diese Voraussage muss durch den Beweis belegt werden, was bei allgemeinen (infiniten) Aussagen nicht durch ‚experimentelle‘ Verifikation erfolgen kann. Hier hilft der Agent, an den der Mathematiker die von ihm selbst aufgrund des Mangels an unendlicher Zeit nicht durchführbaren Operationen – etwa die Summation einer unendlichen Reihe – delegiert. Auf der anderen Seite kann die Beweis-Idee nicht in der formalen Sprache des Beweises selbst kommuniziert werden. Die leitende Idee eines Beweises, ohne die Theorem und Beweis ohne ‚Motivation‘ und letztlich unverständlich bleiben müssten, markiert den nur der Person zugänglichen Übergang zwischen natürlicher Sprache und formaler Sprache:
In short, the idea behind a proof is situated in the meta-Code; it is not the Mathematician himself who can be persuaded by the idea behind a proof, but the Mathematician in the presence of the Person, the natural language subject of the meta-Code for whom the Agent as a simulacrum of the Mathematician is an object of the discourse. (Rotman 1988, 110)
Nur das Zusammenwirken aller drei ermöglicht somit die sinnvolle, verständige Bearbeitung eines mathematischen Textes, wobei sich ihre Aktivitäten in Bezug auf die jeweilige Sprach- bzw. Zeichen-Ebene abgrenzen und charakterisieren lassen. Ein erfolgreicher mathematischer Beweis stellt sich nun als ein komplexes semiotisches Geschehen zwischen Kritzeln und Denken dar: Persuasion and the dialectic of thinking/scribbling which embodies it is a tripartite activity: the Person constructs a narrative, the leading principle of an argument, in the metaCode; this argument or proof takes the form of a thought experiment in the Code; in following the proof the Mathematician imagines his Agent to perform certain actions and observes the result; on the basis of these results, and in the light of the narrative, the Person is persuaded that the assertion being proved – which is a prediction about the Mathematician’s sign activities – is to be believed. (Rotman 1988, 122 f.)
5.4 Der Mathematische Beweis zwischen Freiheit und Zwang Die Sprache der Mathematik ist symbolisches Regelgebilde zwingend: wer sich darauf einläßt, sie zu sprechen, kann sich den Diktaten der Regeln nicht entziehen. Zugleich aber ist diese Sprache disponibel, ihre Gesetze sind gesetzt und können umgesetzt und umformuliert werden. Dieses
46
Gregor Nickel
Paradoxon von Freiheit und Notwendigkeit führt in die Frage nach Sprache und Sprecher und damit zurück in den Diskurs der Mathematik. (Mehrtens 1990, 477)
Inspiriert von der semiotischen Perspektive Rotmans und den historischen Überlegungen von Herbert Mehrtens soll das kommunikative Phänomen des mathematischen Beweises nun abschließend nochmals betrachtet werden (vgl. Nickel 2006, 2010, 2017), wobei eine von Rotman nur indirekt berührte Thematik im Zentrum stehen soll: Die darin zum Ausdruck kommende Spannung von Freiheit und Zwang. Für Rotmans Akteure könnten wir zunächst grob charakterisieren, dass der Agent den Befehlen des Mathematikers willig folgt und dabei Handlungen mit streng determiniertem Ausgang ausführt. Er arbeitet wie ein (unendlichen) Computer, der z. B. Reihen-Summen berechnet oder Integrale auswertet. Diese zweifache Determination des Agenten ist von zentraler Bedeutung für jeden Beweis und selbst für die einfachste Berechnung. Der Mathematiker wiederum ist zumindest frei, bestimmte Objekte zu definieren, bestimmte Bedingungen anzunehmen usw., aber er ist streng an die Regeln des mathematischen Codes gebunden. Die Person schließlich hat die freie Wahl, einem mathematischen Diskurs beizutreten oder ihn ggf. auch zu verlassen, und auch die Freiheit, einen vorliegenden Beweis zu akzeptieren oder nicht. Verlassen wir nun Rotmans Akteure und wenden uns wieder den realen Personen zu, die einen mathematischen Beweis führen oder rezipieren. Deren Diskurs soll im Folgenden knapp charakterisiert werden. 1. Wie keine andere Sprache zeichnet sich die Mathematik durch ein extrem scharfes und gleichzeitig extrem weites An- bzw. Ausschlusskriterium für die Kommunikation aus. Strikt auszuschließen sind alle ‚falschen‘ Sätze bzw. Beweise bzw. Rechnungen, aber auch nur diese. Jeder Gegenstand, über dessen Struktur ‚richtige‘ bzw. ‚falsche‘ Aussagen gemacht werden können, ist ein Gegenstand, über den Mathematik sprechen könnte. Dies wäre kurz gefasst die These Niklas Luhmanns (1927‒1998) bezüglich der mathematischen Eigenart im Kanon der Wissenschaften:
Was Mathematik erreicht [...] ist ein sehr hohes Maß an Anschlußfähigkeit für Operationen, und zwar in einer eigentümlichen Kombination […] Bestimmtheit der Form und Unbestimmtheit der Verwendung, die an Geld erinnert. Mathematik ist also, gerade weil sie auf Übereinstimmung mit der Außenwelt verzichtet, in der Lage, Anschlußfähigkeit zu organisieren. Sie ist nicht nur analytisch wahr, und schon gar nicht aufgrund logischer Deduktion aus gesicherten Axiomen; sie ist deshalb wahr, weil sie die beste interne Operationalisierung des Symbols der Wahrheit erreicht. (Luhmann 1998, 200)
Dementsprechend ist in der Mathematik – wie in kaum einer anderen Wissenschaft – eine schnelle Einigung über die Zulässigkeit einer Argumentation möglich (zumindest in der alltäglichen Forschungspraxis). Michel Serres spricht von einer „rauschfreien“ Sprache. 2. Mathematik erreicht diese Rigidität durch den möglichst weitgehenden Ausschluss jeglicher Hermeneutik. Strikte Identität der Zeichen – und zwar als Typen,
Mathematik und Sprache
47
nicht als Token – ist per definitionem gesichert. Innerhalb eines mathematischen Textes spielt der Kontext für ein Zeichen keine Rolle, und Übersetzungen (in eine andere Notation) sind ohne jeden Verlust möglich (vgl. Mehrtens 1990, 449ff.). Hilbert hatte eine solche Auffassung auch für miteinander „verwandte“ natürliche Sprachen formuliert. Ist Identität auf diese Weise gesichert, bzw. sind die auftretenden Paradoxien invisibilisiert, können mögliche Widersprüche strikt ausgeschlossen werden. Die mathematische Sprache wird kristallklar, verzichtet dafür allerdings auf diejenigen sprachlichen Phänomene, die von ‚weicheren‘ Übergängen, etwa dem variierenden Bedeutungs-Horizont der Worte leben, verzichtet etwa auf Humor, Ironie, Witz, Takt. Werner Stegmaier sieht die Mathematik gerade in dieser Hinsicht im genauen Gegensatz zu einer Philosophie der Orientierung (vgl. Stegmaier 2011, 15‒25), denn sie schließt die für alle lebensweltliche Orientierung wie auch das Sinn-Verstehen nötigen Spielräume. In idealtypischem Sinne gilt, dass die Mathematik die Wissenschaft ist, die all ihre Zeichen und alle Regeln der Verknüpfung dieser Zeichen explizit einführt und vollständig definiert. Dadurch aber schließt sie alle Spielräume des Verstehens im Gebrauch ihrer Zeichen, lässt keinen individuellen Sinn, keine individuelle Bedeutsamkeit ihrer Zeichen, keine individuelle Ausrichtung der Orientierung durch sie zu; […] Mit der Schließung aller Spielräume des Verstehens wird aber auch von den Bedingungen der Möglichkeit der Orientierung abgesehen: die Mathematik kann nur dadurch absolut gewiss und vollkommen allgemeingültig sein, dass sie die stets situativen Bedingungen der stets individuellen Orientierung gleichgültig macht. (Stegmaier 2011, 23)
3. Die Pragmatik des mathematischen Diskurses weist ein Doppelgesicht von Despotie und Subversion auf (vgl. auch Mehrtens 1990, 514ff.). Es scheint klar, dass mathematische Beweise den Anspruch auf eine zwingende Argumentation erheben – soweit das überhaupt möglich ist. Es geht beim Beweisen nicht darum, über ein Ergebnis zu verhandeln, nicht um die Suche nach einem Kompromiss zwischen verschiedenen Interessen. Ein erfolgreicher Beweis sollte keine Möglichkeit für die Verteidigung einer Negation des Theorems offen lassen und die Zustimmung ist keine Frage des Geschmacks oder der freien Wahl. Der Kommunikationsprozess hat in dieser Hinsicht einen diktatorischen Charakter, er folgt einer mathematischen Despotie. Herbert Mehrtens betont diesen Aspekt, wenn er das Zwingende eines Beweises auf den speziellen sprachlichen Charakter der Mathematik zurückführt: Die Setzungen der Mathematik haben den Charakter von Befehlen, die Theoreme und Schlußfolgerungen sollen immer zwingende Folge der Befehlssysteme sein. Das macht den eigenartigen Charakter dieser Sprache aus; sie besteht aus Befehlen, die das Setzen von Zeichen regeln. Die Gewißheit der Mathematik liegt in ihrer befehlsmäßig zwingenden Struktur. (Mehrtens in Barrow 1996, 101)
Auf der anderen Seite ist die soziale Stellung der Gesprächspartner völlig unerheblich. Um ein mathematisches Theorem zu verteidigen, kann man sich nicht auf wie auch immer geartete Autorität(en) berufen, idealtypisch zählt einzig der schlüssige Beweis.
48
Gregor Nickel
Insofern kann das Ideal des mathematischen Diskurses im strengsten Sinne als herrschaftsfrei bezeichnet werden. Sicherlich ist es dieser antiautoritäre Hintergrund, den David Hilbert im Sinn hatte, als er den erzieherischen Wert der Mathematik lobte. Für das Gelingen ist der mathematische Diskurs allerdings in hohem Maße auf das gegenseitige Wohlwollen der Diskurspartner angewiesen. Die Formulierung von Definitionen, Theoremen und Beweisen setzt beim Rezipienten ein hohes Maß an Bereitschaft voraus, dem Autor Kredit für seine Begriffsbildung und Beweisführung zu geben, allerdings nur soweit dieser die versprochene Konsistenz durchhält. Die prekären Übergänge zwischen informeller Fachsprache und formaler (Zeichen-)Sprache benötigen dabei ein gemeinsames Grundvertrauen in die Zuverlässigkeit der geregelten Sprache. Dass es keineswegs einfach, ja sogar unmöglich ist, einen intelligenten, aber ‚formal-störrischen‘ Diskurs-Partner zum Anwenden des Modus ponens zu zwingen, zeigt Charles Lutwidge Dodgson, alias Lewis Carroll (1832‒1898), in einem ebenso amüsanten wie tiefsinnigen und anregenden Aufsatz an Hand eines fiktiven Diskurses zwischen Achill und einer Schildkröte (Carroll 1895, vgl. hierzu auch Rathgeb 2016b). 4. Wo – radikalisiert im Sinne des Formalismus – zunächst jede nicht-widersprüchliche Definition und Axiomatik zulässig ist, kann sich Kritik nicht darauf richten, dass der ‚Gegenstand‘ nicht adäquat beschrieben sei; eine jede Argumentation kann sich also zunächst ohne Grundlagenkritik entfalten. Mathematik basiert auf dem wohlwollenden Akzeptieren in freier Entscheidung gesetzter (strikt konsistenter!) Regeln. Wenn korrekt argumentiert wird, kann Kritik innerhalb der Mathematik nur noch durch Disziplin-Differenzierung reagieren; man verlässt das eine (Sub-)Spiel und spielt nach den präferierten Regeln weiter. Man ändert also die (strukturellen) Axiome, d. h. den ‚Gegenstand‘, oder die Konstruktions- bzw. Folgerungsregeln, d. h. die (logischen) Werkzeuge. Von zentraler Bedeutung ist jedoch, dass auch nach einer solchen Änderung der grundlegende Unterschied zwischen 1. den Voraussetzungen (Axiome, Postulate, Definitionen) und 2. dem Theorem oder der Behauptung und 3. dem Beweis erkennbar bleibt. Alle drei Momente müssen – auch durch sprachliche Signale (häufig schlichte Überschriften) klar voneinander getrennt werden. Ein wissenschaftspolitischer Diskurs über den Wert der verschiedenen Forschungsrichtungen verlässt dann natürlich den mathematischen Rahmen teilweise und wird bei knappen Ressourcen auch mit entsprechend nachlassendem Wohlwollen geführt. 5. Reflexivität: In der Mathematik lässt sich das eigentümliche Phänomen beobachten, dass mathematische Grundlagenfragen mit mathematischen Methoden bzw. in mathematischer Sprache diskutiert werden, die Grenze zwischen Code und meta-Code ist nicht unpassierbar. Eine besonders intensive Phase dieser Bemühungen ist natürlich in der so genannten Grundlagendiskussion der ersten Jahrzehnte des 20. Jahrhunderts und den Resultaten Kurt Gödels zu sehen. Die zunächst philosophische Frage nach den Gesetzen der Logik, nach zulässigen Beweisverfahren und Objekten der Mathematik kann im Rahmen der Hilbertschen Metamathematik, der Beweistheorie, Axiomatik und Mengentheorie (fast!) vollständig mathematisiert werden. Ja, es gelingt sogar, diese Thematik als Subdisziplin der Mathematik zu etablieren.
Mathematik und Sprache
49
Die Sprache Mathematik erweist sich als in einem eingeschränkten Sinn reflexiv. Die Reflexion auf Begründungs- und Verfahrensweisen der Mathematik konnte wieder Mathematik werden. Produktive und reflexive Funktion des Diskurses gehen dort ineinander, wo Reflexion in der Sprache Mathematik stattfindet. […] Die Sprache Mathematik kann einiges über sich sagen, aber sie kann nichts über das Sprechen sagen, seine Intention, seine Richtung, sein Recht. (Mehrtens 1990, 423)
Aber auch unterhalb der Ebene der Intentionen ist Mathematik in mathematischer Sprache nur um den Preis von logischen Antinomien konsequent zu behandeln – und das heißt eigentlich gar nicht. Aber dies lässt sich wiederum ‚gerade noch so‘ mathematisch zeigen. Anstatt die schwierige Frage nach ihrer Erkenntnisbefähigung ganz auszublenden, kann sie in der Mathematik immerhin hinreichend entschärft werden. Für die Mathematik lässt sich nur im Schonraum des Binnendiskurses eine Perspektiv- und Situationsinvarianz (als orientierendes Ideal) aufrechterhalten (vgl. StekelerWeithofer 2012, 5), und auch dieser erlaubt ein Reden der Mathematik über sich selbst nur um den Preis von Antinomien; so lautet jedenfalls die Interpretation von Paul Bernays (1888‒1977), der schlicht konstatiert: Philosophisch kann das Verfahren der Lösung der Antinomien durch die axiomatische Mengenlehre in dem Sinne gedeutet werden, dass man die Antinomien als Anzeichen dafür nimmt, dass die Mathematik als Ganzes nicht ein mathematisches Objekt bildet und dass also die Mathematik nur als eine offene Mannigfaltigkeit verstanden werden kann.“ (Bernays 1976, 174)
6 Epilog Die „offene Mannigfaltigkeit“ Mathematik kann auf ganz unterschiedlichen Wegen betreten werden, der erforderliche Übergang von der natürlichen Sprache in den fachlichen Diskurs, in Fach- und Zeichen-Sprache kann – je nach Bedarf, Vorbildung und angestrebtem Ziel – abrupt oder schonend, präzise und kontrolliert oder laxer gewählt werden (vgl. Schmidt 2003); für die Arbeit an weiterer Mathematik kommt es dabei auf ein sicheres Gespür für die jeweils nötige Präzision an, wobei die hier diskutierten philosophischen Positionen zu Gegenstand und (logischer) Methode weitgehend implizit bleiben, aber gleichwohl wirksam sind. Mathematik ermöglicht es, auf ihre Weise über die unterschiedlichsten Bereiche zu sprechen, besonders durchschlagkräftig für den modernen Natur-Begriff, aber auch bei der Gestaltung von Sozialformen (vgl. Nickel 2011, 2020). Und schließlich öffnet sie sich Ein-Blicken aus den verschiedensten nicht-mathematischen Perspektiven, von denen wir vor allem die semiotische verfolgt hatten (vgl. darüber hinaus O’Halloran 2005). Der immer wieder erhellende Blick der Sprach-Kunst auf die Mathematik war – abgesehen von einem amüsiert distanzierten Seitenblick von Thomas Mann – hier nicht entfaltet worden (Näheres dazu in Radbruch 1997). Tiefer als Mann geht etwa die Analyse des Ingenieurs, Experimentalpsychologen und Dichters Robert Musil (1880‒1942), der die Wissenschaft als einen
50
Gregor Nickel
„Zauber, eine Zeremonie von höchster Herzens- und Hirnkraft“ charakterisiert, als „Religion, deren Dogmatik von der harten, mutigen, beweglichen, messerkühlen und -scharfen Denklehre der Mathematik durchdrungen und getragen wird“, der aber zugleich die Nichtmathematiker konstatieren lässt, es bilde die „Mathematik die Quelle eines bösen Verstandes […], der den Menschen zwar zum Herrn der Erde, aber zum Sklaven der Maschine mache“ und zuletzt sei „Mathematik, Mutter der exakten Naturwissenschaft, Großmutter der Technik, auch Erzmutter jenes Geistes [...] aus dem schließlich Giftgase und Kampfflieger aufgestiegen sind“. An den offenen Schluss unserer Reise zu Begegnungsorten von Mathematik und Sprache möchte ich eine verwunderte Bemerkung Johann Wolfgang von Goethes (1749‒1832) über den Zauber der Mathematik aus seinen Maximen und Reflexionen stellen: Die Mathematiker sind eine Art Franzosen: redet man zu ihnen, so übersetzen sie es in ihre Sprache, und dann ist es alsobald ganz etwas anderes.
7 Literatur Archimedes von Syrakus (1983): Die Sandzahl. In: Werke. Übers. und mit Anm. versehen von Arthur Czwalina. Darmstadt. 349. Barrow, John D. (1996): Warum die Welt mathematisch ist. Aus dem Engl. und mit einem Nachwort von Herbert Mehrtens. München. Bayer, Oswald (1988): Zeitgenosse im Widerspruch. Johann Georg Hamann als radikaler Aufklärer. München. Bernays, Paul (1976): Abhandlungen zur Philosophie der Mathematik. Darmstadt. Boole, George (2001): The mathematical analysis of logic. Being an essay towards a calculus of deductive reasoning (1847). Die mathematische Analyse der Logik. Der Versuch eines Kalküls des deduktiven Schließens. Aus dem Englischen übertragen, kommentiert und mit einem Nachwort und Anhängen versehen von Tilman Bergt. Halle. Cantor, Georg (1962): Gesammelte Abhandlungen. Hg. von E. Zermelo. Hildesheim. Carroll, Lewis (1895): What the Tortoise said to Achilles. In: Mind 4, 278–280. Cassirer, Ernst (1999): Ziele und Wege der Wirklichkeitserkenntnis. Hamburg. Cassirer, Ernst (2009): Gesammelte Werke. Hamburg. Church, Alonzo (1936): A bibliography of symbolic logic. In: Journal of Symbolic Logic 1–4, 121‒318. Ebbinghaus, Heinz-Dieter et al. (1998): Zahlen. Berlin. Eco, Umberto (1994): Die Suche nach der vollkommenen Sprache. München. Esterbauer, Reinhold/Elisabeth Pernkopf/Hans-Walter Ruckenbauer (Hg.) (2007): Wort-Wechsel. Sprachprobleme in den Wissenschaften interdisziplinär auf den Begriff gebracht. Würzburg. Ferber, Rafael (2007): Warum hat Platon die „ungeschriebene Lehre“ nicht geschrieben? München. Frege, Gottlob (1879): Begriffsschrift, eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. Halle 1879. Kommentierte Neuausgabe von M. Wille, Berlin 2018. Frege, Gottlob (1893): Grundgesetze der Arithmetik. Begriffsschriftlich abgeleitet. I. Band. Jena 1893. Reprographischer Nachdruck. Hildesheim. 1966. Frege, Gottlob (1976): Wissenschaftlicher Briefwechsel. Hamburg. Gabbay, Dov M./JohnWoods (Hg.) (2004‒2012): Handbook Of The History Of Logic. Bd. 1‒11. Amsterdam.
Mathematik und Sprache
51
Galilei, Galileo (1623): Il saggiatore. Nel quale con bilancia esquisita e giusta si ponderano le cose contenute nella Libra astronomica e filosofica di Lotario Sarsi Sigensano/Scritto in forma di lettera. Roma. Gallin, Peter (2011): Mathematik als Geisteswissenschaft. Der Mathematikschädigung dialogisch vorbeugen. In: Markus Helmerich et al. (Hg.): Mathematik verstehen. Philosophische und didaktische Perspektiven. Wiesbaden, 105‒116. Hamming, Richard Wesley (1980): The Unreasonable Effectiveness of Mathematics. In: The American Mathematical Monthly 87/2, 81‒90. Heintz, Bettina (2000): Die Innenwelt der Mathematik: Zur Kultur und Praxis einer beweisenden Disziplin. Wien. Hilbert, David (1970): Naturerkennen und Logik. In: Gesammelte Abhandlungen. Band 3. Berlin, 378‒387. Hilbert, David (1988): Wissen und mathematisches Denken. Vorlesung ausgearbeitet von Wilhelm Ackermann. Göttingen. Hilbert, David (1989): Natur und mathematisches Erkennen. Vorlesung ausgearbeitet von Paul Bernays. Göttingen. Illi, Manuel (2017): Sprache in Wissenschaft und Dichtung. Diskursive Formationen von Mathematik, Physik, Logik und Dichtung im 17. und 18. Jahrhundert. Berlin. Jacquette, Dale (Hg.) (2007): Philosophy of logic. Amsterdam. Jørgensen, Jørgen (1962): A Treatise of Formal Logic. Vol I. New York. Kant, Immanuel (1903): Metaphysische Anfangsgründe der Naturwissenschaft. In: Immanuel Kant (1900ff.): Gesammelte Schriften, Band 4. Hrsg. von der königlich preußischen Akademie der Wissenschaften. Berlin, 465‒566. Kant, Immanuel (2016): Kritik der reinen Vernunft. Zweite Auflage von 1787. Berlin. Koyré, Alexandre (1988): Galilei. Die Anfänge der neuzeitlichen Wissenschaft. Berlin. Krömer, Ralf (2010): Was ist Mathematik? Versuch einer Wittgensteinschen Charakterisierung der Sprache der Mathematik. In: Pierre Edouard Bour/Manuel Rebuschi/Laurent Rollet (Hg.): Construction. Festschrift for Gerhard Heinzmann on the occasion of his 60th birthday. London, 209‒221. Kvasz, Ladislav (2008): Patterns of Change. Linguistic Innovations in the Development of Classical Mathematics. Basel. Kvasz, Ladislav (2010): Language in Change. Lissabon. Kracht, Marcus (2003): The Mathematics of Language. Berlin. Lakatos, Imre (1979): Beweise und Widerlegungen. Braunschweig. Lakatos, Imre (2002): What Does a Mathematical Proof Prove? In: Dale Jacquette (Hg.): Philosophy of Mathematics. An Anthology. Oxford, 187‒192. Leibniz, Gottfried Wilhelm (31966): Anfangsgründe einer allgemeinen Charakteristik (1677). In: Ders.: Hauptschriften zur Grundlegung der Philosophie. Band I. Hg. Ernst Cassirer, übers. Artur Buchenau. Hamburg, 30‒38. Livio, Mario (2010): Ist Gott ein Mathematiker? – Warum das Buch der Natur in der Sprache der Mathematik geschrieben ist. München. Lorenzen, Paul (1956): Ist Mathematik eine Sprache? In: Synthese 10, 181‒186. Lorenzen, Paul/Oswald Schwemmer (1973): Konstruktive Logik, Ethik und Wissenschaftstheorie. Mannheim. Luhmann, Niklas (1998): Die Wissenschaft der Gesellschaft. Frankfurt a. M. Maier, Hermann/Fritz Schweiger (1999): Mathematik und Sprache. Zum Verstehen und Verwenden von Fachsprache im Mathematikunterricht. Wien. Mandrella, Isabelle (2005): Der wissenschaftstheoretische Primat im Denken des Cusanus: Mathematik oder Metaphysik? In: Friedrich Pukelsheim/Harald Schwaetzer (Hg.): Das Mathematikverständnis des Nikolaus von Kues. Trier, 183‒200.
52
Gregor Nickel
Mann, Thomas (1960): Königliche Hoheit. Gesammelte Werke, Band II. Frankfurt a. M. Matthiscyk, Sven (2016): Die dialogische Form der Mathematik. Königshausen & Neumann. Würzburg. Mehrtens, Herbert (1990): Moderne Sprache Mathematik. Frankfurt a. M. Meyer, Michael/Kerstin Tiedemann (2017): Sprache im Fach Mathematik. Heidelberg. Moustakas, Ulrich (2003): Urkunde und Experiment. Neuzeitliche Naturwissenschaft im Horizont einer hermeneutischen Theologie der Schöpfung bei Johann Georg Hamann. Berlin. Mühlhölzer, Felix (2010): Braucht Mathematik eine Grundlegung? Frankfurt a. M. Nickel, Gregor (2005): Nikolaus von Kues: Zur Möglichkeit von theologischer Mathematik und mathematischer Theologie. In: Inigo Bocken/Harald Schwaetzer (Hg.): Spiegel und Porträt. Zur Bedeutung zweier zentraler Bilder im Denken des Nicolaus Cusanus. Maastricht, 9‒28. Nickel, Gregor (2006): Zwingende Beweise – zur subversiven Despotie der Mathematik. In: Dietrich Julia/Uta Müller-Koch (Hg.): Ethik und Ästhetik der Gewalt. Paderborn, 261‒282. Nickel, Gregor (2007): Mathematik und Mathematisierung der Wissenschaften – Ethische Erwägungen. In: Jochen Berendes (Hg.): Autonomie durch Verantwortung. Paderborn, 319‒346. Nickel, Gregor (2011): Mathematik – die (un)heimliche Macht des Unverstandenen. In: Markus Helmerich et al. (Hg.): Mathematik verstehen. Philosophische und didaktische Perspektiven. Wiesbaden, 47‒58. Nickel, Gregor (2020): Zahlen in der Pandemie – Ein Versuch. In: Siegener Beiträge zur Geschichte und Philosophie der Mathematik 13, 295‒310. Nickel, Gregor/Martin Rathgeb (2014): Umnutzungen in der Mathematik. In: Stephan Habscheid et al (Hg.): Umnutzung. Alte Sachen, neue Zwecke. In: Diagonal 35, 125‒133. Nikolaus von Kues (2002): Philosophisch-theologische Werke in 4 Bänden. Hamburg. Nobis, Herbert M. (1971): „Buch der Natur“. In Joachim Ritter (Hg.): Historisches Wörterbuch der Philosophie. Band 1: A‒C. Basel, 958. O’Halloran, Kay L. (2005): Mathematical discourse: language, symbolism and visual images. London. Peckhaus, Volker (1997): Logik, Mathesis universalis und allgemeine Wissenschaft. Leibniz und die Wiederentdeckung der formalen Logik im 19. Jahrhundert. Berlin. Picht, Georg (1998): Der Begriff der Natur und seine Geschichte. Stuttgart 1998. Prantl, Carl (1855‒1870): Geschichte der Logik im Abendlande (4 Bd.). Leipzig. Radbruch, Knut (1997): Mathematische Spuren in der Literatur. Darmstadt. Rathgeb, Martin (2016a): George Spencer Browns „Laws of Form“ zwischen Mathematik und Philosophie. Siegen (Siegener Beiträge zur Geschichte und Philosophie der Mathematik, 6). Rathgeb, Martin (2016b): Lewis Carroll, die Schildkröte und Achill. Ein unendlicher logischer Diskurs auf drei Seiten. In: Siegener Beiträge zur Geschichte und Philosophie der Mathematik 7, 69‒97. Rickert, Heinrich (21924): Das Eine, die Einheit und die Eins. Tübingen. Rotman, Brian (1988): Towards a Semiotics of Mathematics. In: Semiotica 72/1‒2, 1‒35. Wiederabdruck in Reuben Hersh (Hg.): 18 Unconventional Essays on the Nature of Mathematics. New York. 2006. Rotman, Brian (1993): Signifying Nothing. The Semiotics of Zero. Stanford. Rotman, Brian (2000): Mathematics as Sign. Writing, Imagining, Counting. Stanford. Ruf, Urs/Peter Gallin (1989/1999): Dialogisches Lernen in Sprache und Mathematik. 2 Bände. SeelzeVelber. Schäfer, Lothar (2005): Das Paradigma am Himmel. Platon über Natur und Staat. Freiburg i.Br. Schmidt, Vasco Alexander (2003): Grade der Fachlichkeit in Textsorten zum Themenbereich Mathematik. Berlin. Scholz, Heinrich (21959): Abriß der Geschichte der Logik. Freiburg. Scholz, Heinrich/Gisbert Hasenjaeger (1961): Grundzüge der mathematischen Logik. Berlin. Seebohm, Thomas M. (1984): Philosophie der Logik. Freiburg i.Br. Shapiro, Stewart (Hg.) (2005): The Oxford handbook of philosophy of mathematics and logic. Oxford.
Mathematik und Sprache
53
Stegmaier, Werner (2011): Orientierung durch Mathematik. In: Markus Helmerich et al. (Hg.): Mathematik verstehen. Philosophische und didaktische Perspektiven. Wiesbaden. Stekeler-Weithofer, Pirmin (2012): Denken. Wege und Abwege in der Philosophie des Geistes. Tübingen. Wagner-Döbler, Roland/Jan Berg (1993): Mathematische Logik von 1847 bis zur Gegenwart. Eine bibliometrische Untersuchung. Berlin. Wigner, Eugene P. (1960): The Unreasonable Effectiveness of Mathematics in the Natural Sciences. In: Commununications on Pure and Applied Mathematics 13, 1‒14. Wille, Matthias (2013): Frege: Einführung und Texte. Paderborn. Wussing, Hans (2008): 6000 Jahre Mathematik: Eine kulturgeschichtliche Zeitreise. Bd. I. Berlin.
Thomas Naumann
2. Physikalische Erkenntnis, Denken und Sprache Abstract: Naturwissenschaftliches Denken vollzieht sich im Rahmen von Sprachen, die mit Symbolen und Zeichen im Rahmen von Syntax und Semantik arbeiten. Die Sprache der Wissenschaft unterscheidet sich hierbei stark von der Sprache des Alltags. Sie versucht, logisch, klar und eindeutig zu sein, vermeidet Redundanz, hat für jedes Gebiet einen Spezialwortschatz, sie ist äußerst kompakt, enthält also eine hohe Informationsdichte, und ist besonders in der Physik stark von der Sprache der Mathematik geprägt. Im Folgenden soll untersucht werden, welche Rolle die Sprache bei der Gewinnung, der Formulierung sowie bei der Vermittlung physikalischer Erkenntnis spielt. Dazu werden wir 1.) unterscheiden zwischen der Sprache der Physik und der Sprache ihrer Kommunikation und 2.) untersuchen, welche Rolle die Sprache der Worte, die Sprache der Bilder und die Sprache der Mathematik in der Naturwissenschaft, insbesondere in der Physik, spielen. 1 2 3 4
Sprache in der Physik Sprache in der Wissenschaftskommunikation Sprache, die für dich dichtet und denkt Literatur
1 Sprache in der Physik 1.1 Grenzen des Denkens, Grenzen der Sprache Die Grenzen unserer Sprache sind auch die Grenzen unseres Wissens. In seinem Tractatus logico-philosophicus versuchte der Philosoph Ludwig Wittgenstein 1918, Sprache und damit unser wissenschaftliches und philosophisches Denken auf logische Grundlagen zu stellen. In Satz 5.6 seines Traktats (Wittgenstein 2003) formulierte er klar die Rolle der Sprache beim Erkennen der Welt: „Die Grenzen meiner Sprache bedeuten die Grenzen meiner Welt.“ Der berühmte siebte und letzte Abschnitt des Tractatus besteht lediglich aus dem prägnanten Satz: „Wovon man nicht sprechen kann, darüber muss man schweigen.“ Und im Vorwort schrieb er: Das Buch will also dem Denken eine Grenze ziehen, oder vielmehr – nicht dem Denken, sondern dem Ausdruck der Gedanken: Denn um dem Denken eine Grenze zu ziehen, müssten wir beide Seiten dieser Grenze denken können. (Wittgenstein 2003)
Wie die von Wittgenstein so formulierten Grenzen der Erkenntnis in der Physik wirksam werden, zeigt sich in verschiedener Hinsicht: Werner Heisenberg erinnerte sich in https://doi.org/10.1515/9783110296259-003
56
Thomas Naumann
den 1930 Jahren daran, dass der dänische Physiker und Nobelpreisträger Niels Bohr ihm bei ihrer ersten Begegnung im Sommer 1920 zu dem Versuch, sein Atommodell in der Sprache der klassischen Physik zu formulieren, gesagt habe: We must be clear that when it comes to atoms, language can be used only as in poetry. The poet, too, is not nearly so concerned with describing facts as with creating images and establishing mental connections. (Zitiert nach Heisenberg/Pomerans 1972, Pranger 1972, Newton 1997, 176)
Später formulierte Bohr: What is it that we humans depend on? We depend on our words... Our task is to communicate experience and ideas to others. We must strive continually to extend the scope of our description, but in such a way that our messages do not thereby lose their objective or unambiguous character ... We are suspended in language in such a way that we cannot say what is up and what is down. The word ‘reality’ is also a word, a word which we must learn to use correctly. (Zitiert nach Bub 1970, Newton 1997, 176)
In diesem berühmten Diktum „Wir hängen in der Sprache“, „vi haenger i sproget“, (Weizsäcker 1978) benannte Bohr die Grenzen der von ihm wesentlich mitgeschaffenen Formulierung der Quantentheorie. Einige Zeit später entdeckte John S. Bell das nach ihm benannte fundamentale Theorem der Quantenmechanik (Bell 1964, 195), als er in den 1960er Jahren am Europäischen Zentrum für Kernforschung CERN arbeitete. Es besagt, dass bestimmte Korrelationen zwischen verschränkten Quantenzuständen die nach ihm benannte Ungleichung verletzen. Zunächst wurde dies nur als ein Konflikt einer zugleich klassischen, lokalen und realistischen Beschreibung der Welt mit der Quantenmechanik betrachtet, wobei der Begriff des Realistischen sehr genau definiert werden muss. Aber Bells Arbeit löste eine Flut experimenteller und theoretischer Arbeiten aus, die das Fundament für die heutige Quantenkommunikation und für Quantencomputer legten. Heute ist die Verletzung der Bellschen Ungleichung ein wichtiges Kriterium für die Qualität der im Labor erzeugten verschränkten Quantenzustände. Man muss also die im Einstein-Podolski-Rosen-Paradoxon (Einstein/Podolsky/ Rosen 1935, 777 f.) formulierte Vorstellung verborgener Variablen aufgeben und akzeptieren, dass gemäß der Kopenhagener Deutung der Quantenmechanik die quantenmechanische Wellenfunktion nur die Wahrscheinlichkeit der Messwerte festlegt. Der quantenmechanische Messprozess hat also einen nicht-realen Aspekt: eine Messung stellt etwas fest und stellt etwas her, was zuvor nicht feststand. Auch ist die Quantenmechanik nicht-lokal, weil quantenmechanische Zustände an entfernten Orten verschränkt sein können. Um Klarheit in der Sprache und im Denken zu schaffen, versuchte Bell daher alle Begriffe aus dem Vokabular der Physik zu verbannen, die er sprachlich und begrifflich nicht als klar definiert erachtete. Der Sammlung seiner Veröffentlichungen gab er den vielsagenden Titel „Speakable and Unspeakable in Quantum Mechanics“ (Bell/Nauenberg 1966, 279 ff.). Zu den „Unspeakables“ – den unaussprechlichen Dingen – gehör
57
Physikalische Erkenntnis, Denken und Sprache
ten für Bell die Begriffe Messung, Messgerät und Information. Dieser Paradigmenwechsel im physikalischen Realitätsbegriff wird in nächster Zeit Einzug sowohl in unser Denken als auch in unsere Sprache halten. Klarheit des Denkens und Klarheit der Sprache bedingen einander. Unklarheiten der Sprache weisen häufig auf ungeklärte Probleme der Forschung hin – wie der Begriff der „Kopenhagener Deutung“, das Ringen von Niels Bohr und seiner Kopenhagener Schule um die Interpretation der Quantentheorie und Bells späte Texte zeigen.
1.2 Die Entwicklung der Konzepte der Leere und des Vakuums Verfolgen wir die sprachliche und wissenschaftliche Geschichte verschiedener physikalischer Konzepte von der Antike bis in die moderne Physik, sehen wir, wie sich offene Probleme im naturwissenschaftlichen Denken sprachlich manifestieren und wie stark Sprache und Bilder in die Physik hineinwirken. Wir konzentrieren uns hierbei auf zwei Themen: 1) die Vielfalt an Konzepten der Leere und des Vakuums und dabei insbesondere der Begriff des Äthers, der aus der Antike stammt und bis ins 20. Jahrhundert eine Rolle spielte, 2) die Atom-Hypothese, die zweieinhalb Jahrtausende nach ihrer verbalen Formulierung in der Antike zum gesicherten Wissen der Physik wurde. Die Konzepte von Leere, Äther und Vakuum haben die Physik auf den verschiedensten Gebieten beschäftigt und illustrieren besonders gut das Wechselspiel von Sprache, Denken und Physik. Wir diskutieren sie hier in der Elektrodynamik, in der Relativitätstheorie und in der Quantenfeldtheorie anhand der Rolle fundamentaler skalarer Felder in der Eichtheorie des Standardmodells der Teilchenphysik, insbesondere beim Higgs-Feld, in der modernen Kosmologie bei der kosmischen Inflation während des Urknalls, der Dunklen Energie sowie anhand der aktuellen und viel diskutierten Begriffe der Quintessenz und des Multiversums.
1.2.1 Geschichte des Ätherbegriffs in der Elektrodynamik Der Begriff des Äthers hat eine lange Geschichte im Denken der Physik. Die Verwendung des Begriffs beginnt in der griechischen Antike: Im 6. und 5. Jahrhundert v. Chr. führten die griechischen Philosophen Thales, Anaximenes, Heraklit und Empedokles die vier Elemente Erde, Wasser, Luft und Feuer ein. Später stellte Demokrit den Atomen als reinem, unveränderlichem, undurchdringlichem, homogenem und lückenlosem Sein das Nichtsein, die Leere, das Vakuum, den leeren Raum entgegen, durch den Vielheit, Bewegung und Veränderung überhaupt erst möglich wurden. Um das Jahr 360, ergänzte Platon im Timaios die vier Elemente durch eine neue Form reinster Luft (Ἀήρ, Aer), den Äther (αἰθήρ, aithēr), und ordnete diesen fünf Objekten je einen regelmäßigen Körper zu.
58
Thomas Naumann
Platos Schüler Aristoteles wiederum bezeichnete den Äther als die den anderen vier irdischen und veränderlichen Elementen zugrunde liegende unveränderliche und masselose fünfte Substanz der himmlischen Sphären, die Quintessenz. Diesen Begriff werden wir im Zusammenhang mit der Deutung der Dunklen Energie im Universum wiederfinden. In seiner „Metaphysik“ fasst Aristoteles zusammen, wie Demokrit versuchte, sowohl der Materie als auch der Leere einen Platz im Kosmos zuzuweisen: Dagegen lehrt nun Leukippos und sein Schüler Demokritos, Elemente seien das Volle und das Leere; jenes bezeichnen sie als das Seiende, dieses als das Nichtseiende, das Volle und Dichte nämlich als das Seiende, das Leere und Dünne als das Nichtseiende. Deshalb behaupten sie auch, das Nichtseiende sei ebensowohl wie das Seiende und das Leere ebensowohl wie das Körperliche; diese sind also nach ihnen die Ursachen des Seienden im Sinne der Materie. (Aristoteles 1907, 17)
Die platonische Schule hingegen lehnte es ab, an das Nicht-Seiende zu glauben. Aristoteles lehrt im 1. Buch seiner naturphilosophischen Abhandlung „Physik“, dass „eine Entstehung aus Nichtseiendem unmöglich ist“ (Aristoteles 1995, 9). Im 4. Buch befasst er sich mit dem Begriff der Leere und argumentiert, „das Leere aber ist nicht unter dem Seienden“ (Aristoteles 1829, 91) Lukrez lässt uns 55 v. Chr. in seinem Lehrgedicht „De rerum natura (Über die Natur der Dinge)“ im „III. Lehrsatz. Das Vakuum“ wissen:
Aber es ist nicht alles gedrängt voll Körpermaterie Allerseits. Denn es gibt noch im Innern der Dinge das Leere ... Wäre das Leere nicht da, dann könnt’ auf keinerlei Weise Irgendein Ding sich bewegen. Denn Widerstand zu entwickeln, Das ist des Körpers Amt … Also es ist in den Dingen natürlich noch etwas enthalten, Was wir spürsamen Geistes erforschen: wir nennen’s das Leere. (Lukrez 1924)
Schon Lukrez wies also dem Vakuum physikalische und speziell kinematische Aufgaben zu. Von der Antike bis zur Renaissance unterstellte man eine Abneigung der Natur gegen das Leere, die als horror vacui bezeichnet wurde, und lehnte auch eine creatio ex nihilo – eine Schöpfung aus dem Nichts – ab: ex nihilo nihil fit – von Nichts wird nichts, war die herrschende Meinung der Philosophen und Theologen. Später entwickelten die Stoiker den Begriff des Pneuma (πνεῦμα pnéwma: Geist, Hauch, Luft), einer universellen Lebenskraft ähnlich dem hebräischen ( ֣רוַּחruach: Geist, Wind, Atem) des Alten Testaments. Auch der ( ְו ֣רוַּח ֱאֹלִ֔היםruach elohim), der „Geist Gottes“ zu Beginn der Schöpfungsgeschichte, heißt „πνεῦμα θεοῦ“. Eine vergleichbare Rolle spielte später in der chemischen Theorie der Verbrennung das Phlogiston (φλογιστός phlogistós: verbrannt) – eine hypothetische Substanz, von der man im späten 17. und im 18. Jahrhundert vermutete, dass sie bei der Verbrennung entweicht.
Physikalische Erkenntnis, Denken und Sprache
59
In der Neuzeit entwickelte René Descartes folgenden Gedanken: Materie ist einzig durch Ausdehnung charakterisiert, und umgekehrt existiert keinerlei Ausdehnung ohne Materie. Daraus folgt, dass der gesamte leere Raum mit Materie ausgefüllt sein muss. Dies verband er mit der Vorstellung, dass alle Prozesse durch direkte Kontakte dieser Materie, das heißt als Nahwirkungen aufgefasst werden müssen. So gelang es ihm, die Brechungsgesetze zu formulieren. Die Idee eines realen Vakuums konnte sich jedoch erst mit neuen Experimenten durchsetzen. Evangelista Torricelli schloss 1643 aus seinen Versuchen, ein Vakuum erzeugt zu haben. Daraufhin kam es zu intensiven Diskussionen, ob ein leerer Raum wirklich denkbar sei. Blaise Pascal bestätigte 1646 in seinem öffentlichen Experiment ‚vide dans le vide‘ (Leere in der Leere) Torricellis Beobachtungen (Simonyi 2001, 234 f.) und stellte 1647 in seiner Schrift Expériences nouvelles touchant le vide sowie 1651 in seinem Vorwort für ein Traité du vide (Pascal, 1663) dem Jahrhunderte alten horror vacui seine eigenen Beobachtungen entgegen. Noch publikumswirksamer demonstrierte Otto von Guericke 1654 auf dem Reichstag in Regensburg und 1656 in Magdeburg mit seinen Magdeburger Halbkugeln das Wechselspiel zwischen Luftdruck und Vakuum. Damit widerlegte er anschaulich den horror vacui. Schließlich formulierte Christiaan Huygens 1678 bis 1690 die erste komplette Wellentheorie des Lichts. Wellen sind periodische Anregungen eines Mediums und können sich nur in einem Medium ausbreiten. Huygens lieferte eine systematische Beschreibung von Wellenerscheinungen und erklärte die Reflexion und Brechung. Die Wellentheorie war ein wichtiges Argument für den Äther: Wenn das Licht – ähnlich wie der Schall – eine Welle ist, dann muss es sich auch in einem Medium ausbreiten. Da für das Licht anders als für den Schall kein Medium bekannt war, ersann man eine neue Substanz und gab ihr den Namen Äther. Dieser Lichtäther durchdrang nach Huygens die feste Materie ebenso wie den leeren Raum. Nach dem Vorbild der Mechanik leitete Augustin Jean Fresnel 1816 bis 1819 die optischen Phänomene aus Eigenschaften des ruhenden Lichtäthers ab. Ihm zufolge verhält sich der Äther gegenüber transversalen Lichtwellen wie ein elastischer Festkörper. James Clerk Maxwell vereinte schließlich zwischen 1861 und 1864 mit seinen Maxwellschen Gleichungen die Optik mit der Elektrodynamik. Der Äther wurde für Maxwell zum Träger aller elektromagnetischen und optischen Phänomene. Am Ende seines Artikels in der Encyclopædia Britannica resümierte er:
Whatever difficulties we may have in forming a consistent idea of the constitution of the aether, there can be no doubt that the interplanetary and interstellar spaces are not empty, but are occupied by a material substance or body, which is certainly the largest, and probably the most uniform body of which we have any knowledge. (Maxwell 1878, 568 ff.)
Das Bindeglied zwischen den elektrodynamischen und optischen Phänomenen war die Lichtgeschwindigkeit ‒ als Grenzgeschwindigkeit relativ zum Äther (Maxwell 1864, 459ff., 1873). Heinrich Hertz entwickelte zwischen 1887 und 1890 seine Elektro-
60
Thomas Naumann
dynamik bewegter Körper und wies 1888 die von Maxwell vorausgesagte endliche Ausbreitungsgeschwindigkeit der elektromagnetischen Kräfte direkt nach. Zur Rolle des Äthers sagte er: Nehmt aus der Welt die Elektrizität, und das Licht verschwindet; nehmt aus der Welt den lichttragenden Äther, und die elektrischen und magnetischen Kräfte können nicht mehr den Raum überschreiten. (Hertz 1895, 339)
Um den Äther im Universum endlich nachzuweisen, führten Albert Michelson und Edward Morley 1887 ihr berühmtes Interferenzexperiment durch. Sie fanden jedoch longitudinal und transversal zur Erdbewegung keine Differenz in der Geschwindigkeit – und damit kein Anzeichen für die Existenz eines Äthers. Zwischen 1892 und 1906 entwickelten Hendrik Lorentz und Henri Poincaré eine Theorie, die Fresnels Äthertheorie mit den Maxwell-Gleichungen und der Elektronentheorie von Rudolf Clausius vereinte (Lorentz 1904, 809ff., Poincaré 1905, 1906). Lorentz unterschied klar zwischen Elektronen als Materie und dem unbewegten Äther. Elektromagnetische Wellen sind in der Maxwell-Lorentzschen Elektrodynamik von den Ladungen der Elektronen verursachte Äther-Schwingungen, die sich maximal mit Lichtgeschwindigkeit ausbreiten können. In der Lorentzschen Äthertheorie wird der Widerspruch zum Michelson-Morley-Experiment über die Einführung von Lorentz-Transformationen aufgelöst. Diese unterwerfen relativ zum Äther bewegte Maßstäbe und Uhren einer Längenkontraktion und Zeitdilatation, während Raum und Zeit unverändert bleiben. Wesentliche Teile des mathematischen Apparats der Relativitätstheorie existierten also schon vor Einstein. Aber erst ihm gelang es, die Begriffe und das Denken über Raum und Zeit vom Kopf auf die Füße zu stellen.
1.2.2 Der Ätherbegriff in der Relativitätstheorie Allein aus dem Relativitätsprinzip und der beobachteten Konstanz der Lichtgeschwindigkeit und ohne Benutzung eines Äthers leitete Einstein in seiner speziellen Relativitätstheorie eine widerspruchsfreie Theorie ab, die auch die Lorentz-Transformationen enthielt. Einstein stellte fest: Die Einführung eines ‚Lichtäthers‘ wird sich insofern als überflüssig erweisen, als nach der zu entwickelnden Auffassung weder ein mit besonderen Eigenschaften ausgestatteter ‚absoluter Raum‘ eingeführt, noch einem Punkte des leeren Raumes, in welchem elektromagnetische Prozesse stattfinden, ein Geschwindigkeitsvektor zugeordnet wird. (Einstein 1905a)
Kaum hatte jedoch Einstein den Äther abgeschafft, tauchte er in seiner 1915 vollendeten Allgemeinen Relativitätstheorie wieder auf. In einem Brief an Einstein vermutete Lorentz 1916, dieser habe in seiner Theorie den Äther wieder eingeführt. Einstein antwortete, dass man durchaus von einem „neuen Äther“ sprechen könne, und schrieb 1920 in der Arbeit „Äther und Relativitätstheorie“, dass die spezielle Relativitätstheo-
Physikalische Erkenntnis, Denken und Sprache
61
rie den Äther nicht notwendigerweise ausschließe, da man dem Raum physikalische Qualitäten zuschreiben müsse, um Effekte wie Rotation und Beschleunigung zu erklären. Und da in der Allgemeinen Relativitätstheorie der Raum vom Gravitationspotential erfüllt sei, könne man von einem „Gravitationsäther“ im Sinne eines „Äthers der Allgemeinen Relativitätstheorie“ sprechen. Dieser sei vom mechanischen sowie dem Lorentzschen Äther zu unterscheiden, da auf ihn der Bewegungsbegriff nicht angewendet werden könne: Indessen lehrt ein genaueres Nachdenken, dass diese Leugnung des Äthers nicht notwendig durch das spezielle Relativitätsprinzip gefordert wird. […] Nach der allgemeinen Relativitätstheorie ist der Raum mit physikalischen Qualitäten ausgestattet; es existiert also in diesem Sinne ein Äther. Gemäß der allgemeinen Relativitätstheorie ist ein Raum ohne Äther undenkbar; denn in einem solchen gäbe es nicht nur keine Lichtfortpflanzung, sondern auch keine Existenzmöglichkeit von Maßstäben und Uhren, also auch keine räumlich-zeitlichen Entfernungen im Sinne der Physik. Dieser Äther darf aber nicht mit der für ponderable Medien charakteristischen Eigenschaft ausgestattet gedacht werden, aus durch die Zeit verfolgbaren Teilen zu bestehen; der Bewegungsbegriff darf auf ihn nicht angewendet werden. (Einstein 1920)
In seiner populären Arbeit „Über den Äther“ schuf Einstein 1924 einen neuen ÄtherBegriff. Für jedes außerhalb der Materie existierende physikalische Objekt verwendete er den Begriff Äther. Newtons absoluter Raum sei der „Äther der Mechanik“, ihm folgte der „Äther der Elektrodynamik“ von Maxwell und Lorentz mit seinem absoluten Bewegungszustand. Auch die spezielle Relativitätstheorie verwende einen „Äther der Elektrodynamik“. Doch im Gegensatz zu Newtons absolutem Raum und dem klassischen Lichtäther existiert in diesem Äther kein bevorzugter Bewegungszustand mehr. Allerdings müsse weiterhin von einem bevorzugten Beschleunigungszustand gesprochen werden. Dabei sei der Äther der speziellen Relativitätstheorie wie der Äther der Elektrodynamik als absolut zu bezeichnen, da die in ihm auftretenden raum-zeitlichen bzw. relativistischen Effekte nicht von der Materie mitbestimmt werden. Dieser „absolute Äther“ sei erst durch den „Äther der allgemeinen Relativitätstheorie“ abgeschafft worden, wo dessen Eigenschaften durch die Materie mitbestimmt werden: Auch nach der speziellen Relativitätstheorie war der Äther absolut, denn sein Einfluss auf Trägheit und Lichtausbreitung war als unabhängig gedacht von physikalischen Einflüssen jeder Art. [...] Der Äther der allgemeinen Relativitätstheorie unterscheidet sich also von demjenigen der klassischen Mechanik bzw. der speziellen Relativitätstheorie dadurch, dass er nicht ‚absolut‘, sondern in seinen örtlich variablen Eigenschaften durch die ponderable Materie bestimmt ist. (Einstein 1924)
Schließlich konstatiert er: Aber selbst wenn diese Möglichkeiten zu wirklichen Theorien heranreifen, werden wir des Äthers, d. h. des mit physikalischen Eigenschaften ausgestatteten Kontinuums, in der theoretischen Physik nicht entbehren können; denn die allgemeine Relativitätstheorie, an deren grundsätzlichen
62
Thomas Naumann
Gesichtspunkten die Physiker wohl stets festhalten werden, schließt eine unvermittelte Fernwirkung aus; jede Nahewirkungs-Theorie aber setzt kontinuierliche Felder voraus, also auch die Existenz eines ‚Äthers‘. (Einstein 1924)
Es sind also die nichttrivialen physikalischen Eigenschaften des leeren Raums, die nicht nur zum klassischen Ätherbegriff, sondern auch zu Einsteins relativistischem Äther führten. Auch Einstein kämpfte also während seines gesamten wissenschaftlich aktiven Lebens mit dem Begriff des Äthers. Und wie Bohr „hing [er] in der Sprache“. Heute ist der Begriff des Äthers aus dem physikalischen Denken weitgehend verschwunden. Die Kosmologen benutzen die 1964 entdeckte kosmische Hintergrundstrahlung als bevorzugtes Referenzsystem, um die Bewegung unserer Galaxis zu subtrahieren. Trotzdem stellt diese keinen Äther dar. Der Kosmos befindet sich in ständiger globaler Ausdehnung, sodass auch die Hintergrundstrahlung kein absolutes Referenzsystem definiert. Auch kann man die Hintergrundstrahlung abschirmen. Anders als der Äther ist sie also nicht alles durchdringend. Die lange Geschichte des Begriffs Äther zeigt jedoch, in welchem Maße unklare Sprache und unklare Bilder von ungeklärten Fragen in der Physik zeugen.
1.2.3 Skalare Felder im Vakuum: das Higgs-Feld Ein aktuelles Beispiel, wie die Physik sprachlich um neue Konzepte des Vakuums ringt, ist die Rolle skalarer Felder im Universum. Dazu zählen das Higgs-Feld, das oft als Inflaton-Feld bezeichnete Feld, das für die primäre Inflation des Universums verantwortlich sein soll, sowie ein für die Dunkle Energie im Universum verantwortliches skalares Feld, das das Universum seit etwa der Hälfte seines Alters von 14 Milliarden Jahren ein zweites Mal nach dem Urknall auseinandertreiben soll. Alle diese Felder sind skalare Felder, die den gesamten Raum einschließlich der Materie erfüllen und – ähnlich wie der Äther – der physikalischen Beschreibung des Vakuums dienen. Skalare Felder wie Druck und Temperatur werden nur von einer einzigen Zahl, einem physikalischen Wert charakterisiert. Sie haben keine Richtung, sondern beschreiben nur den Zustand eines Mediums an einem Punkt. Dem gegenüber sind Vektor-Felder wie das elektromagnetische Feld oder das Schwerefeld Felder von Kräften, die in einer bestimmten Richtung, also längs eines Vektors wirken. Bisher waren fundamentale Felder in der Physik immer Vektorfelder. Als skalare Felder kannte die Physik bisher nur Felder, die nicht fundamental waren, sondern emergent, die also wie Druck und Temperatur aus den mikroskopischen Eigenschaften eines Mediums abgeleitet sind. Im Jahre 1964 versuchten mehrere Theoretiker, unter ihnen Peter Higgs, mit Hilfe des nach ihm benannten Higgs-Feldes die außerordentlich schweren Austauschteilchen der schwachen Kraft, die so genannte W- und Z-Bosonen, widerspruchsfrei in
Physikalische Erkenntnis, Denken und Sprache
63
das damals entwickelte Standardmodell der Elementarteilchenphysik zu integrieren. Dies gelang ihnen nur durch Brechung oder Verletzung einer Symmetrie dieses Higgs-Feldes im Vakuum. Der Higgs-Teilchen – die quantenmechanische Anregung des Higgs-Feldes – wird oft als Schlussstein und Krönung des Standard-Modells der Teilchenphysik bezeichnet: ohne das Higgs-Feld bricht das Gebäude der modernen Physik zusammen. Die elementaren Bausteine der Materie wie das Elektron oder die Quarks erhalten ebenfalls eine Masse, wenn sie mit diesem Higgs-Feld wechselwirken. Nach fast fünfzig Jahren wurde das lange gesuchte Higgs-Teilchen 2012 am Europäischen Zentrum für Kernforschung CERN in Genf entdeckt und seine Vorhersage 2013 mit dem Nobelpreis für Physik an Peter Higgs und François Englert gekrönt. Dieses Hintergrund-Feld erfüllt also das gesamte Vakuum, und alle Teilchen erwerben ihre Masse durch Wechselwirkung mit diesem Feld. Wie aber kann man diesen Mechanismus in Bilder und Worte fassen? Darüber entspannen sich nach der HiggsEntdeckung selbst unter Experten wie denen der International Particle Physics Outreach Group IPPOG rege Diskussionen, die an den Disput über den Äther im 19. Jahrhundert erinnerten. Ein oft heraufbeschworenes Bild ist das eines „zähen Mediums“, das der Bewegung der Teilchen im Vakuum einen Widerstand entgegensetzt und ihnen damit eine Masse verleiht. Dieses Bild ist aber nicht korrekt: Wie schon Galilei in seinen Fallversuchen feststellte, ist Masse Widerstand gegen Beschleunigung und nicht gegen Bewegung. In einem anderen Bild regten die massiven Teilchen das Higgs-Vakuum an und erhielten ihre Masse durch Wechselwirkung mit einem „See virtueller Higgsteilchen“ – ähnlich dem Casimir-Effekt in der Quantenelektrodynamik. Dieses Bild ist ebenfalls falsch: es widerspricht der Art, wie das Teilchen in das Standardmodell der Teilchenphysik integriert ist. Das Higgs-Feld ist als Hintergrundfeld wie ein Äther allgegenwärtig. Aus ihm müssen nicht erst Higgs-Teilchen angeregt werden, deren Wechselwirkung den anderen Teilchen eine Masse gibt. Besser erscheint mir das Bild einer „Zivilisation von Fischen“, die seit Urzeiten im Ozean leben. Ein Fisch im Wasser spürt sein Gewicht nicht, er empfindet sich als masselos. Da Masse als Widerstand gegen Beschleunigung im Wasser ebenfalls keine signifikante Rolle spielt, wird eine Fischzivilisation wohl nie ein Konzept von Masse entwickeln. Warum spürt also ein Fisch keine Masse? Die Welt, die er kennt und in der er ausschließlich lebt – der Ozean – stellt einen nichttrivialen Grundzustand dar. Das Dichtefeld des Wassers ist ein ihm verborgenes skalares Feld. Sobald der Fisch allerdings aus dem Wasser gehoben wird und diesen Grundzustand verlässt, erhält er eine Masse. Dieses Bild scheint mir durchaus geeignet, um unsere Situation in einem von einem Higgs-Feld erfüllten Vakuum zu illustrieren. Die Teilchenphysiker ringen also selbst um Bilder und sprachliche Formulierungen für den Higgs-Mechanismus. Ein solches Ringen ist wie im Fall des Äthers und der Kopenhagener Deutung der Quantentheorie ein untrügliches Anzeichen, dass die wissenschaftlichen Konzepte weiterer Klärung bedürfen. Und wie im Falle des Äthers ist
64
Thomas Naumann
zu erwarten, dass ein tieferes Verständnis des Higgs-Mechanismus zu klareren Bildern und damit zu einem tieferen Verständnis der Bausteine der Welt und ihrer Wechselwirkungen führt. Auch ist die Rolle des Higgs-Feldes in der Vergangenheit und Zukunft des Universums unklar. Im Rahmen des Standardmodells der Teilchenphysik ist es nicht völlig stabil, sondern vermutlich metastabil. Bei hohen Energien wie kurz nach dem Urknall könnte die Welt in einen symmetrischen Grundzustand des Higgspotentials übergehen, bei der das Higgs-Teilchen, aber auch alle anderen Teilchen masselos werden.
1.2.4 Urknall und kosmische Inflation Die Geschichte der Naturwissenschaften ist voll von kühnen Vorhersagen. Sowohl der Planet Neptun als auch die elektromagnetischen Wellen und das Higgs-Boson wurden vorhergesagt, bevor sie beobachtet wurden. Eine der kühnsten Voraussagen in der Geschichte der Naturwissenschaften ist die der kosmischen Inflation. Die Idee einer kosmischen Inflation wurde 1981 von Alan H. Guth (1981, 1997, 1999) und Andrei Linde (1983) entwickelt. In seinem Artikel „Creation of Universes from Nothing“ versucht Alexander Vilenkin 1982, dem Problem der creatio ex nihilo – Wie kann Etwas aus dem Nichts entstehen? – näherzukommen. Er lässt das Universum aus einem quantenmechanischen Tunneleffekt entstehen und schreibt: “The universe is spontaneously created from literally nothing“. Aufgrund der Konspiration von Quantenfluktuationen eines skalaren Feldes der Inflation und der Wirkung der starken Gravitation in Einsteins Gravitationsgleichungen bläst die Inflation innerhalb etwa 10-32 Sekunden eine Skala von einem winzigen Bruchteil des Radius eines Protons um mindestens fünfundzwanzig Größenordnungen zu einem Volumen auf, das größer und massereicher ist als das gesamte (damals und heute) beobachtbare Universum. Die Inflations-Hypothese stellt eine der weitreichendsten Vorhersagen in der Geschichte der Naturwissenschaften dar. Nach ihrer Bestätigung wird zurzeit gesucht: Die sie verursachenden primordialen Quantenfluktuationen müssten dem Gewebe der Raum-Zeit Gravitationswellen (Krauss et al. 2010) aufgeprägt haben, die so intensiv und groß wären, dass sie aus keinem anderen Prozess im Universum als der Inflation stammen könnten. Nachdem unser Baby-Universum auf die Größe eines Apfels explodiert war, begann es gemächlicher zu wachsen. Jedoch reichte die Wucht der Explosion immer noch aus, dass sie sich bis heute, also für weitere 14 Milliarden Jahre, fortsetzte. In dieser Zeit der Expansion und Abkühlung bildete sich Schritt für Schritt das Inventar unserer heutigen Welt: Protonen, Atomkerne, Atome, Galaxien, Sterne, Planeten und schließlich das Leben und wir. Eine Ursache dieser Expansion könnte die Zustandsänderung eines skalaren Feldes mit einem extrem flachen Potential sein, ähnlich einem Phasenübergang erster Ordnung wie das Gefrieren von Wasser oder das Schmelzen von Eis. Dieses Inflaton-
Physikalische Erkenntnis, Denken und Sprache
65
Feld genannte skalare Feld kann aus den Higgs-Feldern von Theorien einer vereinheitlichten Urkraft hergeleitet werden und verursacht einen negativen Druck. Nach der Allgemeinen Relativitätstheorie führt dies zu einer abstoßenden Kraft – einer Art Anti-Gravitation – und damit zu einer Ausdehnung des Universums. Die kosmische Inflation ist deshalb so attraktiv, weil sie eine physikalische Erklärung mehrerer großer kosmologischer Probleme bietet: – Wir beobachten eine hochgradige Homogenität der Materie im Universum sowie eine fast perfekte Isotropie der kosmischen Hintergrundstrahlung. Weit entfernte Regionen des Universums konnten jedoch bei einer Expansion ohne Inflation nie kausal miteinander in Wechselwirkung treten. Dass sie einander dennoch so stark ähneln, wird als das Horizont-Problem bezeichnet und ist im Rahmen einer normalen Expansion nicht erklärbar. Mit Hilfe einer Inflation hätte ein winziger, kausal zusammenhängender Bereich des frühen Universums zum heute sichtbaren homogenen und isotropen Universum expandieren können. – Unser heute sichtbares Universum weist keine messbare Raumkrümmung auf. In einer Standard-Expansion wäre dazu unmittelbar nach dem Urknall eine unwahrscheinlich präzise Abstimmung von Materiedichte und kinetischer Energie erforderlich – eins der zahlreichen Fine-Tuning-Probleme der modernen Physik. Nach einer Inflation hingegen wäre die beobachtete Flachheit des Raumes lediglich eine Folge der enormen Expansion, und man müsste zu ihrer Erklärung nicht das anthropische Prinzip bemühen. – Die Inflations-Hypothese erklärt die Dichtefluktuationen, aus denen die Galaxien und Galaxienhaufen hervorgegangen sind, als Folge von Quantenfluktuationen des Inflaton-Feldes. Nur eine extreme Expansion konnte diese Fluktuationen auf makroskopische Dimensionen vergrößern. Diese Extrapolation zu extremen Zuständen der Materie bis zurück zum Ursprung des Universums führt uns sowohl an die Grenzen unseres Denkens als auch unserer begrifflichen Vorstellungskraft – und damit unserer Sprache. Begrifflich und semantisch schwierig sind in diesem Zusammenhang Fragen wie: – Was ist außerhalb unseres Universums? Hier ist zu klären, was wir unter den Begriffen „Raum“ und „Universum“ verstehen: nur den uns heute sichtbaren Bereich oder auch die Regionen außerhalb unseres Ereignis-Horizonts? – Was war vor dem Urknall? Hier ist zu klären, ob der Begriff der Zeit am oder sogar vor dem Urknall semantisch einen Sinn ergibt (streng genommen sollte man die Urknall-Singularität zum Zeitpunkt Null nur mathematisch auffassen und ihr keine physikalische Realität zuschreiben). So gibt es ernsthafte Versuche, Zeit nicht als fundamentale Größe, sondern als ein emergentes Phänomen zu interpretieren. (Vgl. Callender 2010) – Verlieren Raum und Zeit aufgrund von Quantenfluktuationen der starken Gravitation kurz nach dem Urknall nicht ihren Sinn? Und: Bricht an dieser Stelle nicht auch die Kausalität als Grundlage unseres Denkens zusammen?
66
Thomas Naumann
Falls es die in Kaluza-Klein und Superstring-Theorien vorhergesagten weiteren ExtraDimensionen (Kaluza 1924) gibt: – Was ist außerhalb der dritten Dimension? Sobald wir neue Definitionen der Grundlagen unseres Denkens wie Raum, Zeit oder Kausalität versuchen, spüren wir deutlich, dass unsere traditionellen Begriffe eine Beschränkung unseres Denkens darstellen. Wissenschaftlicher Fortschritt ist nur möglich, wenn wir uns dieser Grenzen bewusst sind und bereit sind, sowohl die Grenzen unseres Denkens als auch unserer Sprache zu überschreiten und die physikalischen wie sprachlichen Fundamente unseres Denkens neu zu errichten.
1.2.5 „Dunkle Energie“ und „Quintessenz“ Im Jahre 1998 wurde beobachtet, dass sich die Expansion des Universums ab etwa seinem halben Alter wieder beschleunigt. Diese Entdeckung wurde 2010 mit dem Nobelpreis ausgezeichnet. Das sie verursachende völlig unbekannte Prinzip wird Dunkle Energie genannt. Der Begriff „dunkel“ wurde bewusst gewählt. Er steht dafür, dass wir keinerlei Hypothese haben, welche dunkle Kraft das Universum ein zweites Mal nach dem Urknall langsam, jedoch immer schneller werdend auseinander treibt. Einsteins kosmologische Konstante ist zwar in der Lage, die beobachtete beschleunigte Expansion in die Sprache der Mathematik zu kleiden. Sie ist aber auch nur ein Wort für etwas, das wir nicht im Entferntesten verstehen. Der Kosmologe George Gamow, einer der frühen Verfechter der Urknall-Hypothese, berichtet (Gamow 1956, 1970), Einstein selbst habe sie einmal als seine „größte Eselei“ bezeichnet. Falls diese Konstante in Einsteins Gravitationsgleichung nicht konstant, sondern dynamisch ist, drücken wir unsere Unwissenheit über diese dunkle Kraft im Universum sprachlich durch einen anderen Begriff aus: wir nennen sie „Quintessenz“. Die Dichte dieses Felds der Quintessenz bleibt geringer als die der Strahlungsdichte, bis das Gleichgewicht zwischen Strahlung und Materie eintritt (Krauss 2000). Ab diesem Moment wirkt Quintessenz als Dunkle Energie und bestimmt langfristig die Entwicklung des Universums. Der Begriff Quintessenz stammt von den Pythagoreern. Diese postulierten, dass die klassischen vier Elemente aus einem fünften Element hervorgegangen seien, eben der Quintessenz (von latein. quinta essentia „fünftes Seiendes“), auch Äther genannt. Beide Begriffe spielten in der griechischen Naturphilosophie eine wichtige Rolle. In diesem Sinn könnte man auch das Higgs-Feld als Quintessenz betrachten. Die Notwendigkeit, dem schwer Erfassbaren eine sprachliche Form zu geben, zieht sich also durch die gesamte Geschichte der physikalischen Erkenntnis: von den verbal formulierten, jedoch noch nicht experimentell begründeten Weltmodellen der griechischen Philosophen über den Äther in der Elektrodynamik des ausgehenden 19. Jahrhunderts bis hin zu den skalaren Higgs- und Inflaton-Feldern und den Be-
Physikalische Erkenntnis, Denken und Sprache
67
griffen der kosmologischen Konstante und der Quintessenz in der Physik des 21. Jahrhunderts.
1.3 Von der Idee zur Wirklichkeit 1.3.1 Die Entwicklung des Atombegriffs Anders als im Falle des Ätherbegriffs entwickelte sich der Atombegriff erfolgreicher von einer sprachlichen und philosophischen Formulierung zu einem gesicherten naturwissenschaftlichen Konzept. Gegen Ende des 5. Jahrhunderts v. Chr. formulierte Demokrit die Vorstellung von einem unteilbaren kleinsten Ganzen, dem Atom: Es gibt nur die Atome und das Leere, den leeren Raum, das Vakuum: „Nichts existiert, als die Atome und der leere Raum, alles andre ist Meinung“ (Demokrit zitiert in Lange 1974, 15). Demokrit formuliert hier die Dialektik von Materie und Vakuum, von Substanz und Leere (oder Äther), von Seiendem und Nicht-Seiendem. Dies war in der Antike eine reine Denkmöglichkeit, die verbal formuliert wurde und neben der viele andere Vorstellungen vom Aufbau der Welt existierten wie das – durchaus vernünftige – Gegenkonzept, Materie sei ein beliebig teilbares Kontinuum oder die Vorstellung von den vier Elementen Wasser, Erde, Feuer und Luft. Eine derartige Koexistenz von einander zum Teil widersprechenden Ideen war in der Antike durchaus normal. In der antiken Welt hatten nicht nur viele Götter Platz. Das freie Spiel des Geistes und der Sprache produzierte in der antiken Philosophie auch viele konkurrierende Ideen. Die Idee von einem Gesetz hinter den Dingen, in jüdisch-christlicher Vorstellung von dem einen Gott verkündet, sowie die heutige Methode, Hypothesen durch Beobachtung und Experiment zu überprüfen, war in der Antike noch nicht entwickelt und wurde erst in der Renaissance zum wissenschaftlichen Standard.
1.3.2 Sich wandelnde Vorstellungen von Materie Die erste auf einer naturwissenschaftlichen Beobachtung beruhende Atomhypothese formulierte der englische Chemiker John Dalton in seinem 1808 erschienenen Werk „A New System of Chemical Philosophy“. Aufbauend auf die zum Teil von ihm entdeckten Gesetze der konstanten und multiplen Proportionen stellte er genau die richtige Frage: woher kommen angesichts der kontinuierlichen Reagenzien die ganzen Zahlen, die ihre Reaktionsverhältnisse bestimmen? Dalton konnte an der richtigen Stelle staunen. Als hypothetische Antwort schuf er das erste wissenschaftlich fundierte Atommodell und beantwortete diese Frage mit vier Postulaten: – Jeder Stoff besteht aus kleinsten, nicht teilbaren kugelförmigen Teilchen, den Atomen.
68
–
– –
Thomas Naumann
Alle Atome eines Elements haben gleiches Volumen und gleiche Masse. Die Atome unterschiedlicher Elemente unterscheiden sich in ihrem Volumen und in ihrer Masse. Atome sind unzerstörbar. Sie können durch chemische Reaktionen weder vernichtet noch erzeugt werden. Bei chemischen Reaktionen werden die Atome nur in bestimmten Proportionen neu angeordnet und miteinander verbunden.
Daltons Atom-Hypothese war und ist erkenntnistheoretisch von größter Bedeutung. Aufgrund einer korrekten Beobachtung gelang es ihm, die richtige und fundamentale Frage zu stellen, die nach etwa einhundert Jahren positiv beantwortet wurde. Den nächsten Schritt vollzog Albert Einstein in seinem annus mirabilis 1905. Nach Erscheinen seiner Dissertation über die Bestimmung von Moleküldimensionen schlug er ein Experiment vor, um die Atomhypothese anhand der Zitterbewegung kleiner Partikel in Wasser – der seit langem bekannten Brownschen Bewegung – quantitativ zu prüfen. Nach Einsteins Theorie müssten die Partikel aufgrund der unregelmäßigen Stöße durch die Wassermoleküle kleine, unter dem Mikroskop sichtbare Bewegungen ausführen (Einstein 1905b). Durch die Beugungsmuster von Röntgenstrahlung konnten dann Max von Laue und Bragg Vater und Sohn ab 1912 die Kristallstruktur und damit die Existenz von Atomen direkt sichtbar machen. Damit war der über zweitausend Jahre dauernde Prozess von der sprachlichen Formulierung eines wissenschaftlichen Gedankens bis zum experimentell bestätigten Wissen vollzogen. Das Atom war der erste nachgewiesene Baustein der Materie. Doch die Suche nach den Bausteinen der Materie brachte ab dem Beginn des 20. Jahrhundert in schneller Abfolge ganz neue Strukturniveaus der Materie hervor: – 1897 das Elektron (J.J. Thomson, Nobelpreis 1906), – 1911 der Atomkern (E. Rutherford, H. Geiger, E. Marsden), – 1932 das Neutron (J. Chadwick, Nobelpreis 1935), – 1932 das Positron (C. Anderson, Nobelpreis 1936) und damit die Antimaterie, – 1936 das Myon (C. Anderson), der völlig unerwartete und bis heute rätselhafte schwere Partner des Elektrons, und – 1968 die Quarks (J. Friedman, H. Kendall, R. Taylor, Nobelpreis 1990) als Bestandteile von Proton und Neutron. Das experimentelle wie geistige Grundschema der Kern- und Teilchenphysik war immer dasselbe: mit je mehr Energie ich Materie beschieße, umso tiefere Strukturniveaus der Materie fördere ich zutage und umso kleinere Bausteine entdecke ich. Dahinter stecken ein Bild und ein Begriff: Die Materie ist aus Bausteinen aufgebaut, die es zu erforschen gilt. Bild und Begriff sind jedoch statisch und mechanistisch und entsprechen einem Denken in Bauklötzen. Doch schon in der Elektrodynamik des 19. Jahrhunderts führte das Konzept streng punktförmiger Bausteine der Materie zu
Physikalische Erkenntnis, Denken und Sprache
69
einem Widerspruch: Das Elektron als elektrische Elementarladung hat eine unendliche Ladungsdichte und Selbstenergie. Gelöst wurde dieser Widerspruch ab den dreißiger Jahren durch ein neues Bild, eine neue Sprache und ein neues Denken in der relativistischen Quantenfeldtheorie. Teilchen und Kräfte werden heute mathematisch in der Sprache von Feldern ausgedrückt. Das Vakuum ist nicht mehr die bloße Leere, das reine Nichts, sondern ein lebendiger Raum voller virtueller Teilchen (genauer: Paare von Teilchen und Antiteilchen). Es vermag die klassischen Unendlichkeiten abzuschirmen und zu beseitigen. In einem solchen lebendigen Raum werden klassische physikalische Konstanten wie Massen oder die Stärke von Kräften plötzlich dynamisch. Sie hängen von der Raum- und Energie-Skala ab, bei der ein Prozess stattfindet, sie werden „renormiert“ und damit veränderlich. Naturkonstanten sind nicht mehr konstant – alles ist Dynamik. Die Statik des Jahrtausende alten „Baustein“-Denkens wird also in der modernen Physik abgelöst durch die Dynamik von Kräften und Feldern und deren abstrakten Symmetrien. Hier zeigt sich, wie eng Denken, Sprache und Bilder zusammenhängen. Dieser Paradigmenwechsel durchbricht auch ein anderes klassisches Bild, nämlich die Trennung der Ladungen der Teilchen als der Quelle einer Kraft und der Kraft selbst. Dadurch, dass die Ladungen von den Kräften verändert werden und umgekehrt die Kraftfelder von Teilchenpaaren gefüllt sind, verschmelzen beide Begriffe. Vollständig und konsequent aufgehoben wird diese Trennung von Teilchen und Kräften, von Materie und Feldern, von Fermionen und Bosonen in den modernen Theorien der Supersymmetrie. Sie postuliert eine fundamentale Symmetrie der Natur bezüglich der Bausteine der Welt und der zwischen ihnen wirkenden Kräfte. Die dadurch vorhergesagten supersymmetrischen Partner unserer „normalen“ Teilchen sind gute Kandidaten für die mysteriöse Dunkle Materie im Universum und werden derzeit intensiv gesucht. Hier verschmelzen zwei bisher getrennte Begriffe zu einer höheren fundamentalen Symmetrie und zur Einheit der Begriffe von Kraft und Materie.
1.4 Denken ohne Grenzen – Sprache erweitert das Denken Sprache spielt immer eine Rolle, wenn wir versuchen, die Grenzen unseres Denkens zu erweitern. Häufig sind Wortschöpfungen semantische Erweiterungen unserer Begriffswelt. Als Beispiel sollen hier die Entwicklung der Begriffe der Kosmologie wie Universum, Kosmos, Logos, Chaos und Multiversum dienen. Sie sind eng verbunden mit den oben beschriebenen skalaren Feldern, dem Higgs-Feld und dem Inflaton-Feld.
70
Thomas Naumann
1.4.1 „Kosmos“ und „Universum“ Das lateinische Wort Universum (universus, gesamt) wurde zuerst von Lukrez in seinem Lehrgedicht De rerum natura (Über die Natur der Dinge) benutzt und stellt eine poetische Kontraktion der Worte unus und versus (in sich gekehrt) dar. Weitere lateinische Synonyme sind totum, mundus und natura. Wir finden sie in den deutschen Worten All, Weltall und Natur. Synonyme für Universum in der griechischen Philosophie waren κόσμος (kósmos) und φύσις (physis), was Natur bedeutete und wir heute in der Physik untersuchen. Kosmos bezeichnete im alten Griechenland neben militärischer und staatlicher Ordnung auch die Welt-Ordnung. Er war in der griechischen Mythologie das sichtbare Universum als geordnetes, harmonisches Ganzes im Gegensatz zum Chaos. Kosmos bezeichnet heute die gesetzmäßige Ordnung von Raum, Zeit, Kräften und Materie von der Skala der elementaren Teilchen bis hin zu den großräumigen Strukturen der Galaxienhaufen. Beim Nachdenken über den Ursprung aller Dinge stand die Menschheit immer vor den großen Fragen der Kosmogonie: Wie kann Etwas aus dem Nichts entstehen? Warum ist da Etwas und nicht etwa Nichts? Eine creatio ex nihilo – eine Schöpfung aus dem Nichts – erschien niemals logisch, denn: ex nihilo nihil fit – Von Nichts wird Nichts. So formuliert Lukrez in seinem Lehrgedicht De rerum natura als „I. Lehrsatz. Nichts wird aus Nichts“ „Nichts kann je aus dem Nichts entstehn durch göttliche Schöpfung.“ Alle Schöpfungsmythen, aber auch die modernen Theorien des Urknalls müssen hier Stellung beziehen. Sprache und Inhalt der Schöpfungsgeschichten der Bibel am Beginn des Alten und des Neuen Testaments offenbaren eine auch für die moderne Physik interessante Dialektik der Begriffe von Chaos und Kosmos bzw. Logos.
1.4.2 „Logos“ und „Chaos“ Zu Beginn des Alten Testaments erzählt die Genesis, hebräisch das Buch Bereshit oder „Im Anfang“ (( )יתְּבֵרא ׁ ִ ֖שGen 1, 1–3): „Im Anfang … war Tohuwabohu (“)ָוֹ֔בהוּ ֹ֙תה ֙וּ. Das hebräische Tohuwabohu – von Luther mit „wüst und leer“ übersetzt – entspricht dem Begriff des Chaos in der griechischen Philosophie, der erstmals in der ca. 700 v. Chr. verfassten Theogonie des griechischen Dichters Hesiod auftaucht: „ἦ τοι μὲν πρώτιστα Χάος γένετ’, αὐτὰρ ἔπειτα Γαῖ’“ – „Wahrlich, zuerst entstand das Chaos und später die Erde“ (zitiert nach Gottwein 2017). Danach sprach Gott: „Es werde Licht! Und es ward Licht.“ Mit dem Licht – also elektromagnetischen Wellen – entstehen notwendigerweise auch Raum und Zeit. Und Gott schuf an den folgenden Tagen alle Dinge des Kosmos. Die Frage, was denn im Anfang war, wird im Neuen Testament, im Evangelium des Johannes, neu gestellt, und sie wird anders beantwortet. Das Johannes-Evangeli
Physikalische Erkenntnis, Denken und Sprache
71
um beginnt so (Joh 1, 1–2): „ἐν ἀρχῇ ἦν ὁ Λόγος, καὶ ὁ Λόγος ἦν πρὸς τὸν Θεὸν, καὶ Θεὸς ἦν ὁ Λόγος“ – „Im Anfang war das Wort, und das Wort war bei Gott, und Gott war das Wort.“ Im Griechischen steht hier für Wort Logos. Dem gebärenden Chaos oder Tohuwabohu der Schöpfungsgeschichte des Alten Testaments wird im Neuen Testament der ordnende Logos gegenübergestellt. Diesem sprachlichen Spiel liegt eine hochinteressante dialektische Auseinandersetzung zwischen den gegensätzlichen Konzepten von Chaos und Logos in der griechischen Philosophie zugrunde. Sowohl die Autoren der biblischen Schöpfungsgeschichte als auch die Philosophen der griechischen Antike wussten, dass das Chaos älter ist als die Ordnung. Die in der Renaissance einsetzende Entwicklung der modernen Naturwissenschaft beruht wesentlich auf der Voraussetzung einer kausalen Welt und gipfelte im Laplaceschen Determinismus der klassischen Mechanik. Für Kant gehörte Kausalität zu den schon a priori vorhandenen Begriffen und damit zur inneren Struktur der Erkenntnis. Demgegenüber fand das Chaos einen seriösen Platz in der Wissenschaft erst mit dem Aufkommen des Zufalls in der Quantenmechanik und von fundamentalen Instabilitäten in den nichtlinearen Differentialgleichungen der Nichtgleichgewichts-Thermodynamik und Chaostheorie im ersten bzw. letzten Drittel des 20. Jahrhunderts. Ausführliche Diskussionen der Dialektik der Begriffe von Chaos und Logos, von Zufall und Notwendigkeit haben der französische Biologe und Nobelpreisträger Jacques Monod 1970 in seinem Essay „Le Hasard et la Nécessité: Essai sur la philosophie naturelle de la biologie moderne“ und der belgische Physikochemiker und Nobelpreisträger Ilya Prigogine 1979 in seinem Werk „La Nouvelle Alliance“ (Prigogine/Stengers 1979) geführt. Heute steht also das Strukturen bis hin zum Leben erzeugende Chaos nichtlinearer Systeme dem ordnenden Logos und Determinismus der klassischen Physik linearer Systeme gegenüber. Beide Prinzipien und Sichtweisen haben ihre Berechtigung und ergänzen einander. Die Bibel hat hier vor Jahrtausenden einer Dialektik eine sprachliche Form gegeben, die heute in der modernen Physik eine große Bedeutung erlangt hat. Schon Kant bezeichnet in seiner „Kritik der reinen Vernunft“ (Kant 1797) die Kausalität als Teil der inneren Struktur der Erkenntnis, als eins ihrer Apriori. Für ihn liegt der Beweis für die Notwendigkeit der Kausalität unter anderem in der chronologischen und damit logischen Abfolge der Zeit. An dieser Stelle kann man fragen: Wie sähe eigentlich eine fundamental chaotische Welt aus, eine Welt ohne jegliche Kausalität? Könnten sich in ihr biologische Strukturen, etwas wie der genetische Code und damit das Leben entwickeln und stabilisieren? Wenn man die Grundlagen unseres Denkens in Frage stellt, zeigt sich, wie eng Denken und Sprache miteinander verwoben sind. Kurz nach dem Urknall, zur Planck-Zeit von 10-43 Sekunden, in einem von starker Quantengravitation geprägten Universum, müssen solche fundamental chaotischen Zustände geherrscht haben, in der Raum, Zeit und Kausalität ihre ordnende Funktion verloren haben und das „Tohuwabohu“ der alttestamentlichen Schöpfungsgeschichte herrschte.
72
Thomas Naumann
1.4.3 Die Hypothese des Multiversums Sprachlich interessant ist die Nutzung der deutschen Vorsilbe Ur- in der Kosmologie: das Universum wurde im Urknall geboren, und noch heute sind wir auf der Suche nach der Urkraft, die damals alles beherrschte. Dem deutschen Partikel Ur- entspricht am ehesten das griechische ἀρχῇ = Arche wie in Archetyp oder Urbild. Auch die älteste griechische Übersetzung der jüdischen Bibel, die Septuaginta, beginnt in der Genesis, dem Buch Bereshit oder: Im Anfang, mit: Ἐν ἀρχῇ ... oder: Im Anfang … Auch Plato bezeichnet die vier Elemente als die ἀρχαί (archaí) oder Anfänge der Schöpfung des Kosmos. Für diesen alles gebärenden Urknall und die damals herrschende Urkraft haben das Englische und Französische mit Big Bang und primordial oder elementary force bzw. force primordiale oder originelle keine so kurzen und treffenden Ausdrücke. „Sprache, die für dich dichtet und denkt“ (Schiller 1992). Schillers Sentenz umschreibt recht genau, dass die sprachliche Formulierung neuer Fragestellungen und die Schaffung neuer, anfangs oft hypothetischer semantischer Strukturen häufig erste Vorstufen sind zur Formulierung neuer Ideen und Theorien. Sprache – und dazu zählt auch die Sprache der Mathematik – kann unser Denken aus den Regionen gesicherten Wissens heraus bis weit in wissenschaftliches Neuland und zu mutigen Hypothesen geleiten. Sprache ist das Gerüst und der Rahmen unseres Denkens und gestattet es uns, bis tief ins Extremste zu denken – hinweg über die Grenzen des Universums, bis vor die Erschaffung der Welt – den Urknall – und bis ans Ende der Welt – den endgültigen Zerfall aller Materie und den Wärmetod. Soweit uns Denken und Sprache aber auch tragen mögen, bleibt es doch wichtig, gleichzeitig die Grenzen unseres Denkens zu benennen und experimentelle Tests unserer Hypothesen zu entwerfen.
1.4.4 Das Multiversum Die Multiversums-Hypothese gehört zu den umstrittensten Konzepten der modernen Wissenschaft. Eine solche Ablehnung gewagter Ideen ist jedoch nicht neu. Auch die Kosmologie brauchte Jahrzehnte, um sich als anerkannte Wissenschaft durchzusetzen. Und innerhalb der Kosmologie hatte die Hypothese vom Urknall anfangs ein ähnliches Schicksal wie die vom Multiversum. Einer der Kritikpunkte war immer, dass man mit dem Universum nicht experimentieren kann, also das Kriterium der Widerholbarkeit des Experiments verletzt ist. So lehnte der große englische Astronom Fred Hoyle einen Urknall zunächst ab. Er bevorzugte die „steady state“ Theorie als kosmologisches Modell und betrachtete die Idee, das Universum könne einen ersten Anfang haben, als Pseudowissenschaft, „for it’s an irrational process, and can’t be described in scientific terms“ (Smith 1992, 129). Letztere Kritik äußerte er, da er eine kosmologische Singularität ablehnte. Ihm wird zugeschrieben, er habe 1949 in einer Radiosendung des BBC (‚Big Bang‘ astronomer
Physikalische Erkenntnis, Denken und Sprache
73
dies 2001) als erster die von ihm abgelehnte Idee eines ersten Anfangs des Universums eher spöttisch als „Big Bang“ bezeichnet. Hoyles Biograph Milton schreibt: „To create a picture in the mind of the listener, Hoyle had likened the explosive theory of the universe’s origin to a ,big bang‘“ (Mitton 2011, 129). So erzeugt die Sprache der Wissenschaft auch aus der Kritik ungewollte Kinder, die später prächtig gedeihen. Das Konzept eines Multiversums (Tegmark 2003, Steinhardt 2011, 40, Greene 2011, Carr 2007) ist eng mit dem Gedanken einer extremen Expansion oder Inflation zu Beginn der Evolution des Kosmos verbunden. Aufgrund der endlichen Lichtgeschwindigkeit können wir heute nicht weiter als 46 Milliarden Lichtjahre blicken. Wegen der fortlaufenden Expansion des Universums ist das mehr als sein Alter von ca. 14 Milliarden Jahren multipliziert mit der Lichtgeschwindigkeit. Dieser Radius wird Beobachtungshorizont genannt. Er gibt an, wie weit Objekte voneinander entfernt sein können, die kausal miteinander verknüpft sind, also jemals miteinander in Wechselwirkung standen, deren Grenzgeschwindigkeit die Lichtgeschwindigkeit ist. Eine gute Einführung in die moderne Kosmologie, Inflation, Quantengravitation, das Fine Tuning der physikalischen Parameter unserer Welt, anthropisches Prinzip und Multiversum gibt Ellis. Er sagt: It has been claimed that a multi-domain universe is the inevitable outcome of physical processes that generated our own expanding region from a primordial quantum configuration; they would therefore have generated many other such regions. (Ellis 2007)
Jenseits dieser uns von der Relativitätstheorie auferlegten Erkenntnisschranke kann das Universum aussehen wie das uns zugängliche. Es kann aber auch Regionen oder Blasen enthalten, die aus der Geburt eines völlig andersartigen Universums aus den oben beschriebenen Quantenfluktuationen eines skalaren Inflaton-Feldes mit völlig anderen physikalischen Gesetzen stammen. Diese Vielfalt von Universen in einem Multiversum wurde von dem amerikanischen Physiker Leonhard Susskind ‚landscape‘ genannt (Susskind 2005). Denkbar sind Universen mit bis zu sieben extra Raumdimensionen, Universen ohne die Asymmetrie zwischen Materie und Antimaterie unseres materiedominierten Universums, in denen die ursprünglich gleiche Menge Materie und Antimaterie im Bruchteil einer Sekunde zu einer materiefreien leeren Lichtblase annihiliert hätte, Universen, in denen sich die Urkraft nicht oder anders in die uns bekannten Kräfte aufgespalten hat etc. In den teilweise äußerst kontroversen Diskussionen über das neue Konzept des Multiversums wird dessen Proponenten sowohl von Physikern als auch von Philosophen häufig vorgehalten, das Konzept genüge nicht dem Popperschen empirischen Falsifikationsprinzip. Ihm zufolge sind wissenschaftliche Theorien Spekulationen, die die empirische Wissenschaft durch Suche nach widersprechenden Beobachtungen zu falsifizieren versucht:
74
Thomas Naumann
Insofern sich die Sätze einer Wissenschaft auf die Wirklichkeit beziehen, müssen sie falsifizierbar sein, und insofern sie nicht falsifizierbar sind, beziehen sie sich nicht auf die Wirklichkeit. (Popper 1935)
Diesem häufig äußerst dogmatisch ins Feld geführten Argument ist Folgendes entgegenzuhalten: – Erstens erhebt Popper seine Forderung der Falsifizierbarkeit für die empirische Wissenschaft. Er selbst warnte vor Fehlinterpretationen und meinte, das Ziel der Abgrenzung werde völlig missverstanden. – Falsifizierbarkeit ist kein Kriterium, das rationale Akzeptierbarkeit oder die logische Konsistenz einer Aussage kennzeichnet. Sie sollte nicht als der ‚verschärfte Dogmatismus‘ (,reinforced dogmatism‘) (Popper 1962, 242), angewandt werden. – Poppers Absicht war nicht, den wissenschaftlichen Prozess der Hypothesenbildung zu verhindern oder dogmatisch die Diskussion neuer Gedanken zu unterbinden. – Die Verfechter der Multiversums-Hypothese behaupteten nie, ein empirisch gesichertes Gedankengebäude errichtet zu haben. Wenn wir im wissenschaftlichen Prozess an die äußersten Grenzen unserer Erkenntnis vorzudringen versuchen, ist es legitim und sogar nötig, zumindest temporär Hypothesen aufzustellen, ohne sogleich Prozeduren für deren Verifikation oder Falsifikation angeben zu können. Dogmatische Denkverbote wären an dieser Stelle das Ende der Wissenschaft und waren so von Popper nie beabsichtigt. Vielmehr sagte er: Das wertvollste Besitztum der Menschen sind Ideen. Wir haben nie genug Ideen. Woran wir leiden, ist Ideenarmut. Und Ideen sind ein wertvoller Besitz, daher soll man die Metaphysik mit Respekt behandeln und diskutieren – vielleicht kommt aus ihren Ideen etwas heraus. (Popper 1985, 72 f.)
Gefragt ist in dieser frühen Phase der Theorienbildung vielmehr das freie Denken in Sprache und Bildern, um neue Gedankengebäude zu konstruieren – und zu falsifizieren, sobald uns die technischen Mittel dazu zur Verfügung stehen. Wie wir im Falle der Atomhypothese, der Urknallhypothese und der Vorhersage des Higgsteilchens sahen, kann das Jahrzehnte, Jahrhunderte oder Jahrtausende dauern, je nachdem, wie früh unser Denken die Idee geboren hat und wie schnell sich die experimentelle Wissenschaft entwickelt. In diesem Sinne ist es offen, wie lange die Multiversums-Hypothese zu ihrer Verifikation oder Falsifikation benötigt. Im Moment sind wir in unserem Universum so gefangen wie die Menschen der Antike innerhalb des Firmaments. Der Kosmologe George Ellis drückt diese Gratwanderung zwischen Dogmatismus und produktiver Offenheit für Neues so aus: The challenge I pose to multiverse proponents is: Can you prove that unseeable parallel universes are vital to explain the world we do see? And is the link essential and inescapable?
Physikalische Erkenntnis, Denken und Sprache
75
As skeptical as I am, I think the contemplation of the multiverse is an excellent opportunity to reflect on the nature of science and on the ultimate nature of existence: why we are here… In looking at this concept, we need an open mind, though not too open. It is a delicate path to tread. Parallel universes may or may not exist; the case is unproved. We are going to have to live with that uncertainty. Nothing is wrong with scientifically based philosophical speculation, which is what multiverse proposals are. But we should name it for what it is. (Ellis 2014)
Es gibt einen weiteren Grund für die Ablehnung des Multiversums: das Konzept fügt der kopernikanischen Demütigung des Menschen, aus dem Zentrum des Universums vertrieben zu werden und der Darwin’schen Demütigung, nur ein weit entwickelter Affe zu sein, die kosmologische Demütigung hinzu, nur in einem von unendlich vielen Universen zu hausen – auch wenn dies die für uns ‚beste aller Welten‘ (Leibniz) ist. Im Moment scheint mir diese Hypothese einen wichtigen Beitrag zu einer naturwissenschaftlichen Metaphysik im besten, ursprünglichen und positiven Sinne zu liefern: als einer Physik oberhalb der konkreten Ausprägungen physikalischer Gesetze in unserem bewohnbaren Universum, als ein Spiel unseres Denkens mit den Möglichkeiten der Natur. Auch Hans Magnus Enzensberger bezeichnet in seinem Buch „Die Elixiere der Wissenschaft“ die Kosmologen als die „letzten Mohikaner der Metaphysik“ (Enzensberger 2002).
1.5 Mathematik: die Sprache der Gesetze In seiner ‚Metaphysica‘ schreibt Aristoteles: „Vor allem die mathematischen Wissenschaften zeichnen sich aus durch Ordnung, Symmetrie und Beschränkung; und dies sind die größten Formen des Schönen“ (Aristoteles 1907) Galileo Galilei schrieb 1623 in seinem „Saggiatore“: Die Philosophie steht in diesem großen Buch geschrieben, das unserem Blick ständig offen liegt [, ich meine das Universum]. Aber das Buch ist nicht zu verstehen, wenn man nicht zuvor die Sprache erlernt und sich mit den Buchstaben vertraut gemacht hat, in denen es geschrieben ist. Es ist in der Sprache der Mathematik geschrieben, und deren Buchstaben sind Kreise, Dreiecke und andere geometrische Figuren, ohne die es dem Menschen unmöglich ist, ein einziges Bild davon zu verstehen; ohne diese irrt man in einem dunklen Labyrinth herum. (Galilei zitiert nach Behrends 2010)
Für Galilei ist also die Mathematik die Sprache der Natur. Tief beeindruckt von der Schönheit und Ästhetik der erst kurz zuvor von Maxwell vollendeten Theorie des Elektromagnetismus stellte Ludwig Boltzmann 1893 dem zweiten Band seiner „Vorlesungen über Maxwells Theorie der Elektrizität und des Lichts“ – einer der ersten vollständigen Darstellungen dieser Theorie – Goethes Frage aus Fausts Monolog (Boltzmann 1982) voran:
76
Thomas Naumann
War es ein Gott, der diese Zeichen schrieb? Die ... mit geheimnisvoll verborg‘nem Trieb Die Kräfte der Natur um mich enthüllen.
Für Boltzmann sind die mathematischen Symbole der Maxwell-Gleichungen Gottes Zeichen, die für den Pantheisten Goethe zugleich „die Kräfte der Natur … enthüllen“. Hier zeigt sich eine tiefe Verehrung für die Kraft der Sprache der Mathematik, die Struktur unserer Welt abzubilden und innerhalb kürzester Zeit das Leben der Menschheit zu revolutionieren. In einer Vorlesung an der Yeshiva University im Frühjahr 1963 in New York äußerte der theoretische Physiker und Nobelpreisträger Paul Dirac: „God is a mathematician of very high order, and He used very advanced mathematics in constructing the Universe“ (Dirac zitiert nach Farmelo 2009). Dirac benutzt hier das Bild von Gott als dem „Grand Designer“ (Hawking/Mlodinow 2010), der die Welt aus einer Idee, aus abstrakter Struktur, aus dem Logos erschafft. Auch der große theoretische Physiker Eugen Wigner betonte 1960, wie überraschend es ist, dass mathematische Abstraktionen reale physikalische Phänomene erklären und vorhersagen können: The miracle of appropriateness of the language of mathematics for the formulation of the laws of physics is a wonderful gift which we neither understand nor deserve. (Wigner 1960)
Ähnlich äußerte er sich 1967 in seinem Buch „Symmetries and Reflections“: „the enormous usefulness of mathematics in the natural sciences is something bordering on the mysterious… there is no rational explanation for it“. Auch die Mathematik ist also eine Sprache. Und wenn Gott ein Mathematiker ist, wie es Dirac formulierte, dann hat er das Buch der Natur in der Sprache der Mathematik verfasst. Dieses Buch versuchen wir zu entziffern und die Gesetze der Natur in der Sprache der Mathematik zu formulieren. Dass dieser Prozess so erfolgreich ist, erschien selbst den größten Geistern der theoretischen Physik immer wieder als ein Wunder. Weiterhin stellt sich immer wieder die Frage, ob die Sprache der Mathematik nur ein Mittel ist, um die Realität abzubilden, oder ob sie ein eigenes System bildet, das eigene Strukturen und Gesetze hervorbringen kann. Als Illustration möge ein historisches Beispiel dienen. Irgendwann im 5. Jahrhundert v. Chr. verließ der griechische Philosoph Hippasus von Metapont, ein Mitglied der geheimen Bruderschaft der Pythagoreer, an Bord eines Seeschiffes seine Heimatstadt in Süditalien. Sein Ziel erreichte er jedoch nie. Einer umstrittenen Legende zufolge wurde der arme Philosoph, sobald das Schiff weit genug von der Küste entfernt war, von den Pythagoreern ins Meer gestoßen (Kline 1990, 32). Nach den Lehren ihres Sektengründers Pythagoras glaubten sie, alles in der Welt könne durch ganze Zahlen und ihre Verhältnisse beschrieben werden. Aber Hippasus hatte bewiesen, dass die Diagonale eines Quadrats inkommensurabel ist mit dem
Physikalische Erkenntnis, Denken und Sprache
77
Quadrat der Seitenlängen. Heute würden wir sagen, das Verhältnis der Länge der Diagonale zur Seitenlänge, also die Wurzel aus zwei, ist irrational. Dass das Verhältnis der Länge der Diagonalen zur Seitenlänge eines Quadrats nicht als ganzzahliges Verhältnis beschrieben werden konnte, verurteilte das Programm der Pythagoreer zum Scheitern und änderte den Lauf der westlichen Mathematik. Erst der französische Mathematiker Augustin Louis Cauchy löste die Mathematik in den ersten Jahrzehnten des 19. Jahrhunderts vollends aus den Fesseln einer zu engen Kopplung an die Realität und gab ihr eine ganz eigene Sprache. In seinem Cours d’Analyse von 1821 verzichtete Cauchy auf die intuitive Idee, Geraden als aus unendlich kleinen Punkten – also wie aus Atomen – zusammengesetzt zu betrachten und stellte die Analysis auf ein neues Fundament. Konsequent definierte er die Konzepte von Ableitung und Integral als Grenzwerte unendlicher Reihen und eliminierte damit jeglichen Bezug zu einer materiellen Wirklichkeit wie der Steigung einer Kurve oder der Fläche einer Figur. Damit beendete Cauchy im 19. Jahrhundert den seit Hippasus über Jahrtausende offenen Konflikt und gab der Mathematik eine ganz eigene, von den Fesseln der materiellen Realität befreite Sprache. Die moderne Mathematik war geboren (Alexander 2014). Die Mathematik hat in Folge auch Strukturen geschaffen, die es nur in der Sprache der Mathematik gibt. Ein Beispiel ist die Zahlentheorie und hier die Primzahlen. Sie sind ein reines Artefakt unseres Denkens, denn das Problem der Teilbarkeit ganzer Zahlen hat kaum Entsprechungen in der Natur. Die Zahlentheorie ist ein gutes Beispiel ‚reiner‘ Mathematik, weswegen wir auch von der Mathematik und den Naturwissenschaften sprechen, der Mathematik also einen ganz eigenen Rang einräumen. Eine seltene Ausnahme ist der Reproduktionszyklus der in den USA vorkommenden Zikade Magicicada septendecim. Sie vermehrt sich nur alle 13 bzw. 17 Jahre und vermeidet durch diese Primzahlen die Zyklen ihrer natürlichen Feinde. Die Methode ähnelt dem Sieb des Eratosthenes. Erkenntnistheoretisch beruht der Erfolg der wissenschaftlichen Methode auf zwei Voraussetzungen: – erstens, dass es ein Gesetz gibt hinter den Dingen und – zweitens, dass wir diese Gesetze mit unserem beschränkten Erkenntnisapparat erkennen können. Beide sind Bestandteil des Glaubens eines Wissenschaftlers und Apriori unseres Denkens. Zur Frage, ob die Gesetze hinter, über, vor oder außerhalb unserer Welt existieren, verweisen wir auf die scharfsinnigen Äußerungen von Schroeder (1990). Der Glaube an das und die Suche nach dem Gesetz wurden durch die Geschichte von Gottes Verkündigung der Zehn Gebote an Moses am Berge Sinai (Exo 20, 2‒17; Deut 5, 6‒ 21) eine wichtige Triebkraft des abendländischen Denkens. Heute ist die Mathematik die Sprache des Gesetzes.
78
Thomas Naumann
1.6 Wahrheit und Schönheit Die fundamentalen Gleichungen von Maxwell, Dirac, Schrödinger und Einstein zeichnen sich durch eine außerordentliche Einfachheit und Schönheit aus. Sie bilden auf elegante und ästhetische Weise Eigenschaften der Kräfte und Bausteine unserer Welt ab. Die Sprache der Mathematik und die Gesetze der Physik haben also – wie die Sprache der Literatur und der anderen Künste – eine eigene Ästhetik. Arnold Sommerfeld verglich 1919 im Vorwort zu seinem Standardwerk „Atombau und Spektrallinien“ die Atomphysik mit Musik: Was wir heutzutage aus der Sprache der Spektren heraushören, ist eine wirkliche Sphärenmusik des Atoms, ein Zusammenklingen ganzzahliger Verhältnisse, eine bei aller Mannigfaltigkeit zunehmende Ordnung und Harmonie. [...] Alle ganzzahligen Gesetze der Spektrallinien und der Atomistik fließen letzten Endes aus der Quantentheorie. Die Quantentheorie ist das geheimnisvolle Organon, auf dem die Natur die Spektralmusik spielt und nach dessen Rhythmus sie den Bau der Atome und der Kerne regelt. (Sommerfeld 1921)
Die Dialektik von Wahrheit und Schönheit in der Wissenschaft verdient eine eigene Untersuchung. Hier sei nur erwähnt, dass für viele große Gelehrte Eleganz und Schönheit zu einem wichtigen – wenn nicht sogar dem wichtigsten – erkenntnistheoretischen Wahrheitskriterium wurde. Einsteins Berliner Assistentin Ilse Rosenthal-Schneider berichtet, wie dieser 1919 auf Eddingtons Telegramm mit der Bestätigung der von seiner allgemeinen Relativitätstheorie vorhergesagten Lichtablenkung im Gravitationsfeld der Sonne reagiert habe: „Aber ich wusste, dass die Theorie richtig war.“ Als sie ihn fragte: „Und wenn die Vorhersagen nicht bestätigt worden wären?“, antwortete er: „Da könnt’ mir halt der liebe Gott leidtun, die Theorie stimmt doch“ (RosenthalSchneider zitiert nach Calaprice 2010). Einstein formuliert hier klar das Primat von Schönheit und mathematischer Eleganz vor der Realität. In seinem Aufsatz „Beauty and the quest for beauty in science“ schreibt der indische Astrophysiker und Nobelpreisträger S. Chandrasekhar über den mathematischen Physiker Hermann Weyl, den Begründer der heutigen Eichtheorien und guten Kollegen Einsteins: Freeman Dyson has quoted Weyl as having told him: ,My work always tried to unite the true with the beautiful; but when I had to choose one or the other, I usually chose the beautiful.‘ I inquired of Dyson whether Weyl had given an example of his having sacrificed truth for beauty. I learned that the example which Weyl gave was his gauge theory of gravitation, which he had worked out in his Raum-Zeit-Materie. Apparently, Weyl became convinced that this theory was not true as a theory of gravitation; but still it was so beautiful that he did not wish to abandon it and so he kept it alive for the sake of its beauty. But much later, it did turn out that Weyl’s instinct was right after all, when the formalism of gauge invariance was incorporated into quantum electrodynamics. (Chandrasekhar 1979)
Physikalische Erkenntnis, Denken und Sprache
79
Das Kriterium der Schönheit hat oft den richtigen Weg zur wissenschaftlichen Wahrheit gewiesen. Das kann nur gelingen, wenn die gewählte Sprache – die der Mathematik – der Wirklichkeit adäquat ist, ihre Strukturen also kongruent sind zu den Strukturen der Realität.
2 Sprache in der Wissenschaftskommunikation Die Entdeckung des Higgs-Teilchens war ein einzigartiger Triumph der Wissenschaft und der wissenschaftlichen Methode. Die theoretische Physik lieferte seit 1964 eine klare Vorhersage, dass ein Higgs-Feld nötig sei, um das Phänomen Masse konsistent in das Standardmodell der Teilchenphysik zu integrieren. Fast 50 Jahre später gelang sein Nachweis am größten Experiment in der Geschichte der Menschheit, am 27 km langen Large Hadron Collider LHC. Etwa 10.000 Physiker planten und bauten über 20 Jahre den Beschleuniger und seine vier gigantischen Experimente. Die Gesamtkosten von Beschleuniger und Experimenten betrugen ca. 6 Milliarden Euro. Die Begeisterung über die Entdeckung löste in der Öffentlichkeit eine wahre „Higgsteria“ aus. Das Journal „Science“ (Cho 2012) wählte als Entdeckung des Jahres 2012 das „Higgs Boson – Breakthrough of the Year“ und der „Economist“ (The Higgs boson. Science’s great leap forward 2012) nannte sie „A Giant Leap for Science“. Sowohl die Inbetriebnahme des LHC am CERN am 10. September 2008 als auch die Verkündung der Entdeckung eines Higgs-artigen Teilchens am CERN am 4. Juli 2012 gehören zu den größten Medienevents in der Geschichte der Wissenschaft. Gleiches gilt für die enorme Medienresonanz auf die Verleihung des Nobelpreises für die Vorhersage des Higgs-Teilchens am 8. Oktober 2013. Zum LHC-Start gab es über 100 Millionen Hits auf der Webseite des CERN sowie über 2.500 Fernsehübertragungen und 5.800 Presseartikel weltweit. Ähnlich begeistert nahm die Öffentlichkeit den Beginn des Physikbetriebs des LHC am 30. März 2010 und die Verkündung der endgültigen Entdeckung des Higgs-Teilchens am 14. März 2013 auf der internationalen Moriond-Tagung in La Thuile auf. Dennoch: Grundlagenforschung stand immer unter dem Druck, sich zu legitimieren. Die Rolle der modernen Großforschung ist in der Öffentlichkeit nicht unumstritten. Neben den enormen Kosten bezieht sich eine häufig anzutreffende Kritik auch auf die Zahl und den Abstraktionsgrad der Theorien der Teilchenphysik und die vielen Jahrzehnte bis zu ihrer Bestätigung oder Widerlegung. In der Tat harren viele Theorien wie die Supersymmetrie, die Superstrings, die Große Vereinigung aller Kräfte zu einer Urkraft, die Idee von Extra Dimensionen ähnlich wie der HiggsMechanismus seit Jahrzehnten ihrer Überprüfung. Dieser „Theorienstau“ ist jedoch nicht den Theorien anzulasten. Auch die Größe der Beschleuniger und Experimente und damit ihre Kosten und Bauzeit sind kein Versagen der Physiker. Sich dem Urknall bis auf Bruchteile einer Milliardstel Sekunde zu nähern, erfordert außerordentliche intellektuelle, finanzielle und technologische Anstrengungen. Da-
80
Thomas Naumann
für sollte eine sachgemäße Wissenschaftskommunikation Verständnis in der Öffentlichkeit schaffen. Andererseits ist Forschung ergebnisoffen, und es gibt keinerlei Garantie für Entdeckungen oder den Erfolg. Deshalb ist es wichtig, rechtzeitig Strategien für den Krisenfall zu entwickeln. So fiel den Physikern das Higgs-Teilchen am LHC durchaus nicht in den Schoß, und CERN musste über eine Antwort auf die Frage nachdenken: What if no Higgs? Zu Beginn der Datennahme am LHC definierte der CERN Council seine Kommunikations-Strategie für den Fall, dass das Higgs nicht entdeckt würde. In einem Dokument mit dem Titel „The scientific significance of the possible exclusion of the Standard Model Higgs boson in the mass range 114–600 GeV and how it should be best communicated“ hieß es im Oktober 2011: „Finding the Higgs boson, exactly as postulated in the Standard Model, would be a triumph. Ruling it out would be revolutionary, requiring textbooks to be rewritten. […] Either finding or ruling out the Standard Model Higgs boson will be just the start of a major programme of work to understand the origin of mass“ (CERN 2011). CERN definierte hier schon im Voraus kommunikationstechnisch einen möglichen Misserfolg zu einem viel größeren Erfolg um. Diese Strategie war vorausschauend und auch physikalisch gut begründet. Ohne ein Higgs-Teilchen wäre das gut etablierte Standard-Modell der Teilchenphysik zusammengebrochen und hätte durch eine völlig neue und fundamental andere Physik ersetzt werden müssen. Auch dies gehört zur Grundlagenforschung dazu: Ursprüngliche Ziele können völlig verfehlt werden, erste Anzeichen des Neuen lassen kaum erahnen, was für ein unerwarteter Kontinent sich auftut, und es kann Jahrzehnte dauern, bis das Neue gut erforscht ist. Diese fundamentale Offenheit des Forschungsprozesses muss ebenso unbedingt kommuniziert werden.
2.1 Die Nachricht und ihr Timing Wir wollen uns jetzt einigen Problemen in der Kommunikation zuwenden. Dazu gehört die zu frühe Kommunikation wissenschaftlicher Resultate. Ein erstes Beispiel ist die Entdeckung des Higgs-Bosons am LHC des CERN. Zeiten der Ungewissheit sind ein normaler Bestandteil des Forschungsprozesses. So dauerte es von 1974 bis 1978, bis eine Handvoll merkwürdiger Ereignisse im MARK I Experiment am Elektron-Positron-Speicherring SPEAR des Stanford Linear Accelerator Centre SLAC in Kalifornien zuverlässig als das erste Mitglied einer neuen, der dritten Familie von Elementarteilchen interpretiert werden konnten. Für diese Entdeckung des Tau-Leptons erhielt Martin Perl 1995 den Nobelpreis für Physik. Perl erwähnte seine Beobachtungen erstmals 1975 auf einer Sommerschule in Kanada. Eine zuverlässige Interpretation der Resultate wagte er erst 1977 auf der internationalen Lepton-Photon Konferenz in Hamburg zu geben. Perl selbst beschreibt dieses Ausräu-
Physikalische Erkenntnis, Denken und Sprache
81
men letzter Ungewissheiten in seinen Erinnerungen „Is it a Lepton: From Uncertainty and Controversy to Confirmation: 1976‒1978“ (Pearl 1992). Zwischen der Entdeckung beider Elementarteilchen, des Tau-Leptons und des Higgs-Bosons, bestehen zwei wichtige Unterschiede: erstens bestand Perls Team 1977 aus 36 Physikern, während an der Entdeckung des Higgs im Jahre 2012 in zwei Experimenten je über 3.000 Forscher beteiligt waren. Und zweitens gab es 1977 kaum Druck von Seiten der Medien wie 2012 bei der Suche nach dem Higgs. Schon der Start des LHC wurde begleitet von Slogans wie: „The hunt for the God particle“ (National Geographic), „Ab heute urknallts“ (Der Spiegel). Ein solcher Erwartungsdruck, ausgeübt auf über 6.000 Physiker und ein großes internationales Labor erzeugt natürlich eine Atmosphäre, die einen ungestörten Abschluss aller Forschungsarbeiten erschwert. Schon am Tag vor dem für den 4. Juli 2012 angekündigten CERN-Kolloquium nahm die „Higgsteria“ bisher ungekannte Ausmaße an. Der Hörsaal des CERN wurde belagert und „Der Spiegel“ versprach bereits eine „Heiße Spur zum Gottesteilchen“ (Dambeck 2012). Am 4. Juli 2012 verkündeten die Experimente ATLAS und CMS die Entdeckung eines „Higgs-artigen“ Teilchens (CERN 2012a): „CERN experiments observe particle consistent with long-sought Higgs boson“, und der Generaldirektor des CERN Rolf Heuer sagte in dem historischen Kolloquium (CERN 2012b): „As a layman I would say: I think we have it… We have a discovery. We have observed a new particle consistent with a Higgs boson.“ Angesichts der vorhandenen Unsicherheiten legt Heuer der Öffentlichkeit die Schlussfolgerung aus den präsentierten Daten in den Mund. Er agiert hier ein wenig wie Jesus vor Pilatus, der angesichts der Frage, ob er der König der Juden sei, antwortete (Mar 15, 2): „Du sagst es.“ Die Raffinesse dieses Tricks wurde natürlich von der Mehrheit der Presse ignoriert, denn diese verkündet triumphierend: „God particle discovered at CERN“ (Dolak/Potter 2012) oder „Physicists Find Elusive Particle Seen as Key to Universe“ (Overbye 2012). Es bedurfte jedoch noch fast eines Jahres weiterer Datennahme und Analysen, bis CERN in einer Pressemitteilung (CERN 2013) anlässlich der internationalen Moriond-Tagung in La Thuile am 14. März 2013 verkünden konnte: „The new particle is looking more and more like a Higgs boson“. Die Presse befand sich nun in dem Dilemma, den nächsten Schritt der Entdeckung zu kommunizieren. Das Teilchen war sozusagen zum zweiten Mal entdeckt worden. Erleichtert konstatiert der „Spiegel“: „Higgs-Boson: Forscher zerstreuen Zweifel am Gottesteilchen“ (Forscher zerstreuen Zweifel am Gottesteilchen 2013), jedoch nicht ohne zu kritisieren: „Allerdings war in Fachkreisen nicht unumstritten, schon im Juli mit den Ergebnissen an die Öffentlichkeit zu gehen“. Und so kritisiert die „New York Times“ in ihrer Sonntagsbeilage vom 15. Dezember 2013 zu Recht gleich mehrere Aspekte des Medienfeldzuges um das Higgsteilchen: Hollywood could learn a thing or two about the dark art of self-promotion from this boson. First, its elusiveness ‘sparked the greatest hunt in science’ ... Then came all the hoopla over its actual
82
Thomas Naumann
discovery. Or should I say discoveries? Because those clever, well-meaning folks at the CERN laboratory outside Geneva proclaimed their finding of the particle not once but twice. (Jayawardhana 2013)
Wenn auch humorvoll bemerkt der Kolumnist zu Recht, dass man etwas nicht zwei Mal entdecken kann. Andererseits sollte man zumindest von den Qualitätsmedien ausreichend Verständnis dafür erwarten, dass es im wissenschaftlichen Prozess Zeiten der Ungewissheit geben kann, in denen sich der Stand der Forschung nicht auf eine Schlagzeile reduzieren lässt. Der Druck der Medien erschwert also zuweilen die seriöse Forschungsarbeit. So ist es schwer, in den gigantischen LHC-Experimenten mit je über 3.000 Physikern Lecks zu vermeiden, also zu verhindern, dass einzelne Physiker oder eins der über 300 Teams den Medien Resultate zu früh mitteilen. Das führt einerseits zu restriktiven Sicherheitsmaßnahmen im Experiment, die die Forschung behindern können, manchmal aber auch dazu, dass Resultate sehr früh und danach schrittweise und mehrfach verkündet werden.
2.2 Kommunikation von Krisen Wichtig in der Kommunikation ist auch ein professionelles Krisenmanagement. Als Beispiel für externe Krisen diskutieren wir die Auseinandersetzung mit Weltuntergangs-Szenarien. Die Geschichte der Schwarzen Löcher bei CERN zeigt, wie die Teilchenphysik die Bedrohung durch ein in die Öffentlichkeit geratenes universelles Vernichtungsszenario abwenden konnte. Ausgangspunkt war die Tatsache, dass CERN mit dem LHC auch nach mikroskopischen Schwarzen Löchern sucht. Damit sind mögliche Effekte der Quantengravitation bei den hohen Energiedichten in Teilchenkollisionen am LHC gemeint. Unter interessierten Laien und in einem Teil der Öffentlichkeit verstärkte sich in den Jahren vor der Inbetriebnahme des LHC die Sorge, diese mikroskopischen Schwarzen Löcher könnten wie die makroskopischen Schwarzen Löcher Materie anziehen und am Ende unsere Erde und das ganze Universum verschlingen. So tauchte im Februar 2008 auf YouTube eine bedrohliche Simulation (BrainReleaseValve 2008) auf, in dem ein am CERN geschaffenes Schwarzes Loch die Erde verschlingt. Das Video fand schnell Millionen Zuschauer und wurde auch vom Fernsehen verwendet. Besorgte Laien reichten in den USA und der Schweiz Klagen gegen CERN wegen Vernichtung der Welt ein und versuchten, die Inbetriebnahme des LHC gerichtlich untersagen zu lassen. Angesichts dessen berief das CERN vor dem LHC-Start 2008 seine „LHC Safety Assessment Group“ ein, die eine vorhandene Sicherheitsstudie aus dem Jahre 2003 auf den neuesten Stand brachte und auf die aktuellen Kritiken reagierte. CERN entwickelte eine klare Argumentationskette (CERN 2003): – Die Energien kosmischer Strahlen sind milliardenfach höher als die des LHC.
Physikalische Erkenntnis, Denken und Sprache
– –
83
Die Natur hat mit der Erde bereits mindestens eine Million LHC-Experimente gemacht. Das Universum macht insgesamt viele Millionen LHC-Experimente pro Sekunde.
Trotzdem ist das Universum nicht von zu schwarzen Löchern kollabierten Sternen dominiert. Draus zog die CERN-Studie den klaren Schluss: Der LHC ist sicher (CERN o. D.). Auch in Deutschland wurde eine Klage eingereicht, und zwar vor dem Bundesverfassungsgericht. Erfreulicherweise wies das Gericht die Klage mit der Begründung ab, die Klägerin habe nicht schlüssig darlegen können, warum die Vernichtung der Erde drohe. Dazu „genügt es insbesondere nicht, Warnungen auf ein generelles Misstrauen gegenüber physikalischen Gesetzen, also gegenüber theoretischen Aussagen der modernen Naturwissenschaft zu stützen“, erklärten die Richter in ihrer Urteilsbegründung (Bundesverfassungsgericht 2010). Das Urteil wurde in der Presse mit Humor und Erleichterung aufgenommen: „Wer hat Angst vorm Schwarzen Loch? Karlsruhe weist Weltuntergangsklage ab“, witzelte der „Spiegel“ (Karlsruhe weist Weltuntergangsklage ab 2010). Die Frankfurter Allgemeine kommentierte auf der Titelseite das Urteil des Gerichts mit zwei kleinen schwarzen Löchern und der Bemerkung: „Weltuntergang ad acta“. Doch am Tag des LHC-Starts präsentierte die FAZ auf ihrer Titelseite ein riesiges Schwarzes Loch mit der Frage „Verschwinden wir im Schwarzen Loch?“. Am Tag der ersten Kollisionen im LHC fragte der „Focus“ (Müller 2008): „Geht heute die Welt unter?“. So konnten CERN und die weltweite LHC-Kommunikation dank eines offenen und professionellen Krisenmanagements einen gravierenden Imageschaden sowie ein Betriebsverbot abwenden. Doch schon wenige Jahre später tauchten die Weltuntergangs-Ängste wieder auf. In einem brillanten populärwissenschaftlichen Artikel über das inflationäre Universum äußerte der russisch-amerikanische Kosmologe Andrei Linde den Gedanken, wie man aus einer winzigen Menge extrem dichter Materie ein sich ewig selbst reproduzierendes inflationäres Universum anstoßen könnte: Instead of watching the universe at the screen of a computer, one may try to create the universe in a laboratory. Such a notion is highly speculative, to say the least. But some people (including Alan H. Guth and me) do not want to discard this possibility completely out of hand. One would have to compress some matter in such a way as to allow quantum fluctuations to trigger inflation. Simple estimates in the context of the chaotic inflation scenario suggest that less than one milligram of matter may initiate an eternal, self-reproducing universe. We still do not know whether this process is possible.” (Linde 1994, 53)
Und Linde fragt schließlich: „Is it conceivable that our own universe was created by a physicist-hacker?“ Linde diskutiert nicht, inwieweit die Möglichkeit eines solchen Phasenübergangs die Existenz auch unseres Universums gefährdet. Das lässt Raum für existentielle Ängste. Auf solchen Szenarien aufbauende Ängste, das Higgs-Boson könne das Ende des Universums bewirken, verbreiteten sich aufgrund einer Äußerung von Stephen
84
Thomas Naumann
Hawking im September 2014 in der Presse: „Stephen Hawking Believes Higgs Boson Particle May Destroy Universe“ (Gillman 2014, Dassanayake 2014, Ruble 2014). Der „Berliner Kurier“ meldete am 9. September 2014: „Stephen Hawking: Finger weg vom Gottesteilchen […] es könnte den Weltuntergang auslösen“ und Focus Online warnte „Katastrophaler Vakuum-Abfall. Hawking warnt vor Raum-Zeit-Kollaps: Gottesteilchen könnte Universum zerstören“ (Hawking warnt vor Raum-Zeit-Kollaps: Gottesteilchen könnte Universum zerstören 2014). Das Online-Magazin „symmetry“ der US-amerikanischen Teilchenphysik veröffentlichte daraufhin eine Richtigstellung: If you’re a science enthusiast, this week you have likely encountered headlines claiming that physicist Stephen Hawking thinks the Higgs boson will cause the end of the universe. This is a jawdropping misrepresentation of science. The universe is safe and will be for a very long time – for trillions of years. To understand how abominably Hawking’s words have been twisted, first we need to understand his statement. (Lincoln 2014)
Die Forschung benötigt also dringend Strategien für die Bewältigung der kommunikativen Gefahren solcher immer wieder auftauchender Gefahrenszenarien.
3 Sprache, die für dich dichtet und denkt Hinter uns liegt eine der aufregendsten und glücklichsten Episoden in der Geschichte der Physik. Sie demonstriert in mustergültiger Weise die wissenschaftliche Methode von der Idee bis zur endgültigen Gewissheit, von der theoretischen Vorhersage des Higgs-Teilchens über die jahrzehntelange Suche bis zu seinem erfolgreichen Nachweis. Dieser Prozess wurde von einem außerordentlichen Interesse der Öffentlichkeit begleitet. Der Start des LHC und die Verkündung der Entdeckung des Higgs-Teilchens waren die bisher größten Medienereignisse in der Geschichte der Wissenschaft. In einer zum Teil von Desinteresse, Fortschrittsfeindlichkeit und Ängsten insbesondere vor der Kernforschung geprägten Welt ist ein derart überwältigendes Interesse ein Glücksfall für die Wahrnehmung der Forschung sowohl in der Öffentlichkeit als auch bei den Geldgebern. Doch bei aller Freude über das überwältigende Interesse der Gesellschaft lauern im Zusammenspiel von Forschern und Medien auch Gefahren: – Reißerische, ungeeignete oder falsche Begriffe wie Gottesteilchen oder Schwarze Löcher können falsche Bilder oder sogar für die Forschung gefährliche Ängste schüren. – Ein zu früher Gang ins Rampenlicht der Öffentlichkeit birgt die Gefahr, nicht gesicherte oder falsche Resultate wieder zurücknehmen zu müssen. Das gefährdet das Ansehen und die Glaubwürdigkeit der Forschung. – Der Druck der Medien auf die Forscher kann den Forschungsprozess behindern.
Physikalische Erkenntnis, Denken und Sprache
85
Die Forschung sucht und benötigt die Aufmerksamkeit der Öffentlichkeit und der Medien. Umgekehrt sind die Medien gierig nach Sensationen aus der Welt der Forschung. Hieraus kann leicht ein Teufelspakt entstehen, und der Forscher gerät in die Situation des Zauberlehrlings: Die Geister, die er rief, wird er nicht mehr los. Statt eines derartigen Teufelspakts sollten Forschung und Medien ein gegenseitiges Geben und Nehmen pflegen sowie gute Kooperation, sachliche Information und Aufklärung im besten Sinne anstreben.
4 Literatur Alexander, Amir (2014): A Brief History of Infinitesimals: The Idea That Gave Birth to Modern Calculus. In: Scientific American 310/4. Aristoteles (1907): Metaphysik. Jena. Aristoteles (1995): Philosophische Schriften in sechs Bänden. Bd. 6. Hamburg. Aristoteles (1829): Physik. Leipzig. www.zeno.org/Philosophie/M/Aristoteles/Physik/4.+Buch/ 6.+Capitel Behrends, Ehrhard (2010): Ist Mathematik die Sprache der Natur? In: Mitteilungen der Mathematischen Gesellschaft Hamburg 29, 53–70 Bell, John S. (1964): On the Einstein Podolsky Rosen Paradox. In: Physics 1/3, 195–200. Bell, John S./Michael Nauenberg (1966): The moral aspects of quantum mechanics. In: Amos De Shalit/Herman Feshbach/Leon van Hove (Hg.): Preludes in Theoretical Physics. Amsterdam, 279– 286. Nachgedruckt in John S. Bell (1987): Speakable and Unspeakable in Quantum Mechanics. Cambridge u. a. ,Big bang‘ astronomer dies (2001): In: BBC News. [online] http://news.bbc.co.uk/1/hi/uk/1503721.stm Boltzmann, Ludwig (1982): Gesamtausgabe. Band 2: Vorlesungen über Maxwells Theorie der Elektrizität und des Lichts. Graz. Bousso, Raphael/Joseph Polchinski (2004): The string theory landscape. In: Scientific American 291, 60–69. BrainReleaseValve (2008): The CERN black hole [YouTube], https://www.youtube.com/watch? v=BXzugu39pKM Bub, Jeffrey (1970): Philosophy of Science 37/1, 156–158. Calaprice, Alice (Hg.) (2010): The Ultimate Quotable Einstein. Princeton. Callender, Craig (2010): Ist Zeit eine Illusion? In: Spektrum der Wissenschaft 10, 33–39. Carr, Bernard (Hg.) (2007): Universe or Multiverse? Cambridge. CERN (2003): Study of potentially dangerous events during heavy-ion collisions at the LHC. Report of the LHC safety study group; CERN Report CERN 2003–001. [online] https://cds.cern.ch/record/ 613175/files/CERN-2003-001.pdf CERN (2011): Dokumente CERN/SPC/978/Rev.2, CERN/2986/Rev.2 des Council des Europäischen Zentrums für Kernforschung CERN, Genf, vom 3.10.2011, [online] https://cdsweb.cern.ch/record/ 1391403/files/spc-e-978Rev2_c-2986Rev2Higgsreport.pdf CERN (2012a): CERN experiments observe particle consistent with long-sought Higgs boson. [online] http://press.web.cern.ch/press-releases/2012/07/cern-experiments-observe-particle-consistent-long-sought-higgs-boson CERN (2012b): Pressekonferenz vom 4. Juli 2012. [online] http://indico.cern.ch/event/196564/, Videomitschnitt: http://cds.cern.ch/record/1459604
86
Thomas Naumann
CERN (2013): New results indicate that new particle is a Higgs boson. [online] http://home.web.cern. ch/about/updates/2013/03/new-results-indicate-new-particle-higgs-boson CERN (o. D.): The Safety of the LHC, CERN backgrounder. [online] http://press.web.cern.ch/backgrounders/safety-lhc Chandrasekhar, Subrahmanyan (1979): Beauty and the quest for beauty in science. In: Physics Today 3, 25‒30. Chandrasekhar, Subrahmanyan (1987): Truth and Beauty. Aesthetic Motivations in Science. Chicago. Cho, Adrian (2012): Breakthrough of the Year – The Discovery of the Higgs Boson. In: Science 338/ 6114, 1524–1525. Dambeck, Holger (2012): Heiße Spur zum Gottesteilchen. In: Spiegel Online, [online] www.spiegel.de/ wissenschaft/mensch/gottesteilchen-higgs-boson-zeigt-im-lhc-sein-gesicht-a-842319.html Dassanayake, Dion (2014): ‘Could happen at any time’. God particle could DESTROY universe. In: Express. [online] www.express.co.uk/news/nature/508102/End-of-the-world-Stephen-HawkingGod-particle-Higgs-boson-destroy-universe Davis, Philip/Reuben Hersh (1994): Erfahrung Mathematik. Basel. Demokrit. In: Friedrich Albert Lange: Geschichte des Materialismus und Kritik seiner Bedeutung in der Gegenwart. Hg. O. A. Ellisson, 2. erw. Aufl. Iserlohn 1873, Erstes Buch. Geschichte des Materialismus bis auf Kant, Erster Abschnitt. Der Materialismus im Altertum, I. Die Periode der älteren Atomistik, insbesondere Demokrit, S. 15. [online] www.zeno.org/Philosophie/M/Lange,+ Friedrich+Albert/Geschichte+des+Materialismus/Erstes+Buch.+Geschichte+des+Materialismus +bis+auf+Kant/Erster+Abschnitt.+Der+Materialismus+im+Altertum/I.+Die+Periode+der+%C3 % A4lteren+Atomistik,+insbesondere+Demokrit Deutsche Kurzfassung: http://environmental-impact.web.cern.ch/ environmental-impact/Objects/ LHCSafety/LSAG SummaryReport2008-de.pdf Dolak, Kevin/Ned Potter (2012): ‘God Particle’ ‘Discovered’: European Researchers Claim Discovery of Higgs Boson-Like Particle. In: ABC News. [online] http://abcnews.go.com/Technology/god-particle-discovered-european-researchers-claim-discovery-higgs/story?id=16708940 Einstein, Albert (1905a): Zur Elektrodynamik bewegter Körper. In: Annalen der Physik 17, 891–921. Einstein, Albert (1905b): Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. In: Annalen der Physik 322 (8), 549– 560. Einstein, Albert (1920): Äther und Relativitätstheorie: Rede gehalten am 5. Mai 1920 an der ReichsUniversität Leiden. Berlin. Einstein, Albert (1924): Über den Äther. In: Verhandlungen der Schweizerischen naturforschenden Gesellschaft 105/2, 85–93. Einstein, Albert/Boris Podolsky/Nathan Rosen (1935) Can quantum-mechanical description of physical reality be considered complete? In: Physical Review 47/10, 777–780. Ellis, George F. R. (2014): Does the Multiverse Really Exist? In: Scientific American, 76–81. Ellis, George F. R. (2007): Issues in the Philosophy of Cosmology. In: Jeremy Butterfield/John Earman (Hg.): Philosophy of Physics. Amsterdam, 1183–1286. Ellis, George F. R. (2007): Multiverses: Description, Uniqueness and Testing. In: Bernard Carr (Hg.): Universe or Multiverse? Cambridge, 387–409. Ellis, John et al., LHC Safety Assessment Group, Review of the Safety of LHC Collisions, http://cern.ch/ lsag/LSAG-Report.pdf Bundesverfassungsgericht (2010): Entscheidung des 2. Senats des Bundesverfassungsgerichts vom 18.2.2010, AZ 2 BvR 2502/08. [online] www.bundesverfassungsgericht.de/entscheidungen/ rk20100218_2bvr250208.html Enzensberger, Hans Magnus (2002): Die Elixiere der Wissenschaft. Frankfurt a. M. Farmelo, Graham (2009): The Strangest Man, The Hidden Life of Paul Dirac. London.
Physikalische Erkenntnis, Denken und Sprache
87
Forscher zerstreuen Zweifel am Gottesteilchen (2013): In: Spiegel Online. [online] www.spiegel.de/ wissenschaft/technik/gottesteilchen-forscher-zerstreuen-letzte-zweifel-am-higgs-boson-a888845.html Gamow, George (1956): The Evolutionary Universe. In: Scientific American 195, 66–67. Gamow, George (1970): My World Line. New York. Giles, Steve (Hg.) (1993): Theorizing Modernism: Essays in Critical Theory. London/New York. Gillmann, Ollie (2014): Finding the ‘God’ particle could destroy the universe. In: Dailymail. [online] www.dailymail.co.uk/news/article-2746727/Maybe-shouldn-t-looking-quite-hard-God-particledestroy-universe-warns-Stephen-Hawking.html Gottwein (2017): Hesiod, Theogonie 116, Gottwein, [online] www.gottwein.de/Myth/MythC.php# Chaos Greene, Brian (2011): The Hidden Reality: Parallel Universes and the Deep Laws of the Cosmos. New York. Guth, Alan H. (1981): Inflationary universe: A possible solution to the horizon and flatness problems. In: Physical Review D 23/2, 347–356. Guth, Alan H. (1997): The Inflationary Universe: The Quest for a New Theory of Cosmic Origins. London. Guth, Alan H. (1999): Die Geburt des Kosmos aus dem Nichts. Die Theorie des inflationären Universums. München. Hawking warnt vor Raum-Zeit-Kollaps: Gottesteilchen könnte Universum zerstören (2014): In: Focus Online. [online] www.focus.de/wissen/technik/kollaps-von-raum-und-zeit-hawking-gottesteilchen-koennte-universum-zerstoeren_id_4115983.html Hawking, Stephen/Leonard Mlodinow (2010): The Grand Design. New York. Heisenberg, Werner/Arnold Pomerans (1971): Physics and Beyond: Encounters and Conversations. London. Hertz, Heinrich (1894): Gesammelte Werke. Band 1. Leipzig. IPPOG (o. D.): The International Particle Physics Outreach Group, [online] http://ippog.web.cern.ch/ Jayawardhana Ray (2013): Listen Up, It’s Neutrino Time. In: The New York Times. [online] www.nytimes. com/2013/12/15/opinion/sunday/listen-up-its-neutrino-time.html Kaluza, Theodor (1921): Zum Unitätsproblem in der Physik, Sitzungsbericht d. Preussischen Akademie d. Wissenschaften. Berlin, 966–972. Kant, Immanuel (1787): Kritik der reinen Vernunft B. In: Akademie-Ausgabe: Die Antinomie der reinen Vernunft: Anmerkung zur dritten Antinomie. Karlsruhe weist Weltuntergangsklage ab (2010): In: Spiegel Online. [online] www.spiegel.de/wissenschaft/technik/verfassungsgericht-karlsruhe-weist-weltuntergangsklage-ab-a-682514.html Klein, Oskar (1926): Quantentheorie und fünfdimensionale Relativitätstheorie. In: Zeitschrift für Physik A 37, 895–906. Kline, Morris (1990): Mathematical Thought from Ancient to Modern Times. New York. Kragh, Helge (2011): Higher Speculations: Grand Theories and Failed Revolutions in Physics and Cosmology. Oxford/New York. Krauss, Lawrence M. (2000): Quintessence ‒ the mystery of missing mass in the universe. New York. Krauss, Lawrence M. (2012): A Universe from Nothing: Why There Is Something Rather than Nothing. New York. Krauss, Lawrence M./Scott Dodelson/Stephan Meyer (2010): Primordial Gravitational Waves and Cosmology. In: Science 328, 989–992. Lange, Friedrich Albert (1974): Geschichte des Materialismus und Kritik seiner Bedeutung in der Gegenwart. Frankfurt a. M. Gottfried Wilhelm Leibniz: Theodizee, § 44; zit. nach der dt.-frz. Suhrkamp-Ausgabe 1999, S. 273. Lincoln, Don (2014): What Hawking really meant. In: Symmetry. [online] www.symmetrymagazine.org/ article/september-2014/what-hawking-really-meant
88
Thomas Naumann
Linde, Andrei (1983): The New Inflationary Universe Scenario. In: Gary William Gibbons/Stephen William Hawking/Steve Siklos (Hg.): The Very Early Universe. Cambridge, 205–249. Linde, Andrei (1994): The Self Reproducing Inflationary Universe. In: Scientific American 271/5, 48–55. Lorentz, Hendrik A. (1904): Electromagnetic phenomena in a system moving with any velocity smaller than that of light. In: Proceedings of the Royal Society. Amsterdam, 809–831. Lukrez: De rerum natura, Buch IV Zeile 262. Lukrez (1924): Über die Natur der Dinge. III Lehrsatz. Das Vakuum. Übersetzung von Hermann Diels. [online] www.textlog.de/lukrez-natur-vakuum.html Lukrez (1924): Über die Natur der Dinge. I Lehrsatz, Nichts wird aus Nichts. Übersetzung von Hermann Diels. [online] www.textlog.de/lukrez-lehrsatz-nichts.html Lutherbibel (1545): Stepbible, [online] www.stepbible.org/?q=version=GerLut1545|version=OHB|reference=Gen.1 Lutherbibel (1545): Stepbible, [online] www.stepbible.org/?q=version=GerLut1545|version=SBLG|reference=John.1 Lutherbibel (1912): bibel-online.net, [online] www.bibel-online.net/buch/luther_1912/2_mose/20/#2, www.bibel-online.net/buch/luther_1912/5_mose/5/#1 Lutherbibel (1912): bibel-online.net, [online] www.bibel-online.net/buch/luther_1912/markus/15/#2 Maxwell, James Clerk (1864): A Dynamical Theory of the Electromagnetic Field. In: Philosophical Transactions of the Royal Society of London 155, 459–512. Maxwell, James Clerk (1873): A Treatise on electricity and magnetism. London. Maxwell, James Clerk (1878): Ether. In: Encyclopædia Britannica, Ninth Edition, 8, 568–572. Mitton, Simon (2011): Fred Hoyle: A Life in Science. Cambridge/New York. Monod, Jacques (1971): Zufall und Notwendigkeit. Philosophische Fragen der modernen Biologie. München. Müller, Wolfgang (2008): Geht heute die Welt unter. In: FOCUS Online. [online] www.focus.de/wissen/ technik/large-hadron-collider-geht-heute-die-welt-unter_aid_332205.html Newton, Roger Gerhard (1997): The Truth of Science: Physical Theories and Reality. Cambridge. Overbye, Dennis (2012): Physicists Find Elusive Particle Seen as Key to Universe. In: The New York Times. [online] www.nytimes.com/2012/07/05/science/cern-physicists-may-have-discoveredhiggs-boson-particle.html Pascal, Blaise, Traité du vide, 1663, [online] https://fr.wikisource.org/wiki/Fragments_du_Traité_ du_Vide Perl, Martin L. (1992): The Discovery of the Tau Lepton, Presented at the Third International Symposium on the History of Particle Physics: The Rise of the Standard Model. Stanford. Plato, Timaios. Übersetzt von Franz Susemihl. Holzinger, Berlin 2013. [online] www.zeno.org/ Philosophie/M/Platon/Timaios Poincaré, Henri (1905): Sur la dynamique de l’électron. In: Comptes rendus hebdomadaires des séances de l’Académie des sciences 140, 1504–1508. Popper, Karl R. (1935): Logik der Forschung. Zur Erkenntnistheorie der modernen Naturwissenschaft. Wien. Popper, Karl R. (1962): The Open Society and Its Enemies. 4. Aufl. London. Popper, Karl R./Konrad Lorenz (1985): Die Zukunft ist offen. Das Altenberger Gespräch. Zürich. Pranger, Robert J. (1972): Defense Implications of International Indeterminacy. Washington, D.C. Prigogine, Ilya/Isabelle Stengers (1981): Dialog mit der Natur. München. Ruble, Kimberly (2014): Stephen Hawking Believes Higgs Boson Particle May Destroy Universe. In: Guardian Liberty Voice. [online] http://guardianlv.com/2014/09/stephen-hawking-believeshiggs-boson-particle-may-destroy-universe/ Schiller, Friedrich (1992): Votivtafeln ‒ Dilettant. In: Schillers Werke. Nationalausgabe, Band 1: Gedichte. Weimar.
Physikalische Erkenntnis, Denken und Sprache
89
Schroeder, Gerald: The Big Bang Creation: God or the Laws of Nature, http://www.geraldschroeder. com/BigBang.aspx Schroeder, Gerald (1990): Genesis and the Big Bang, Bantam, New York. Simonyi, Károly (2001): Kulturgeschichte der Physik. Haan-Gruiten. Smith, Quentin (1992): A Big Bang Cosmological Argument For God’s Nonexistence. In: Faith and Philosophy 9/2, 217–237. Sommerfeld, Arnold (1921): Atombau und Spektrallinien. Braunschweig. Steinhardt, Paul J. (2011): Kosmische Inflation auf dem Prüfstand. In: Spektrum der Wissenschaft 8, 40. Susskind, Leonhard (2005): The cosmic landscape: string theory and the illusion of intelligent design. New York Susskind, Leonhard (2007): The anthropic landscape of string theory. In: Bernard Carr (Hg.): Universe or Multiverse? Cambridge, 247–266. Tegmark, Max (2003): Parallel Universes. In: Scientific American, 40–51. The Higgs boson. Science’s great leap forward (2012): In: The Economist. [online] www.economist. com/node/21558254 Vilenkin, Alexander (1982): Creation of Universes from Nothing. In: Physics Letter B 11/1–2, 25–28. Weizsäcker, Carl-Friedrich Freiherr von (1978): Die philosophische Interpretation der modernen Physik, Nova Acta Leopoldina, Neue Folge, Nummer 207, Band 37/2, Zweite Vorlesung „Zur Einheit der Physik“, Halle/Saale, S. 30: „Bohr pflegte zu Aage Petersen zu sagen: ‚Wir hängen in der Sprache‘, ‚vi haenger i sproget‘.“ Wigner, Eugene (1960): The Unreasonable Effectiveness of Mathematics. In: Communications in Pure and Applied Mathematics 13, 1–14. Wigner, Eugene (1967): Symmetries and Reflections. Cambridge. Witten, Edward (1981): Search for a realistic Kaluza–Klein theory. In: Nuclear Physics B 186, 412–428. Wittgenstein, Ludwig (2003): Tractatus logico-philosophicus, Logisch-philosophische Abhandlung. Frankfurt a. M. Woolf, Harry (Hg.) (1980): Some Strangeness in the Proportion. Reading.
Klaus Kornwachs
3. Sprache und Technik Abstract: Dieser Beitrag behandelt den Zusammenhang von Sprache und Technik, wobei die Unterscheidung von inhaltlicher und pragmatischer Funktion von Äußerungen als Ausgangspunkt dient. Dies erlaubt die Entwicklung eines Technikbegriffs aus sprachlicher Perspektive, in dem sich drei Ebenen unterscheiden lassen: ein Sprechen über die Technik, ein Sprechen in der Technik und ein Sprechen mit der Technik. Für die erste Ebene ist die Unterscheidung von technischem Artefakt und organisatorischer Hülle wesentlich, die für die Entfaltung der technischen Funktion genauso essentiell ist wie das Gerät selbst. Die zweite Ebene erhellt den Sprachgebrauch während der Herstellung und der Verwendung von Technik. Hier zeigt sich ein besonderes Verhältnis von Alltags- und Fachsprache in spezifischen Textsorten wie Pflichtenheften und Bedienungsanleitungen. Die dritte Ebene umfasst Äußerungen, die dazu geeignet sind, Technik zu erzeugen, zu steuern und zu nutzen. Abschließend wird die Ingenieuren oft zugeschriebene Sprachlosigkeit mithilfe des zuvor entwickelten Analyseschemas behandelt. 1 2 3 4 5 6 7
Funktion von Äußerungen Die Zeichnung – die Sprache des Ingenieurs Technikbegriff Sprechen über Technik, in der Technik und mit der Technik Die Sprachlosigkeit der Ingenieure Reflektieren über Technik Literatur
1 Funktion von Äußerungen Wir äußern uns im alltäglichen wie wissenschaftlich-technischem Leben mit Hilfe der Sprache. Sätze, Aussagen, Ausdrücke werden in kommunikativen Akten geäußert. Dies nennt man einen Sprechakt. Der Sprecher sagt etwas, der andere hört zu, antwortet – vielleicht. Vielleicht widerspricht er auch. Vielleicht handelt er auch darauf hin. Das macht die Sache gleich kompliziert (eine ausführliche Fassung dieser einleitenden Erörterung von Sprache und Handeln findet sich in Kornwachs 2021). Bleiben wir bei der Äußerung. Mit ihr wird ein gewisser Inhalt ausgedrückt, zum Beispiel, dass der Keller des Gebäudes schimmelig sei. Der Satz lautet: „Der Keller dieses Gebäudes ist schimmelig.“ Dieser Inhalt lässt sich klassifizieren nach dem Objekt, worüber etwas ausgesagt wird, und der Prädikation, also was darüber ausgesagt wird. Objekt und Prädikation zusammen nennen wir Referenz. Wir machen unsere Äußerungen immer in bestimmten Situationen. Wenn man als Mieter dem Hausbesitzer den Satz sagt, der Keller des Gebäudes sei schimmelig, https://doi.org/10.1515/9783110296259-004
92
Klaus Kornwachs
dann schwingt da noch eine andere Funktion dieser Äußerung mit, als wenn man als Bauingenieur in einem mündlichen oder schriftlichen Gutachten feststellt, dass der Keller des Gebäudes schimmelig sei. Durch unsere Äußerungen in konkreten Situationen führen wir Handlungen durch, die eine pragmatische Funktion erfüllen: Wir urteilen, wir widersprechen, wir thematisieren Geltungs- und Wahrheitsansprüche, wir warnen, drohen, versprechen, bestreiten, und wir geben Anweisungen und fordern auf. Ob diese pragmatischen Funktionen vom Empfänger auch so verstanden werden, wie sie gemeint sind, hängt in empfindlicher und vielfacher Weise vom Kontext ab (Kornwachs 1976). Wir sehen darin, dass die pragmatische Funktion einer Äußerung theoretisch und praktisch sein kann: Stellt die Äußerung ein Urteil im klassischen Sinne dar (universal = alle x sind P, formal ∀x P(x), oder partikulär = ein bestimmtes x ist P, formal ∃x P(x) oder P(a)), fällt man mit der Äußerung eine eher theoretische Entscheidung. Führt man mit einem Satz eine Gegenrede in einer kommunikativen Situation, thematisiert dies einen Wahrheitsanspruch oder Geltungsanspruch für das geäußerte Urteil in einer konkreten Diskussion. Diese praktische Seite behandelt die Sprechakttheorie (Searle 1969). Mit der Äußerung von Sätzen wie: „Der Keller des Gebäudes, in dem ich zur Miete wohne, ist schimmelig“ kann ich dem Vermieter warnen, drohen, diese Äußerung kann ihn mittelbar auffordern, doch endlich etwas dagegen zu tun usw. Diese pragmatische Funktion des Sprechaktes nennt Searle die Illokution. Die Illokution ist eine Eigenschaft einer Äußerung, die von der grammatikalischen Richtigkeit der Äußerung bzw. des geäußerten Satzes vergleichsweise unabhängig ist. Manchmal genügt ein einfaches „Heh“ ohne einen kompletten Satz, um zu warnen, und ein grammatikalisch unvollständiger oder unrichtiger Satz wie „Wo Du wolle?“ hat bei Taxigästen die klar erkennbare Illokution der Frage. Die Frage ist, wie weit man die Regeln der Grammatik verletzen kann, damit immer noch eine Verständigung über die Referenz möglich ist, also den Inhalt des Satzes, und über die Illokution, also das, was die zu erkennenden kommunikative Absicht des Satzes ist. Denn nicht immer sichert korrekte Grammatik die Eindeutigkeit dessen, was wir sagen und damit sagen wollen. Ein einfaches Beispiel: Den Satz „Die erschöpften Akkus und Batterien müssen entsorgt werden“ kann man zweifach interpretieren. Wir benutzen hier Klammern, um den Unterschied zu kennzeichnen. Interpretation (1): Alle alten (Akkus und Batterien) müssen entsorgt werden. Interpretation (2): Alle (alten Akkus) und Batterien müssen entsorgt werden. Die unterschiedliche Klammerschreibweise sprechen wir ja nicht mit, wir müssen also aus dem Kontext entscheiden, ob wir nun alle alten Akkus und alle alten Batterien oder nur die alten Akkus und die sonstigen Batterien entsorgen müssen. Dies ist eine grammatikalische Zweideutigkeit oder eine syntaktische Ambiguität. Es gibt weitere Zweideutigkeiten, z. B. in der Semantik, sogenannte Homonymien: Eine Bank kann eine Garten- oder Parkbank, ein Geldinstitut, eine Blutbank oder Da
Sprache und Technik
93
tenbank bezeichnen, ein Schloss ein Türschloss oder ein Schloss als Gebäude, unter Induktion versteht der Physiker die Erzeugung von Strom in einem Leiter bei veränderlichem Magnetfeld, der Mathematiker aber den Schluss von n auf n+1. Beide Arten von Zweideutigkeiten sind Gift für eine gelingende Kommunikation – deshalb ist es schon vernünftig, auch in der Technik, wo man doch zu sehen meint, ob etwas funktioniert oder nicht, zugunsten der Eindeutigkeit und Klarheit auf Grammatik und Semantik zu achten.
2 Die Zeichnung – die Sprache des Ingenieurs „Die Sprache des Ingenieurs ist seine Zeichnung.“ Diese apodiktische Äußerung hört man oft in den Hörsälen unserer Technischen Universitäten. Fragt man nach, wird Sprache hier als Mittel der Kommunikation verstanden. Eine Zeichnung hat eine mediale Funktion, sie vermittelt Information aufgrund von Zeichen. Diese Zeichen bilden eine innere Struktur. Deshalb hat eine Zeichnung, wie auch die Sprache, eine Grammatik und eine Semantik. In der gesprochenen oder geschriebenen Sprache hängt die Semantik vom Gegenstandsbereich ab. So ist die Bedeutung des Wortes „Widerstand“ in der Elektrotechnik oder Elektronik zweifach: Zum einen meint man damit ein konkretes Bauteil in einer Schaltung, dessen Eigenschaft darin besteht, die durchlaufenden Ströme abzuschwächen. Zum andern meint man den Wert dieser Schwächung, die sich aus dem Quotienten von Spannung und Strom ergibt (R = U/I). Bewegen wir uns aber im politischen Bereich, dann hat das Wort „Widerstand“ eine ganz andere Bedeutung. Die Grammatik der normalen Sprache ist jedoch vom Gegenstandsbereich unabhängig – man kann sinnlose Sätze in korrekter Grammatik formulieren, und man kann, bis zu einem gewissen Grade in fehlerhafter Grammatik semantisch sinnvolle Sätze formulieren. Hier beginnt nun der Unterschied. Die Grammatik einer Zeichnung (z. B. einer Explosionszeichnung eines Motors oder der Zeichnung einer elektronischen Schaltung) ist im Gegensatz zur natürlichen Sprache wesentlich enger vom Gegenstandsbereich abhängig. Man nennt die Gesamtheit der Gegenstände und ihrer Eigenschaften, sowie der Beziehungen zwischen ihnen, abgekürzt eine Ontologie. Die Bedeutungen von Zeichen, Symbolen und Ikons innerhalb einer Zeichnung liegen durch die Ontologie der jeweilig behandelten Technik mehr oder weniger fest – wer diese Semantik nicht „lesen“ kann, versteht als Ingenieur nichts von seinem Fach. Denn man kann bei einer Explosionszeichnung die Elemente nicht beliebig anordnen – es gilt als grammatikalische Regel des Visuellen die projektive Geometrie. Ist sie verletzt, ist keine technisch sinnvolle Zeichnung mehr möglich, mit der man funktionierende Technik darstellen könnte. Analoges gilt z. B. für Schaltungen: Man kann keine sinnvollen Kombinationen von Bauelementen zeichnen, die der Schaltalgebra widersprechen. Ebenso wenig kann man mit einer richtigen Geometrie Gegenstände anordnen, die z. B. nicht räumlich sind, z. B. Ideen.
94
Klaus Kornwachs
Eine Transformationsgrammatik der technischen Zeichnung allgemein ist noch nicht geschrieben, für die Mechanik ist es immer noch die projektive Geometrie, für die elektronische Schaltung ist es die Schaltalgebra. Für prozessuale Abläufe und Abbildungen von Strukturen sind es die Diagramme aus der systemtheoretischen Beschreibung (Elemente und Verbindungen), deren Aufbauregeln wiederum stark vom jeweiligen Modell abhängen. Für den Bereich des Controllings (Geschäftsberichte, Powerpoint-Präsentationen etc.) ist mittlerweile eine Syntax und eine Semantik (International Business Communication Standards) entwickelt worden (Hichert et al. 2017). Dabei zeigt sich, dass auch hier Syntax und Semantik bei bildlichen Darstellungen nur in sehr engen Argumentationskontexten sauber trennbar sind. Die Idealvorstellung zielt auf eine einheitliche Notation, wie sie im 17. Jahrhundert bei der Vereinheitlichung der Notenschrift in der Musik erfunden wurde (Chop 1912) – aber diese Vorstellung ist wohl noch nicht generalisierbar. Man kann allerdings einen gemeinsamen Kern ausmachen – dies ist die Mathematik. Die Semantik einer konkreten räumlichen Darstellung (Gebäude, Getriebeteile etc.) darf die Regeln der projektiven Geometrie nicht verletzen, digitale Schaltungen müssen Modelle der Booleschen Algebra repräsentieren, sonst sind sie falsch und ihre Realisation wäre ineffektiv, d. h. es würde nicht funktionieren. Allerdings reicht dies nicht hin: Boolesche Algebra und klassische Aussagenlogik sind zeitlose Logiken. Technische Zeichnungen und erst recht technische Aussagen referieren zum größten Teil jedoch auf Prozesse in zunächst erdachten, dann hergestellten räumlichen, materiellen und zeitlichen Strukturen und kennen daher ein klares „davor“ und „danach“ bei der Reihenfolge der durchzuführenden technischen Handlungen. Die Asymmetrie der Wirkungen, wenn man die zeitliche Reihenfolge von technischen Regeln vertauscht, ist jedem, der schon einmal etwas „gebaut“ hat, bekannt. Gleichwohl ist die Zeichnung nicht hinreichend: „Baue nie die Schaltung, die Du in Deiner Diplomarbeit entworfen hast“ gilt als Bonmot für diesen Sachverhalt. Wer ein technisches Bild verstehen will, muss nicht nur das dabei Gezeigte entziffern, zum Beispiel Symbole zu Gegenstandsklassen zuordnen können, sondern er muss die technische Funktion, die der Zeichner intendiert hat, auch erschließen können. Letztlich muss er die Zeichnung als Bauanleitung lesen können. Insofern ist eine technische Zeichnung auch eine Handlungsaufforderung. Wir könnten sogar soweit gehen, eine technische Zeichnung in Analogie zu einem Sprechakt als einen Zeigeakt zu begreifen, der die pragmatischen Funktionen wie Behaupten, Warnen, Auffordern, Versprechen etc. erfüllen kann. Worauf technische Zeichnungen und technische Aussagen im Rahmen eines, wenn auch noch so einfachen Modells referieren, ist der jeweilige Gegenstandsbereich, der jedoch immer nur unvollständig beschrieben werden kann. Deshalb sind nachher auch Überraschungen und Havarien nie ausgeschlossen.
Sprache und Technik
95
3 Technikbegriff Wenn man Sprache und Technik mit dem Wörtchen „und“ verbindet, spricht man sofort drei Ebenen an: (1) Wie sprechen wir über Technik, wie beschreiben wir sie? (2) Wie sprechen wir in der Technik, d. h. welche sprachlichen Äußerungen kommen vor, wenn wir Technik erfinden, entwickeln, herstellen, benutzen und entsorgen? (3) Welche Äußerungen und Sprechakte kommen vor, die geeignet sind, Technik zu erzeugen, zu steuern und zu nutzen? Wir könnten dies auch Sprechen mit der Technik nennen.
Die Frage ist auch, inwiefern diese drei Ebenen voneinander abgrenzbar sind. Um diese Fragen zu beantworten, müssen wir zunächst einen Technikbegriff einführen, wie er in den vergangenen drei Jahrzehnten breit diskutiert worden ist. Zunächst ist der materiale vom formalen Technikbegriff zu unterscheiden. Wir benutzen einen formalen Technikbegriff, wenn wir z. B. von der Technik des Golf- oder Klavierspielens sprechen; also einer regelgeleiteten Fertigkeit, deren Ausübung zu bestimmten oder zu erwartenden Ergebnissen führen soll. Dieser Technikbegriff ist nicht auf Artefakte alleine fokussiert. Dagegen umfasst der materiale Technikbegriff (mittlerer Reichweite) die Artefakte selbst sowie deren Entwicklung, Herstellung, Gebrauch wie Entsorgung (Ropohl 2009). Damit gehören auch die Handlungsweisen an und mit Artefakten zur Technik und damit auch die Organisationsformen dieser Handlungen. Man kann die zum Funktionieren einer Technik notwendigen organisatorischen Prozesse die organisatorische Hülle einer Technik nennen (siehe Abschnitt 4.1.2). Technik reduziert sich damit nicht nur auf Geräte, Instrumente und Mittel zum Zweck, sondern beinhaltet auch Herstellungs- und Verwendungsweisen von Artefakten. Der Ausdruck „Technologie“ ist mit vielen Bedeutungszuweisungen besetzt. Drei gängige semantische Belegungen seien hier genannt: 1. Eine Gruppe von Geräten, Anlagen etc. und deren Verwendungsweisen in einem bestimmten technischen Bereich. So spricht man beispielsweise von RaumfahrtTechnologie, Computertechnologie oder Verkehrstechnologie und meint damit alle damit zusammenhängenden technischen Hervorbringungen und deren Anwendungen in diesen Bereichen. 2. Der Vorschlag, Technologie als die Gesamtheit von Technik im formalen wie materialen Sinn mit der zugehörigen organisatorischen Hülle zu verstehen, hat sich in dieser Form nicht durchgesetzt. 3. Vom Wortstamm τέχνη, der im Griechischen für Technik, Handwerk, aber auch Kriegslist und Trick verwendet wird und λόγος als der vernünftigen Rede und Einsicht, müsste Technologie hiervon abgeleitet die vernünftige Rede über Technik bedeuten. In diesem Sinne wird das Wort aber kaum benutzt, sondern eher syno
96
Klaus Kornwachs
nym zum Begriff Technik selbst verwendet. Letzteres soll auch hier so gehandhabt werden.
4 Sprechen über Technik, in der Technik und mit der Technik 4.1 Sprechen über Technik 4.1.1 Sprechen über Artefakte Beschreibungen technischer Artefakte sind alltäglich. Prospekte, Berichte über Warentests, Artikel über neue Produkte bis hin zu Lehrbüchern der diversen Techniksparten beschreiben Technik. Meist wird das Artefakt, z. B. ein Staubsauger oder eine Produktionsanlage beschrieben, indem die wichtigsten Teile in Skizzen oder photographischen Abbildungen gezeigt werden und dann mit einem beigefügten Text erläutert wird, inwiefern diese Teile und ihre Teilfunktionen zur Gesamtfunktion beitragen. Dies sind überwiegend Strukturaussagen: Welches Element hängt mit welchem Element wie zusammen? Dann wird beschrieben, was das Gerät „kann“, indem die Gesamtfunktion dargestellt wird, d. h. das Verhalten des Artefakts, wenn man bestimmte Handlungen an und mit ihm durchführt. Auf der Seite der Verben ist diese Sprache meist sehr arm, auf der Seite der Substantive dafür voll von Fachbegriffen und – zu Werbezwecken – oft mit Neologismen versehen. Hierher gehört auch die Technikkritik, nämlich Aussagen darüber zu machen, was das Gerät – im Gegensatz zu den Erwartungen – leider nicht kann. Für den ersten Schritt nehmen wir an, dass all diese Aussagen deskriptiv sind. Zumindest gilt dies für Technikdokumentationen. Als Funktionsaussagen stellen sie nicht nur Struktur, sondern auch Verhalten dar und erfüllen so die prä-formalen Anforderungen an eine Systembeschreibung. Die mathematische Systemtheorie in ihrer mengentheoretischen Formulierung (Mesarovic 1972) stellt in gewisser Weise die Syntax für die bildhafte Darstellung von Geräten und die Semantik für das Reden über Geräte dar. Dies ist vielleicht auch der Grund, weshalb wir gern im Zusammenhang mit größeren technischen Gebilden von Systemen sprechen.
4.1.2 Organisatorische Hülle Wenn wir über Technik sprechen, reicht die Rede über Geräte allein nicht aus. Ein Computer funktioniert nicht, wenn er auf Dauer trotz eines guten Akkus keinen Strom mehr bekommt, weil sein Besitzer vergessen hat, die Stromrechnung zu bezahlen. Ein Smartphone würde ohne Netz, Provider, Software-Updates, ohne Anmeldung, ohne
Sprache und Technik
97
Bezahlung und ohne die ganzen sonstigen Dienste nicht nutzbar sein. Diese organisatorische Hülle eines Geräts ist genauso essentiell für die Entfaltung der technischen Funktion wie das Gerät selbst. Das Problem ist jedoch, dass wir über Geräte in einer anderen Weise sprechen als über die organisatorische Hülle. Bei Geräten gibt es Zeichnungen, Pläne und Beschreibungen, die sich an die syntaktischen Regeln halten. Die Semantik und Syntax liegen durch die Technologie des Gerätes mehr oder weniger fest. Dies ist bei Reden über die organisatorische Hülle nicht mehr der Fall. Hier geht es nicht um natürliche Tatsachen, wie physikalische Gegebenheiten, sondern um institutionelle Tatsachen, d. h. um Umstände, bei denen bestimmte soziale Regeln befolgt werden müssen (wie z. B. beim Bezahlen). Dazu gehören Gesetze und Vorschriften, die eingehalten werden müssen, wenn man eine Anlage betreibt, und Angaben darüber, welche Schritte man für eine Bau-Genehmigung oder Organisation für Ersatzteile unternehmen muss etc. (zur klassischen Unterscheidung von natürlichen zu institutionellen Tatsachen siehe Popper 1977, S. 70‒71) All dies wird aber meist nicht in Form einer Zeichnung, sondern wortreich beschrieben. Dabei stellt man fest, dass die Ontologie der organisatorischen Hülle eines Geräts (Besitz, Wartung, Stromanschluss) eine andere ist als die des Geräts. Das bedeutet, dass die Grammatik des Sprechens über die organisatorische Hülle in unserer Umgangssprache unabhängig vom eigentlichen technischen Gegenstandsbereich ist. Ein weiterer Unterschied liegt in den logischen Beziehungen zwischen Aussagen Die meisten Relationen in der Beschreibung von Technik sind transitiv. Das bedeutet: Wenn aus A B folgt, und aus B C, dann folgt aus A auch C. Viele technische Eigenschaften sind als solche transitive Relationen darstellbar, zumindest wenn man sie technisch-funktional versteht, wie kleben, halten, befeuchten, bewirken etc. In der organisatorischen Hülle kommen jedoch Beziehungen vor, die nicht transitiv sind, wie jemanden bevorzugen, gegen jemanden gewinnen, jemanden bezahlen, jemandem etwas besorgen, jemandem etwas liefern, für etwas zuständig sein etc. Wenn wir über die Funktionsmöglichkeiten eines Gerätes sprechen, müssen wir demnach zwei Sprachen sprechen, die eine, deren Syntax und Semantik aus der Ontologie des Geräts erwächst und die andere, die sich aus dem Gegenstandsbereich der organisatorischen Hülle ergibt. Beide Sprachen haben unterschiedliche Strukturen: In der einen überwiegen transitive Relationen, in der anderen kommen intransitive Beziehungen vor, die eine ist durch eine Syntax geregelt, die in gewisser Weise vom Gerät abhängt, die andere ist in ihrer Syntax umgangssprachlich und ziemlich frei. An den begrifflichen Grenzstellen zwischen Gerät und organisatorischer Hülle treten dann auch die meisten Kommunikationsprobleme auf, die unter Umständen dann auch zu Havarien führen können (Perrow 1992 zeigt dies in einer Analyse „normaler“ Katastrophen).
98
Klaus Kornwachs
4.1.3 Interessen Wir beschreiben nicht nur Technik – wir neigen, wenn wir kommunizieren, zu den Begriffen, die unseren Leidenschaften dienen. Es ist trivial, wird aber immer wieder gern vergessen: Wer Technik erfindet, herstellt, betreibt, nutzt und entsorgt, verfolgt damit Interessen. Diese Interessen gehen in die Beschreibung von Technik ein. Man findet deren Niederschlag darin, wenn man bedenkt, dass schon bei der Erstellung von Modellen (seien sie figürlich, seien sie mathematisch) der Modellzweck festgelegt wird: Bau, Simulation, Berechnung, Prognose, Erklärung, Demonstration etc. Dazu kommt, dass man gerade bei der rechnerunterstützten Modellbildung bestimmte Modellierungsweisen durch die eben verfügbaren Programme bevorzugt. Entsprechend sieht das Modell dann aus. Interessen drücken sich ebenfalls darin aus, dass Modellersteller immer eine Grenze zwischen dem ziehen müssen, was noch vom Modell erfasst werden soll und was nicht. Mit diesen drei interessebestimmten Bedingungen liegen die Ontologie der Technikbeschreibung, und damit auch deren Grammatik, die Bedeutungen und auch das Vokabular des Sprechens über Technik mehr oder weniger fest.
4.2 Sprechen in der Technik Das Sprechen in der Technik meint hier sprachliche Kommunikation, die während der Herstellung oder des Gebrauchs von Technik im weitesten Sinne stattfindet. Wir finden Anweisungen, Befehle, Warnungen, Anleitungen und dergleichen wie im Alltag auch – die Frage ist, ob es Spezifika dieser sprachlichen Kommunikation in technischen Bereichen gibt, die sich vom Sprachgebrauch des Alltags unterscheiden. Um dies näher zu sehen, greifen wir in den nächsten Abschnitten drei Textsorten heraus, die in der Technik eine wichtige Rolle spielen.
4.2.1 Pflichtenhefte Pflichtenhefte sind gewissermaßen die Wunschzettel der Technik. In ihnen wird festgelegt, was ein Gerät oder eine Anlage, einschließlich seiner organisatorischen Hülle „können“ muss. Es sind dies Beschreibungen von technischen „Funktionen“, die „erfüllt“ sein müssen. Schauen wir uns die „Erfüllung“ einer Funktion und ihren sprachlichen Ausdruck an. Eine Taschenlampe soll Licht spenden, sie sollte daher eine Energiequelle dafür haben (eine Batterie oder ein kleiner Drehgenerator) und diese Quelle müsste in ihrem Gehäuse untergebracht werden. Das Licht sollte gerichtet sein, müsste also mit einer Lichtquelle und einem Reflektor ausgestattet sein, und das Licht müsste von außen
Sprache und Technik
99
durch einen Schalter am Gehäuse an- und abschaltbar sein. Das Ganze sollte nicht zu viel wiegen und gut in der Hand liegen. Man kann nun eine Konstruktion entwerfen und diese gewissermaßen theoretisch danach prüfen, ob die Vorgaben aus diesem kleinen Pflichtenheft potentiell erfüllbar sind. Man kann jedoch erst nach dem Bau des ersten Prototyps durch einen Test entscheiden, ob die Vorgaben sich auch in Wirklichkeit erfüllen lassen. Das hört sich einfach an, ist es aber nicht, weil diese Prüfung bereits eine modellhafte Vorstellung der Taschenlampe voraussetzt, denn dieses Modell der Taschenlampe bestimmt die Zusammensetzung der technischen Funktionen. So kann man die Funktion: „Licht spenden“, die man durch ein Substantiv und ein Verb formulieren kann, hierarchisch untersetzen mit Unterfunktionen wie Lichtquelle ausrichten, Energieträger aufnehmen etc. Man kann dann auch Bauteile der Taschenlampe zu den Funktionen oder Unterfunktionen zuordnen, z. B. dass der Reflektor die Aufgabe hat, das Licht aus der Lichtquelle (Birne, LED ec.) zu bündeln. Zum Pflichtenheft gehören daher alle Funktionen und Unterfunktionen, sowie deren hierarchische Strukturen, die eine solche Konstruktion erfüllen muss. Der Konstrukteur ist jedoch darin frei, mit welchen Mitteln, mit welcher Struktur (Aufbau) und welchen Teilen und Elementen er dem Pflichtenheft zu entsprechen versucht. Idealisiert gesehen ist der Kern des Pflichtenhefts eine Aufforderung an den Konstrukteur oder Hersteller, die genannten Funktionen in ihrer Zusammensetzung aus Unterfunktionen zu erfüllen. Dies geschieht durch besagte Hauptsätze, die strukturiert angeordnet werden. Man kann dies tun, indem man diese Sätze entweder in Form eines Diagramms anordnet, manchmal auch mögliche Teile dazu abbildet, oder indem man eine hierarchische Dezimalgliederung verwendet und die Hauptsätze so hintereinander anordnet. Diese Präferenz räumlicher Darstellung hängt mit der Modellbildung des vorgestellten Konstrukts zusammen. Die Technik der fertigen Taschenlampe ist nicht in einem zeitlichen Hintereinander, sondern nur räumlich in der Anordnung der funktionsverwirklichenden Teile verstehbar. Pflichtenhefte beziehen sich auf fertige oder als fertig gedachte Produkte. Davon ist zu unterscheiden die Technik, die man braucht, um eine solche Taschenlampe herzustellen. Die Beschreibung dieser Technik ist nicht mit der Bauanleitung zu verwechseln, sondern beschreibt die technischen Werkzeuge und Produktionsmaschinen, die man dazu braucht. Die Funktionsbeschreibung, z. B. „Licht bündeln“ ist weder sprachlich noch logisch nur eine Prädikation im Sinne von Gegenstand und Eigenschaft, sondern auch sprachpragmatisch als eine Aufforderung zu sehen, dass das Bauteil oder der Zusammenbau, ausgedrückt als Nominalphrase, diese Funktion, ausgedrückt in der Verbalphrase, erfüllen sollte. Wie das dann in die Praxis umgesetzt werden soll, ist eine andere Frage, denn die daraus möglicherweise resultierenden Handlungen sind zeitlich konsekutiv zu verstehen. Deshalb ist das Pflichtenheft von der Konstruktionsanleitung wohl zu unterscheiden.
100
Klaus Kornwachs
4.2.2 Konstruktionsanleitung Wir schließen, um Missverständnisse zu vermeiden, im Folgenden Bauanleitungen, wie man sie entweder verbal oder rein graphisch im Do-it-yourself Bereich kennt, zunächst aus. Jede Konstruktionsanleitung enthält zwei Arten von Sätzen: Die erste Art ist die Wiederholung der aus dem Pflichtenheft resultierenden Anforderungen. Es sind Beschreibungen von Eigenschaften, die von Bauteilen, Komponenten oder Zusammenbauten zu erfüllen sind. Sie beinhalten aber noch keine Angaben, wie diese Funktionen erfüllt werden sollen. Dies geschieht durch die zweite Art von Sätzen, aus denen die eigentliche Konstruktionsanleitung besteht. Diese Sätze sind aber ohne den Kontext der Sätze aus dem Pflichtenheft nicht verstehbar. Sie bestehen aus Anweisungen, die zu einem vorgegebenen Zweck ein geeignetes Mittel nennen und damit eine technologische Regel darstellen: Wenn Du B willst, musst du A ins Werk setzen. Wenn Du Licht bündeln willst, musst Du einen Reflektor einbauen. Die Konstruktion, vom lateinischen Wortstamm con (zusammen) und struere (mit den vielfältigen Bedeutungen aufschichten, aufeinander-, übereinander-, nebeneinanderlegen, erbauen, errichten, ordnen, aufstellen) meint zunächst das Zusammenstellen geeigneter Mittel in räumlicher und zeitlicher Hinsicht. Ein weiterer Aspekt ist, das Mittel für die Konstruktion geeignet zu machen oder herzustellen. Um Sätzen einer Anleitung zur Konstruktion Bedeutung zu geben, muss die Ontologie der Teile festgelegt werden, die verfügbar sind oder sein sollen. Danach muss die Zusammenfügung beschrieben werden, meist in Form von Zeichnungen, besonders in der Konstruktion die sogenannten Explosionszeichnungen, die die räumliche Lage der Teile und ihr Zusammenpassen besonders anschaulich zeigen können. Die Konstruktionsanleitung ersetzt nicht den konkreten Zusammenbau als Handlung, ist aber eine notwendige Vorbedingung für die Effektivität des Zusammenbaus. Die Anweisung der Durchführung des Zusammenbaus (Bauanleitung) ist wiederum nicht zu verwechseln mit der Konstruktionsanleitung. Während die letztere die Art und Weise bestimmt, wie die Funktionserfüllung bewerkstelligt werden soll, bestimmt die Bauanleitung schließlich, wie diese Art und Weise umgesetzt wird. Dies kann auch mit einer graphischen Darstellung geschehen. Konstruktionsanleitung wie Bauanleitung müssen bestimmten formalen Kriterien genügen. Bei rein deskriptiven Texten sind dies die Widerspruchsfreiheit und semantische Konsistenz. Bei Anweisungen zur Durchführung technischer Handlungen ist die Effektivität die notwendige Voraussetzung für das Ins-Werk-Setzen der gewünschten Funktionalität. Zur Illustration sei ein Beispiel in Tabellenform (Tabelle 1) aufgelistet:
Sprache und Technik
101
Tabelle 1: Form und Kriterien technischer Texte Beispiel
Sprachliche Form
Kriterium
Pflichtenheft
Das Regal soll an der Wand befestigt sein und darf nicht umkippen
Erwünschte Eigenschaften von Gegenständen in normativen Ausdrücken (soll, muss)
Keine logischen und semantischen Widersprüche
Konstruktionsanleitung
Es sind hierfür Schrauben, Dübel an der Wand und Halterungen am Regal zu verwenden. Erstelle die räumliche Anordnung
Festlegung der Ontologie der Gegenstände, Die Definition ergibt sich aus der Charakteristik der Gegenstände, + Handlungsaufforderung zur Erstellung der Konstruktion (Zeichnung)
Geeignetheit der ausgewählten Gegenstände, keine praktischen Widersprüche (= Effektivität)
Bauanleitung
Dübel in die Wand bohren, Halterung am Regal anbringen, Schraube durch Halterung in Dübel stecken, und mit Schraubenzieher anziehen
Handlungsanweisung in definierter zeitlicher Reihenfolge, Gegenstände der Handlung werden benannt, ebenso die Werkzeuge (Mittel). Entscheidend ist die Ontologie der Ziel-Mittel Relationen)
Machbarkeit, richtige Reihenfolge, Verständlichkeit, Effektivität
Bedienungsanleitung
Bretterböden einlegen, Bücher und Gegenstände hineinstellen, gelegentlich abstauben.
Handlungsanweisungen, wie mit dem Gesamtzusammenbau umgegangen werden kann / muss.
Machbarkeit, Verständlichkeit, Effektivität, Effizienz als Verhältnis von Nutzen zu Aufwand
4.2.3 Bedienungsanleitung Mittlerweile beschäftigen sich ganze Institute mit dem Problem, wie man Bedienungsanleitungen benutzerfreundlicher, sprich verständlicher machen kann. Bedienungsanleitungen sollten zunächst eine Liste der Gegenstände und deren Veränderungsoder Eingriffsmöglichkeiten enthalten. Dies stellt als Gesamtheit die Bedieneroberfläche dar. Weiterhin ist eine Liste der notwendigen Mittel erforderlich, um diese Veränderungen oder Eingriffe durchführen zu können, und schließlich eine Liste der Auswirkungen von möglichen Handlungen an dem zu bedienenden Gerät. Sprachlich fällt auf, dass wir im Deutschen von „bedienen“ resp. „Bedienungsanleitung“ sprechen, das englische Äquivalent „to serve“ wird im Zusammenhang von „users manual“ nicht gebraucht. Man spricht von „to operate a device“. Der Ausdruck
102
Klaus Kornwachs
„bedienen“ findet sich auch nicht in den romanischen Sprachen wieder, der Ausdruck lautet im Französischen: „faire fonctionner un périphérique (mode d’emploi)“ oder im Spanischen „operar un dispositivo“. Das Gerät sollte eher unseren Zwecken dienen, wir sollten uns nicht als Diener eines Geräts verstehen, dem wir dienen müssen, damit es tut, was wir wollen – obwohl es bei komplexen Anlagen uns manchmal so vorkommt. Die Gründe für den Ärger mit Bedienungsanleitungen sind schnell genannt: Schlampige oder automatisierte Übersetzungen aus dem Herkunftsland der Produkte sowie Unvollständigkeit in den oben genannten Listen der Gegenstände, Eingriffsmöglichkeiten und Konsequenzen der Eingriffe. Eine Bedienungsanleitung sollte davon ausgehen, dass der Nutzer eines Geräts dieses Gerät für bestimmte Zwecke verwenden will. Die geeignete Handlungsanweisung muss dann vom Zweck ausgehen: Wenn man X erreichen will, muss man die Handlungen Y am oder mit dem Gerät in der Weise Z durchführen. Vielfach ergeht es den Autoren von Bedienungsanleitungen, aber auch den Gestaltern von Geräteoberflächen, wie dem Fremdenführer, der Hamburg für Münchener ausschildern soll – wenn er aus Hamburg kommt, vergisst er leicht, dass Münchener sich nicht auskennen und daher vieles nicht wissen, was der Hamburger Fremdenführer für selbstverständlich hält. Eine zu detaillierte Wiedergabe der oben genannten Angaben führt dazu, dass der Nutzer schon gar nicht weiterliest, eine zu knappe Angabe lässt ihn ratlos zurück (Straub et al. 2010).
4.3 Sprechen mit der Technik 4.3.1 Sprache und Artefakt Die wohl sinnfälligste Veränderung von Technik seit Beginn des 21. Jahrhunderts ist die Steuerung und Kontrolle von Artefakten durch Sprache. Was anfänglich verblüffend erschien, ist heute kaum noch gewöhnungsbedürftig – die Steuerung von Geräten durch natürlich-sprachliche Eingabe. Dahinter steckt eine Entwicklung, die mit der Programmierung einer Maschine beginnt, die immer mit einem Computer verbunden ist oder ihn enthält. Die Programmierung eines Computers geschieht durch eine Programmiersprache, dies ist eine formale Sprache, die über eine Reihe von Übersetzungsprozessen (Compiler) von einer problemorientierten Programmiersprache (z. B. PL1 oder C+) in eine maschinenlesbare Sprache (z. B. Assembler) maschinenausführbare Befehle enthält, die zu physikalischen Zustandsänderungen in der computergesteuerten Maschine führen. Auch die Steuerung eines programmierten Rechners geschieht durch Befehle in einer formalen Sprache. Im Prinzip ist es dabei gleichgültig, ob die Maschine „nur“ einen internen Symbolverarbeitungsprozess oder einen Fertigungsschritt in einer äußern physikalischen Welt ausführt. Was in diesen Sprachen ausgedrückt wird, sind Anweisungen an die Maschine zu bestimmten Zustandsänderungen, die letztlich auf menschliche Anweisungen zurückgeführt werden können, wenn man die vollständige Kette der Übersetzungsprozesse verfolgt.
103
Sprache und Technik
Die Informations- und Kommunikationstechnik durchdringt mittlerweile alle Technikbereiche; dies führt auch zu einer breiten Ersetzung von mechanisch, elektrisch und elektronisch realisierten technischen Funktionen durch informatische Prozesse. Die Steuerung informatorischer Prozesse geschieht durch formale Sprachen, wird aber zunehmend auch durch natürliche Sprachen möglich vermöge der oben erwähnten Kaskade von Übersetzungsprozessen. Damit wird auch die Entwicklung, Herstellung, aber auch die Nutzung von Technik in diesem Sinne zunehmend (formal-)sprachlich bestimmt. Die oben genannte Ersetzung von mechanisch, elektrisch und elektronisch realisierten technischen Funktionen durch informatische Prozesse führt zu einer gewissen Dematerialisierung der Technik. Darunter versteht man, dass der größte Teil der technischen Funktionalitäten durch informatorische Prozesse realisiert wird, und die räumlichen und materiellen Abmessungen kleiner werden. Allerdings findet dieser Dematerialisierungsprozess seine natürlichen Grenzen in energetischen, geometrischen und materiellen Bedingungen. Denn jede Information und damit jede sprachliche Kommunikation bedarf eines physikalischen Trägers. Damit ist jeder Informationstransfer auch den physikalischen Gesetzen des Trägers unterworfen. Dabei stellen nicht nur Geräte Artefakte dar, sondern Algorithmen und Programme können ebenfalls dazu gezählt werden, denn die Informatisierung der Technik hat zu einer untrennbaren Kopplung von Gerät und Programm geführt. Damit rückt die Sprache als Gestaltungsinstrument von Technik, neben Mathematik und den Naturwissenschaften, immer mehr in den Blickpunkt.
4.3.2 Zeichnungen und Beschreibungen Das Nomen bezeichnet das, was Gegenstand in der Wirklichkeit oder in Gedanken sein kann, also ein Objekt oder Sachverhalt. Mathematische Objekte wie Dreiecke, Gruppen, Räume oder dergleichen werden ebenfalls substantivisch angesprochen, wobei an dieser Stelle noch keine Festlegung erforderlich ist, welchen ontologischen Status diese mathematischen Objekte haben. Jedenfalls kann man den mit Substantiven beschriebenen Objekten Eigenschaften zuordnen, sie also prädikatisieren, wobei die sprachphilosophische Unterscheidung zwischen synthetischen und analytischen Begriffen die Scheidelinien zwischen den mathematischen und technischen Begriffen markiert: Ein Prädikat ist analytisch, wenn es einem Objekt zugeordnet wird, das diese Eigenschaft als Objekt schon implizit aufweist. Ein Kreis ist per definitionem rund. Dass ein Kreis rund sei, ist demnach ein analytisches Urteil. Diese Unterscheidung geht auf Immanuel Kant zurück. Mathematische Aussagen sind bei Kant analytisch und a priori (vgl. die Ausführungen bei Kants Kritik der Reinen Vernunft ab A 148, B 187 in Kant 1781/1995, 194 ff.). Ein Prädikat ist synthetisch, wenn es zusätzliche, nicht im Objekt enthaltene Eigenschaften zuweist. Ein technisches Gerät (z. B. Telefon) kann funktionieren oder nicht, es kann eine andere Gestalt haben, und welche Ei
104
Klaus Kornwachs
genschaft es konkret hat, wird durch Bau, Gebrauch, Erfahrung und – mehr systematisch – durch Tests festgelegt (Kornwachs 2013). Aussagen über technische Geräte scheinen von daher von vorneherein synthetische Urteile sein. Die klassische Frage von Kant, ob es Aussagen über die Welt gibt, die synthetisch sind, aber vor aller Erfahrung liegen (a priori), ließe sich bei Aussagen über Technik so beantworten: Wenn man davon ausgeht, das Technik gemacht ist (arte factum), ist das Ergebnis nicht vor aller Erfahrung bestimmbar. Funktionsaussagen sind daher a posteriori und sie sind synthetisch. Allerdings kann man etwas über notwendige Bedingungen für den Bau von Apparaten sagen: Man kann nicht gegen die Physik konstruieren (sprich gegen die Naturgesetze), aber aus den Naturgesetzen kann man keine Technik deduktiv ableiten, es sind nur pragmatische Syllogismen möglich, die negative Aussagen erlauben, z. B. wie man etwas verhindern kann, was nicht gewünscht ist (Kornwachs 1998). Außerdem kann man keine unmögliche Maschine bauen. Diese Grenze kann man durch die Logik, also letztlich formalsprachlich beschreiben (Kornwachs 2009). Weiterhin ist für das Funktionieren von Technik, wie oben erwähnt, eine organisatorische Hülle erforderlich – dies sind die Ko-Systeme und ihre Einbettungen. Diese Hülle konstituiert sich aus kommunikativen und organisatorischen Strukturen. Die Bedingung der Möglichkeit von Technik kann man daher in den Erkenntnissen sowohl der Erfahrungswissenschaften (dazu gehören die Natur-, Technik- und Sozialwissenschaften) als auch in der Logik selbst finden. Technik hat damit eine doppelte Zwitterstellung: (1) Die Erfahrungswissenschaften verwenden zum einen als Beschreibungssprache Mathematik, die aber nichts über die Welt aussagt, und zum anderen machen sie erfahrungsbasierte Aussagen über die Welt. Diese Aussagen können umgangssprachlich wie fachsprachlich ausgedrückt werden und die kontingenten Grenzen technischer Möglichkeiten formulieren. (2) Die formale Logik zieht nicht nur eine Grenze der Beschreibbarkeit, indem sie Widerspruchsfreiheit fordert, sondern zeigt auch eine Grenze der Baubarkeit vor aller Erfahrung: Widersprüchliche (parapraktische) Maschinen sind nicht baubar und funktionieren a priori nicht.
4.3.3 Sprech- und Zeigeakte Um auf die „Sprache der Ingenieure“, die Zeichnung, zurückzukommen: Eine Konstruktionszeichnung bezieht sich auf Artefakte und deren innere Struktur, also dem Zusammenhang der Teile zu einem Ganzen. Der strukturelle Zusammenhang wird auf der Zeichnung meist durch geometrisch räumliche Nähe ausgedrückt, zuweilen auch mit Pfeilen. Die Teilobjekte selbst sind entweder ikonographisch, d. h. das dargestellte Symbol hat eine auf die Gestalt bezogenen Ähnlichkeit mit dem Objekt (z. B. Kästchen, Kondensator, Transistor, Verbindungslinie, Schraube, Gehäuse etc.), oder durch fest
Sprache und Technik
105
gelegte Symbolik bezeichnet. Die Funktion wird meist mit Messwerten interessierender Variablen, aufgetragen auf die Zeitachse dargestellt. Auch das Zeigen bildlicher Darstellungen, sei es eine Konstruktion oder ein zeitlicher Verlauf, sind Äußerungen. Bei der Beschreibung von Technik sind sie zunächst rein deskriptiv. Dazu gehört im erweiterten Sinn auch die Anwendung der Mathematik auf technische Probleme. Auch die Berechnung könnte man noch als Beschreibung auffassen, da sie aus vorgegebenen Aussagen weitere Aussagen mittels akzeptierter Verfahren ableitet oder die Berechtigung von weiteren Aussagen aus der ableitbaren Konsequenzmenge folgert. Geben wir eine solche berechnete Konsequenzmenge bekannt, ist dies eine Äußerung. Eine Äußerung ist, ebenso wie die Durchführung einer Berechnung, eine Handlung, ein Akt. Technische Beschreibungen sind Behauptungen (Statements) über einen technischen Gegenstand. Solche beschreibenden Äußerungen zu machen, sind jedoch nur ein Teil der sprachlichen Handlungen, die in der Technik vorkommen. Forderungen, wie sie in Pflichtenheften, Konstruktions- und Bauanleitungen wie auch Bedienungsanleitungen auftreten (s. o.), können auch als Sprechakte aufgefasst werden. Dann haben sie die Illokution, d. h. die pragmatische Funktion von Befehlen oder Anweisungen. Ein elementarer Sprechakt enthält mindestens einen einfachsten Satz, logisch gesprochen eine Proposition. Dieser Satz nimmt eine Zuordnung einer Eigenschaft zu einem Gegenstand vor; z. B. „Die Spannung beträgt in der Standardeinstellung 220 Volt.“ Das Äußern dieses Satzes, sei es in einem Vortrag, in einem Geschäftsbericht oder in einem Laborprotokoll, stellt eine Handlung dar, die einen Adressaten und eine Absicht hat. Die illokutionäre Rolle einer Äußerung (wie Versprechen, Drohung, Behauptung, Aufforderung) hängt, wie wir oben diskutiert haben, von der Situation der Äußerung ab. Dass der Sprecher eine Botschaft äußert, hat also einen Zweck, eine Intention. Sie liegt nicht in der Äußerung der Botschaft durch den Sprecher selbst, sondern in den Effekten, die er sich als Reaktion auf den Sprechakt erhofft. Dies nennt man die Perlokution eines Sprechaktes. Anhand des Aktes: Anbringen eines Schildes am Gehäuse eines Geräts mit der Aufschrift: „Vor Nässe schützen“ kann man sich klar machen, dass derjenige, der solche Schilder anbringt, damit rechnen muss, dass sie auch befolgt werden. So muss jeder, der z. B. eine Behauptung aufstellt, damit rechnen, dass man ihm glaubt oder dass man ihn zu widerlegen versucht, und jeder, der z. B. ein Versprechen abgibt, muss damit rechnen, dass bei hinreichender Glaubwürdigkeit nun erwartet wird, dass er dies auch einhält. Dasselbe gilt für Anweisungen an technische Geräte. Diese sind äquivalent als Aufforderung zu Handlungen anzusehen, nämlich das Gerät zu bedienen. Wer jemanden dazu auffordert, ein Gerät einzuschalten oder dem Gerät selbst durch Sprachsteuerung eine entsprechende Anweisung gibt, muss damit rechnen, dass das Gerät sich in Gang setzt. Es gibt also zu jeder Illokution auch eine Perlokution, so dass wir für unsere Zwecke die Illokution von Reden über Technik (gekennzeichnet mit ü) und Reden mit der Technik (gekennzeichnet mit m) reduzieren können auf (Rothkegel 2010):
106
– – – – – – –
Klaus Kornwachs
Feststellung (Behauptung, assertorische) (ü, m), Erklärung (Reduktion einer Behauptung auf eine andere, bekannte oder bereits akzeptierte) (ü), Prognose (ü), Warnung / Drohungen (ü), Empfehlung (ü), Versprechen (ü), und Befehle /Anweisungen (ü, m).
R. J. Searle hat in seiner Ausarbeitung der Sprechakte (1969) nachgewiesen, dass das Gelingen von Sprechhandlungen von sogenannten institutionellen Tatsachen abhängt, die zuvor gegeben sein müssen. So setzt die gelingende Rezeption der Illokution des Versprechens ein gewisses Vertrauensverhältnis zwischen Sprecher und Angesprochenem voraus. Eine Funktionszusage in einer Bedienungsanleitung, man werde einen bestimmten Effekt erhalten, wenn man diese oder jene Durchführung am Gerät vornimmt, stellt den Sprechakt eines Versprechens dar, die ein Vertrauensverhältnis zwischen Autor und Benutzer der Anleitung voraussetzt. Schlechte Bedienungsanleitungen zerstören dieses Vertrauensverhältnis bekanntlich rasch. Da die Illokution der Behauptung voraussetzt, dass der Sprecher bereit ist, den Wahrheitsgehalt einer Behauptung gegenüber den Angesprochenen zu thematisieren, muss er Beweise oder Erläuterungen geben können, welche die Plausibilität seiner Behauptung untermauern. Dies gilt nun auch für Funktionsvermutungen in der Technik, die ja Behauptungen darstellen. Ein mögliches Aufweisverfahren für die Richtigkeit der Behauptung ist der technische Test (zum Unterschied zwischen dem naturwissenschaftlichen Experiment und dem technischen Test siehe Kornwachs 2012, S. 123‒126). Die Illokution der Aufforderung und des Befehlens setzt nach Searle die Kompetenz resp. Autorität des Sprechers voraus, diese wiederum schließt die Akzeptanz durch den Angesprochenen ein. Die Frage ist nun, ob sich die Sprechakttheorie als pragmatisches Analyseinstrument auch beim Reden mit der Technik sinnvoll anwenden lässt. Nach der obigen Liste bleiben als Illokutionen nur Befehle resp. Anweisungen und Behauptungen (d. h. prädikative Zuweisungen) übrig. Wir sind ja davon ausgegangen, dass jeder Befehl an ein Gerät, und sei er umgangssprachlich, sich letztlich als einen Ausdruck in formaler Sprache, den die Maschine akzeptiert, darstellen lassen muss. Nimmt man die Illokution des Befehls, dann müsste die institutionelle Voraussetzung abgesichert sein, nämlich dass der Sprecher die Autorität hat, den Befehl zu erteilen, und der Angesprochene, in diesem Fall die Maschine, diese Autorität auch „akzeptiert“. Dies ist dann der Fall, wenn die Konstruktion der Maschine einerseits und die syntaktische wie semantische Struktur der formalen Eingabe andererseits entsprechend übereinstimmen. Dies wäre aber nur eine notwendige Bedingung. Die Maschine muss darüber hinaus in
Sprache und Technik
107
der Lage sein, die Befehle auch durchzuführen und der Sprecher muss wissen, was die Maschine durchführen kann und was nicht. Werden diese Bedingung verletzt – und dies ist häufig der Fall – dann entstehen „Dialoge“ zwischen Mensch und Maschine, die dysfunktional, wenn nicht kabarettreif sind. Es ist für das Technikverständnis entscheidend, dass hier bei der sprachlichen Steuerung von Technik die institutionellen, also pragmatischen Bedingungen des Verstehens, durch die Gestaltung der Technik selbst abgesichert werden müssen. Damit ist die Wirkungskette zwischen Sprache und Maschine festgelegt. Technik benutzt einen schon bestehenden oder hervorrufbaren natürlichen Prozess, indem durch technisches Handeln und Werkzeuge die Rand- und Anfangsbedingungen für den zu benutzenden Prozessablauf verändert werden. Damit kann der natürliche Prozess gesteuert werden und erfüllt so eine technische Funktion, die gewünscht wird. Über eine Maschine, die mittels Sprache gesteuert werden kann, wie oben beschrieben, ist es damit über viele Zwischenschritte möglich, sprachlich durch Befehls- oder Anweisungsakte aus natürlichen Prozessen technische Prozesse zu machen. Durch die sprachliche Steuerung von Technik verschwimmen nicht nur die Grenzen zwischen den Geräten und deren organisatorische Hülle, sondern auch die Grenze zwischen Informationsflüssen und Wirkungsketten. Die einzelnen Teilschritte in dieser Kette scheinen technisch und mathematisch gut verstanden zu sein. Der Gesamtzusammenhang, zum Beispiel bei globalen Wertschöpfungsketten, sind womöglich noch nicht genügend behandelt worden. Auch hier geht es um Informationsflüsse, die sprachlich gesteuert werden. Noam Chomsky, der Schöpfer des linguistischen Instrumentariums der Generativen Transformationsgrammatik, begann mit seinen Überlegungen damit, wie man das Problem der automatischen Übersetzung lösen könnte (Chomsky 1969). Es ging also genau um die Differenz zwischen natürlicher und formaler Sprache. Die notwendige Formalisierung verkürzt zwangsläufig das, was natürliche Sprache von der formalen Sprache unterscheidet: Kontextualität, paralinguistische Elemente, Situationsabhängigkeit, Ausnahmen, Vieldeutigkeit etc. Es ist unbestritten, dass die neueren Entwicklungen des maschinellen Sprachverstehens solche Differenzen auf eine Größenordnung verringert haben, die man zu Chomskys Zeiten nicht für möglich hielt. Trotzdem ist die Linguistik der Vermutung Richard Montagues nicht gefolgt, dass natürliche Sprache vollständig als formale Sprache zu verstehen und zu behandeln sei und die Semantik aus der Syntax berechnet werden könnte (Montague 1974). So werden wir, wenn wir mit Technik sprechen, immer ein gewisses Maß an Vereinfachung hinnehmen müssen, wenn wir wollen, dass die Geräte das tun, was wir mit unseren Sprechakten meinen und beabsichtigen.
108
Klaus Kornwachs
4.3.4 Generalisierung und Einzelfall Sieht man sich die Ausdrücke an, die Naturgesetze präsentieren, so hat man es mit verallgemeinerten Wenn-Dann-Aussagen zu tun. „Alle Metalle leiten Strom“ ist ein Satz, aus dem einem Partikularurteil abgeleitet werden kann: „Dieses Stück ist aus Metall. Deshalb leitet es Strom.“ Das Problem der Generalisierung aufgrund zahlreicher Einzelfälle, die man erfahren oder beobachtet hat, das Problem der Induktion, gehört zur Wissenschaftstheorie und soll hier nicht behandelt werden. Entscheidend bei der Technik sind jedoch nicht generelle Aussagen oder universale Urteile, sondern Einzelaussagen. Die Schraube muss zum Dübel passen, und zwar im konkreten Hier und Jetzt der Regalmontage. Dass man Einzelaussagen aus den Naturgesetzen ableiten kann, die sogenannte deduktiv-nomologische Erklärung, ist sowohl in der existierenden Technik wie auch bei deren Entwicklung von Technik, notwendig und hilfreich. Die Verwendung naturwissenschaftlicher Erkenntnisse ist ebenfalls notwendig, aber nicht hinreichend. Denn die praktische Präparation der Randbedingungen eines Prozesses, den man naturwissenschaftlich verstanden hat und berechnen kann und den man technisch ausnutzen will, ist immer eine Frage des Einzelfalls. Man muss die Kanone konkret auf 45° ausrichten, wenn man maximale Entfernungen treffen will, und die konkrete Kanone muss diese Einstellung auch zulassen. Machbarkeitsaussagen gibt es auf der verallgemeinernden Ebene meist nur negativ – d. h. was man nicht tun kann. Man kann aber im konkreten Fall sagen, was möglich ist, wenn man zur konkreten Präparation der Rand- und Anfangsbedingungen in der Lage ist. Sprachlich drückt sich das in der Technik so aus, dass wir es mit konkreten Gegenständen und seltener mit Klassen von Gegenständen haben. Wir setzen ihre Bezeichnung nominal zusammen und erzielen damit die Wortungetüme der Technik: Manschettenaufbewahrungsbehältertransportsystem. Das ist unpraktisch und wird deshalb abgekürzt: MABTS. Der Abkürzung sieht man nicht mehr an, ob sie sich auf ein Objekt, eine Relation oder auf einen Prozess bezieht. Man muss also den ganzen Kontext und die Semantik der Abkürzung kennen, um Sätze, in denen solche Bezeichnungen vorkommen, zu verstehen. Der Vorteil bei solchen abgekürzten Ungetümen liegt darin, dass die Funktionsverwendung nominal aus der Wortzusammensetzung erschlossen werden kann. Der Nachteil ist, dass man als Laie solche Ausdrücke mühsam erlernen muss und jede Branche in der Technik ein eigenes Vokabular entwickelt hat, das ihren speziellen Gegenstand (Ontologie) widerspiegelt.
4.3.5 Struktur und Verhalten Wiederholtes Funktionieren ist Voraussetzung gelingender Technik – eine Technik, die nur einmal funktioniert, ist im Weiteren unbrauchbar. Es ist zwar richtig, dass das Funktionieren im Einzelfall immer entscheidend ist, schließlich will man Technik ja
Sprache und Technik
109
konkret nutzen. Aus dem einmaligen Erfolg allein kann man aber noch nicht schließen, dass man sich auf das Funktionieren beim nächsten Einzelfall, bei dem die Technik angewendet werden soll, verlassen kann. Deshalb geht eine Funktionsbeschreibung immer über den Einzelfall hinaus und hat daher einen verallgemeinernden Charakter. Auch sie hat eine Wenn-dann Struktur: Wenn man diese und diese Handlung an und mit dem Gerät ausführt, geschieht in der Regel das und das. Das soll dann für alle Geräte dieser Art, jedes Mal und immer gelten, obwohl wir wissen, dass im konkreten Einzelfall ein Gerät versagen kann. Sprachlich drücken wir diese Negation der Funktionserfüllung aus wie z. B. „es klappt nicht“, „das Gerät ist kaputt“, „Fehlfunktion“, „das Gerät hat einen Fehler“ etc. Dies sind überwiegend Einzelaussagen, die sich auf ein konkretes Gerät in einer konkreten Situation beziehen. Die Erfüllung einer Funktion in der Technik wie deren Versagen beschreiben wir mit zeitlichen Aussagen, also mit Äußerungen, in denen die Zeit vorkommt. Die Flugparabel einer Kanone ist ein solcher Ausdruck, auch wenn er als mathematische Formel dasteht, in der Ableitung nach der Zeit vorkommen. Man nennt dies auch „Dynamik“ oder noch allgemeiner „Verhalten“ und meint damit die zeitlichen Veränderungen der Werteannahmen der interessierenden Variablen. Das Zustandsraumkonzept der Klassischen Mechanik, das paradigmatisch für solche Beschreibungen geworden ist, spricht dann von einer Trajektorie. Der Zustand eines technischen Systems fasst alle Werte, die zu einem bestimmten Zeitpunkt von allen interessierenden Variablen (Beobachtungsgrößen) angenommen werden, zusammen. Die Trajektorie (als Beispiel wieder die Bahn einer Kanonenkugel) ergibt sich aus dem Hintereinander aller Zustände, die ein solches System mit der Zeit annehmen könnte oder tatsächlich annimmt. Wir sprechen dann von Verhalten in zweifacher Hinsicht: Einmal das Verhaltensmuster, das sich meist als analytischer mathematischer Ausdruck formulieren lässt, und das konkrete Verhalten im Einzelfall. Man drückt dies sprachlich unterschiedlich aus: Im Falle des konkreten Verhaltens eines Geräts oder eines gewünschten Prozesses spricht man vom Ergebnis, vom Verlauf oder manchmal auch vom Bestehen eines Tests. Meint man hingegen das Verhaltensmuster, spricht man von Charakteristik, vom Verhalten als solchem oder einem Verhaltensmuster. Die mit der Zeit abnehmende Zuverlässigkeit technischer Geräte und Instrumente führt dann zu einer Veränderung der Charakteristik, die sich als mangelnde Funktionalität bemerkbar macht. Im konkreten Fall spricht man dann von einem Fehler. Verhaltenscharakteristiken oder Muster sind also nicht konstant in der Zeit und werden auch begrifflich als veränderlich angesehen. Dies ist anders bei Strukturen. Entscheidend sind räumliche Strukturen bei Konstruktionen und zeitlichen Ablaufstrukturen bei Prozessen, wenn z. B. eine zeitliche Reihenfolge von aufeinanderfolgenden und parallelen Schritten essentiell ist. Die Veränderung solcher Strukturen führt schnell zur Dysfunktionalität und wir bezeichnen eine Verletzung der Sollstruktur nicht als Fehler, sondern als Defekt oder als Zerstörung oder als „kaputt“.
110
Klaus Kornwachs
Allerdings gibt es Strukturen, die sich langsam ändern, z. B. in der organisatorischen Hülle einer Technik. Dies wird oftmals nicht bemerkt, und wenn sich dann eine Dysfunktionalität einstellt, wird die Zuordnung, ob ein Fehler oder ein Defekt (Schadstelle) vorliegt, oftmals zum Streitfall. Spätestens dann taucht der Begriff „menschliches Versagen“ auf.
5 Die Sprachlosigkeit der Ingenieure Auf Initiative des Bauingenieurs Heinz Duddeck und des Philosophen Jürgen Mittelstraß beschäftigte sich die Gottlieb-Daimler-Stiftung 1999 in einem Workshop mit der Sprachlosigkeit der Ingenieure (Mittelstraß/Duddeck 1999). Sind das Vorurteile, die auf der These aufbauen, dass es eine Spaltung zwischen einer naturwissenschaftlichtechnischen und einer eher künstlerisch-geisteswissenschaftlichen Kultur gebe (Snow 1967)? Können sich Ingenieure, und damit sind nun ganz allgemein Technik erfindende, gestaltende und anwendende Menschen, also Fachleute gemeint, nur im Medium der mathematischen Formeln, Tabellen und Zeichnungen gut ausdrücken? Und könnte dies zur Folge haben, dass sich solche Fachleute im sozialen Leben schwer tun, weil sie nicht über die flexible Semiotik des alltäglichen Umgangs miteinander verfügen, sondern Festlegungen und Definitionen bevorzugen? Umgekehrt gibt es den Verdacht, den man von Seiten der Ingenieurszunft z. B. gegenüber den Geistes- und Sozialwissenschaftlern zuweilen zu hören bekommt: Ihr Reden gehe doch zumeist in Richtung auf nicht zielführende und zudem endlose Erörterungen, gepaart mit technischer und mathematischer Inkompetenz und dem ständigen Versuch, sachfremde Argumente einzuführen. So gibt es vonseiten der sogenannten MINT-Fächer (Mathematik, Informatik, Naturwissenschaften und Technikwissenschaften) den Verdacht, dass ein komplizierter Satzbau entweder zur Verschleierung von Inhaltslosigkeit oder Inkompetenz diene oder sich dahinter ganz andere Interessen und Absichten verstecken könnten.
5.1 Die Formelsprache der Mathematik Ebenso wie die Zeichnung muss sich die mathematische Formel als Ausdruck von Verhalten und Struktur ebenso an eine Grammatik halten. In der Logik sind dies die Regeln zum Aufbau von wohlgeformten Ausdrücken (well-formed formulas), entsprechende Regeln finden sich in allen mathematischen Teilgebieten. Man kann also durchaus auch bei Formeln von einer Sprache, wenn auch von einer formalen Sprache reden. So gesehen sind mit Zeichnung und Formeln die Ingenieure nicht sprachlos, sondern sehr beredt. Man kann Mathematik als eine Sprache ansehen, in der die technischen Modelle präziser ausgedrückt werden können. Mathematik ist aber nicht nur eine Sprache zur Beschreibung, sondern sie stellt auch Kalküle zur Verfügung, mit Hilfe deren man aus
Sprache und Technik
111
der Modellbeschreibung durch mathematische Verfahren (z. B. durch Berechnung, Simulation, Visualisierung) Konsequenzen aus der Modellbeschreibung erhalten kann. Es bedarf großer Erfahrung, solche – zunächst ja nur als formale Ausdrücke vorliegende – Ergebnisse im Lichte der Problemstellung zu interpretieren. Die „richtige“ Interpretation und Einordnung ist zentral, um Aussagen aus der Konsequenzmenge eines Modells als adäquate Beschreibung des Gegenstandsbereichs anzusehen, die über die ursprüngliche Aussagenmenge hinausgeht. Diese Doppelfunktion, Beschreibungsinstrumentarium und operativer Kalkül zu sein, sowie ihr praktischer Erfolg, führt dazu, dass viele die Mathematik für die Sprache der Natur halten, wie dies Galilei Galileo schon tat. Es zeigt sich jedoch, dass die Mathematik in ihren Möglichkeiten viel weiter gehende Möglichkeiten anbietet. So kann man auch in den Technikwissenschaften mehr ausrechnen, als technisch machbar ist. Es ist die jederzeitige formale Prüfbarkeit, die dem Sprechen in der mathematischen Sprache ihre Sicherheit gibt. Das gilt aber nur für Bereiche, die sich geeigneterweise formal darstellen lassen. Nun haben Künstliche Intelligenz mit selbstlernenden Algorithmen, neue Programmiertechniken und sehr mächtige formale (Programmier-) Sprachen den Eindruck entstehen lassen, dass sich viele Bereiche des menschlichen Lebens, die man auch sprachlich ausdrücken kann, formal beschreiben lassen, so dass sie Gegenstand von Algorithmen (sprich Rechenoperationen) werden können. Gerade aber der Bereich der sozialen und zwischenmenschlichen Interaktion und Kommunikation scheint sich dieser Formalisierbarkeit hartnäckig zu entziehen. Der Grund könnte in dem schon erwähnten Umstand liegen, dass sich technische Funktionalität an der organisatorischen Hülle bewähren muss, und diese baut mit ihren institutionellen Tatsachen auf anderen logischen Kalkülen auf als die Technik, die es auf der Apparateebene mit natürlichen Tatsachen zu tun hat.
5.2 Die Sprache der Funktion Wenn es um die Beschreibung und die sprachliche Bewältigung der organisatorischen Hülle geht, spielen soziale und psychologische Prozesse eine Rolle, für deren sprachliche Erfassung den Ingenieuren das Vokabular fehlt, weil es in ihrer Ausbildung meist nicht oder nur unzulänglich thematisiert wird. Dieses Vokabular kann man jedoch nicht wie eine Fremdsprache erlernen, ebenso wenig wie ein Nichtmathematiker Mathematik oder ein Nicht-Ingenieur oder Nicht-Naturwissenschaftler Technik dadurch lernen oder verstehen kann, indem er lediglich deren Fachbegriffe in seinen Wortschatz aufgenommen hat. Kompetentes Benutzen von Fachsprache setzt eine gewisse Sozialisation in eben diesem Fach voraus – das ist ja auch die Schwierigkeit, mit der alle Versuche der Interdisziplinarität konfrontiert sind. So können gleichlautende Worte in unterschiedlichen fachlichen Kontexten unterschiedliche Bedeutungen (Homonymie) haben. Es wird jedoch gänzlich verwir-
112
Klaus Kornwachs
rend, wenn zum Teil in Geistes- und Sozialwissenschaften ein Vokabular, das in den Technik- und Naturwissenschaften exakt definierte Bedeutung hat, ohne Angabe der „Umdefinition“ verwendet wird. So sind der Begriff der Komplexität z. B. in der Informatik, und der Begriff der Rückkopplung, der Stabilität, etc. in der Regelungstheorie wohldefiniert, in der Theorie der Sozialen Systeme tauchen sie in ganz anderen Zusammenhängen und nicht klar definierten Bedeutungen auf. Man kann viele Beispiele finden (vgl. Sokal/Bricmont 1999) – es geht hier nicht um Details, sondern um die Struktur des Problems. Übertragungen fachfremden Vokabulars tauchen aber auch beim Reden mit und in der Technik und sogar in der Mathematik auf. Mathematik nimmt Alltagsbegriffe wie Gruppe, Ring, Körper, Kategorie, Abbildung, Raum etc. und benutzt sie als Name für streng definierte mathematische Objekte respektive Begriffe. Auch in der Technik finden sich umdefinierte Ausdrücke. „Akkord“ oder „Takt“ sind Begriffe aus der Musik, nun werden sie in der Technik als Bezeichnung für einen Arbeitsmodus verwendet. Der alltägliche Ausdruck „gefroren“ meint in der Technikentwicklung nicht kalt, sondern dass eine bestimmte Charakteristik nicht mehr geändert werden soll. Der „Widerstand“ ist in der Technik nicht psychologisch oder politisch gemeint, sondern ist die Bezeichnung für ein elektronisches Bauteil, das „Feld“ bezeichnet in der Elektrotechnik statt seiner ursprünglichen landwirtschaftlichen Bedeutung eine physikalische Eigenschaft, ein Lager kann statt einer Ansammlung von Objekten die Bezeichnung für ein Getriebeteil sein. Allerdings machen diese Disziplinen die Umdefinition von vorneherein in ihren Lehrbüchern klar. Rudolph Carnap hat es als magisches Sprachverständnis bezeichnet, wenn man hinter den Wörtern mehr sucht als Bezeichnungen, über die man sich bei Beschreibungsversuchen einigen kann. Wenn Kinder fragen: „Warum sagen die Franzosen zu Haus maison, wo doch ein Haus ein Haus ist?“, dann wird die Bedeutung mit Realität verwechselt (Carnap 1931). In empirisch und praktisch orientierten Disziplinen, in denen die Semantik fachspezifisch präzise geklärt ist, kann man diese Denkweise vergleichsweis oft finden, und dies erschwert das interdisziplinäre Gespräch massiv.
5.3 Praxis Wir können mit dem oben Ausgeführten einige naheliegende Fragen zu beantworten versuchen. 1.
Warum ist es so schwierig, eine Bauanleitung oder Bedienungsanweisung zu verstehen?
Die Antwort ist einfach: Weil die Bedingungen für den Erfolg des entsprechenden Sprech- oder Zeigeaktes nicht gegeben sind. Dies sind: Unklare, auch visuelle Begriffsbildung, gleiche Zeichen für unterschiedliche Gegenstände, Benutzerführung,
113
Sprache und Technik
welche die jeweilige Situiertheit des Benutzers nicht berücksichtigt, Privatsprache des Autors oder der Branche, Grammatikschwäche der Autoren, zuweilen auch einfach nur schlechte maschinelle Übersetzungen. Overengineering, d. h. dass das Produkt zu komplex ist, um es einfach beschreiben zu können, ist ebenfalls eine Ursache für die Unverständlichkeit von Bedienungsanleitungen. Hinzu kommt, dass die Zeit, die man zum Verstehen einer Bedienungsanleitung bräuchte, manchmal wesentlich länger ist als der Zeitraum, in dem man das Gerät nach dem Erwerb benutzen will.
2.
Wie ist es möglich, aus einer sprachlichen Beschreibung ein Artefakt zu bauen? Wie werden aus Worten Sachen?
Worte, die wirken sollen, brauchen einen Empfänger, der reagiert und bestimmte Voraussetzungen erfüllen muss. Technisches Wissen ist in den Geräten durch ihre Struktur, ihr Verhalten und ihre technische Funktion schon eingeschrieben, man kann dies lesen als Information, muss aber vorher schon ein technisches Verständnis haben, um technisches Wissen daraus gewinnen zu können. Eine Bauanleitung und ein Techniker samt Labor reichen ebenfalls nicht aus – man braucht impliziten Wissens, um eine Bauanleitung entsprechend in ein Gerät übersetzen zu können, d. h. um aus Worten Sachen machen zu können. So gelang es den britischen Kernphysikern nicht, ohne amerikanische Hilfe alleine eine Atombombe zu bauen, obwohl viele dieser Wissenschaftler und Ingenieure in das Manhattan Projekt eingebunden waren und die Konstruktionspläne kannten (Mildenberger 2006, 132‒145).
3.
Was sind technische Anweisungen?
Technische Anweisungen können Versprechen, Prognosen, Warnungen, Effektivitätsbehauptungen, Funktionsvermutungen etc. sein, deren Äußerungen beim Rezipienten zu technischen Handlungen führen sollen. Dies gelingt nicht immer. Eine technische Handlung, ist eine Handlung, die ein Artefakt herstellt, oder an einem Artefakt oder mittels eines Artefakts eine Wirkung erzielt. Auch eine solche Handlung gelingt nicht immer. Artefakte können dabei materiell oder immateriell sein (z. B. Algorithmen oder Verfahren oder eine festgelegte Reihenfolge von Arbeitsschritten bei Dienstleistungen).
4. Warum tun sich Ingenieure so schwer damit zu erklären, was sie gerade machen? Weil ihre Sprache, sprich Ausdrucksform, die Zeichnung und die praktische Ausführung ist. Die Umgangssprache hat hier nur eine unterstützende, erläuternde Funktion. Zum einen betont die naturwissenschaftlich-technische Ausbildung von vornherein die Neigung, sich in Formeln, Zeichnungen, Tabellen und Diagrammen, die aus dem Zeichenschatz der Informatik stammen, auszudrücken. Die Ausbildung vernachlässigt die verbale Argumentation. Zum andern entwickelt jedes Fach ein gewisses
114
Klaus Kornwachs
„Fachchinesisch“. Gehen Ingenieure dann noch in die Verwaltung oder ins Management, ist zu beobachten, dass sich durch Substantivierung und Neigung zum Machterhalt eine aufgeplusterte Sprache entwickelt. Zeitdruck und Entscheidungsdruck verkürzen die Zeit, die man bräuchte, um technisch-organisatorische Sachverhalte in Sprache zu übersetzen, während Gegner eines Projekts, die meist keine Ingenieure sind, sondern Juristen, Geistes- oder Sozialwissenschaftler oder politisch argumentierende Bürger, diese Zeit für wirksame Formulierungen durchaus zu haben scheinen. Kurzum: Die „Arbeitsreichen“ stehen in Konflikt mit den „Zeitreichen“, die Experten in Konflikt mit den Laien (beide Begriffe beziehen sich auf Siebel 1975, 84‒85). Nun könnte man fordern: Klärt die Sprachgewaltigen und Zeitreichen über die Technik auf, damit sie verstehen, was die Ingenieure meinen. Denn wenn man ihre Zeichnungen und technische Durchführungen lesen kann, dann kann man auch verstehen, was Ingenieure zu sagen haben. Aber dann ist man als Versteher schon kein Laie mehr. Bleibt also nur noch übrig, den Arbeitsreichen etwas mehr Zeit zu geben, sie in der Ausbildung auch mit Kommunikation, Sprache und der Wirkung von Gesprochenem zu konfrontieren, um ihnen die Macht des Wortes klar zu machen.
6 Reflektieren über Technik Auch das Nachdenken über Technik geschieht im Medium der Sprache. Wenn wir in der öffentlichen Debatte über Technik reden, weil ein Großprojekt in die Diskussion geraten ist, dann kommen die technischen Funktionen, die Organisationsformen der Herstellung, des Betriebs bis hin zur Entsorgung und die Interessen von Betreiber, Nutzer und Betroffenen zur Sprache. Das Reden über Technik ist im Alltag meist vieldeutig, gerade dann, wenn generalisierend über die Technik gesprochen wird, wie Grunwald und Julliard (2005) hervorheben: „Diese generalisierenden Diskussionen sind auch ein Ausdruck der lebenspraktischen Bewältigung von und des Umgangs mit Technik, indem sie als Mittel der gesellschaftlichen Selbstverständigung über Technik dienen.“ So ist das Medium der Technikkritik wie jeder Akzeptanzdebatten die Sprache. Debatten darüber, welche Technik in einer Gesellschaft förderungswürdig oder abzulehnen wäre, finden in der Alltagssprache statt. Schon die feine Unterscheidung im Sprachgebrauch, ob nun von Atomkraftwerken oder Kernkraftwerken gesprochen wird, zeigt die unterschiedliche Haltung des Sprechenden an: Gegner sprechen von Atomkraftwerken und den Benutzern des Begriffs Kernkraft wird Befürwortung unterstellt. So erweist sich eine Diskussion um die gebräuchlichen Technikbegriffe rasch als eine Diskussion um Haltungen zu bestimmten Techniken oder Technologielinien. Deshalb ist es nicht nur nötig, über Technik und ihre Funktionen zu reden, sondern auch immer über deren Begriffe und über die Sprache, die wir dabei verwenden. Eine Reflektion über die Sprache, mittels deren wir in der Technik und über die Technik re-
Sprache und Technik
115
den, hilft uns auch, unsere Interessen an der Technik und Motivationen zum technischen Handeln besser zu verstehen.
7 Literatur Bauer, Friedrich L./Gerhard Goos(1971): Informatik- eine einführende Übersicht. Zweiter Teil. Berlin/ Heidelberg/New York. Carnap, Rudolph (1931): Überwindung der Metaphysik durch logische Analyse der Sprache. In: Erkenntnis 2, 219‒241. Chomsky, Noam (1969): Aspekte der Syntaxtheorie. Frankfurt a. M. Chop, Michael (1912): Die Entwicklung unserer Notenschrift. In: Reclams Universum 28/2, 1250‒ 1254. Duddeck, Heinz/Jürgen Mittelstraß (Hg.) (1999): Die Sprachlosigkeit der Ingenieure. Opladen. Escher, Mauritis C. et al. (1972): The World of M. C. Escher. New York. Grunwald, Armin/Yannick Julliard(2005): Technik als Reflexionsbegriff. Überlegungen zur semantischen Struktur des Redens über Technik. In: Philosophia naturalis 42, 127‒157 Habermas, Jürgen (1976): Was heißt Universalpragmatik? In: K. O. Apel (Hg.): Sprachpragmatik und Philosophie. Theoriediskussion. Frankfurt a. M. Hichert, Rolf/Jürgen Faist/Members of the IBCS Association (2017): International Business Communication Standards: Conceptual, perceptual and semantic design of comprehensible business reports, presentations, and dashboards. CreateSpace Independent Publishing Platform 2017. In: www.hichert.com/de/standards/#%3F= Kornwachs, Klaus (1976): Kontext und Sprechakttheorie. Zum Problem kontextsensitiver Interpretation. Diss. Masch., Fakultät für Philosophie I, Universität Freiburg i.Br. Kornwachs, Klaus (1998): A formal theory of technology? In: Phil & Tech – Society for Philosophy and Technology ‒ An electronic journal 4/1. By: http://scholar.lib.vt.edu/ejournals/SPT Kornwachs, Klaus (2009): Vom Widerspruch in der Maschine: Die Parapraxie. In: Berichte der Fakultät für Mathematik, Naturwissenschaften und Informatik, BTU Cottbus, PT-02/2009. Cottbus. Kornwachs, Klaus et al. (2013): Technikwissenschaften. Erkennen – Gestalten – Verantworten. In: acatech (Hg.): acatech IMPULS. Heidelberg u. a. Auch in: http://www.acatech.de/de/ publikationen/impuls.html Kornwachs, Klaus (2021): Sachen machen – Artefakte und Sprache. Wie wir handeln, indem wir sprechen. In: Sprache für die Form. Forum für Design und Rhetorik 18 https://www.designrhetorik. de/sachen-machen-artefakt-und-sprache/ Livio, Mario (2010): Ist Gott ein Mathematiker? München. Mesarovic, Michael D.: A Mathematical Theory of General Systems. In: George J. Klir (Hg.): Trends in General System Theory. New York u. a., 251–269. Mildenberger, Georg (2006): Wissen und Können im Spiegel gegenwärtiger Technikforschung. Münster/London (Technikphilosophie 15). Perrow, Charles (1992): Normale Katastrophen. Popper, Karl R. (1992): Die Offene Gesellschaft und ihre Feinde. Bd. I. Tübingen. Rothkegel, Annely (2010): Technikkommunikation. Produkte – Texte – Bilder. Konstanz. Schiller, Friedrich (1795): Horen, 8. Stück, Zufällige Ergießung eines einsamen Denkers in Briefen an vertraute Freunde. 1. Brief an Ernestine F***, den 21. Februar 1793. In: www.friedrich-schillerarchiv.de/die-horen-1795-stueck8/i-zufaellige-ergiessung-eines-einsamen-denkers-in-briefenan-vertraute-freunde/ Searle, John R. (1971): Sprechakte – ein sprachphilosophischer Essay. Frankfurt a. M.
116
Klaus Kornwachs
Siebel, Hans-Peter (1999): Gedanken und Anregungen zur Überwindung der Sprachlosigkeit der Ingenieure. In: Heinz Duddeck/Jürgen Mittelstraß (Hg.): Die Sprachlosigkeit der Ingenieure. Opladen, 83‒93. Snow, Charles P. (1967): Die zwei Kulturen. Literarische und naturwissenschaftliche Intelligenz. Stuttgart. Sokal, Alan, Bricmont, J. (1999): Eleganter Unsinn. München. Straub, Daniela/Jens Uwe Heuer/Michael Fritz(2010): Folgen fehlerhafter Anleitungen am Markt und Lösungsansätze zur Verbesserung Technischer Anleitungen. Studie. Hg. vom Verbraucherrates des DIN, Deutsches Institut für Normung e.V. Berlin 2010. In: http://www.tecom.ch/fileadmin/ Dokumente/Studien/VR_Studie_Bedienungs-_und_Gebrauchsanleitungen_Folgen_fehler hafter_Anleitungen_am_Markt.pdf
II Wissenskonstitution in Mathematik, Naturwissenschaften und Technik
Petra Drewer
4. Die kognitive Metapher als Instrument der Erkenntnisgewinnung, -versprachlichung und -vermittlung Abstract: Das Denken in Analogien ist ein kognitives Grundprinzip. Sowohl im Alltag als auch in der Wissenschaft greifen wir manchmal bewusst, sehr häufig aber unbewusst auf analogische Erklärungsmuster zurück. Um Fakten und Zusammenhänge in einen einheitlichen sprachlichen und konzeptuellen Rahmen zu bringen und um Vorhersagen über neue Sachverhalte machen zu können, werden Parallelen zu bereits besser bekannten Gegenstandsbereichen gesucht oder hergestellt. Diese Art des Denkens kommt in der Sprache in Form von Metaphern zum Ausdruck, die es im Umkehrschluss ermöglichen, unbewusste analogische Denkweisen aufzudecken. Sprachliche Metaphern sind also sowohl Ausdruck von als auch empirischer Zugang zu kognitiven Metaphern. Die Metapher in ihrer Gesamtheit wird damit nicht nur zu einem Instrument der Erkenntnisgewinnung und -vermittlung, sondern auch der Terminologiebildung, der wertenden Präsentation wissenschaftlicher Erkenntnisse sowie der adressatenspezifischen Aufbereitung. 1 2 3 4 5 6 7
Einleitung Die kognitive Metapher Einsatzgebiete kognitiver Metaphern im wissenschaftlichen Erkenntnisprozess Interkulturalität kognitiver Metaphern Exkurs: Metapher oder Modell? Fazit Literatur
1 Einleitung Metaphern in Naturwissenschaften, Mathematik und Technik – auch heute noch wirkt diese Kombination für manche überraschend und sie fragen sich: Sollte man sich mit den stilistischen Vorlieben bestimmter Autorinnen und Autoren befassen, die es ‚schick‘ finden, ihre Texte mit schmückenden Sprachspielen anzureichern? Vielleicht sollte man das, doch in diesem Beitrag geht es nicht um diese aus der Rhetorik bekannten Schmuckmetaphern, sondern um Metaphern, die das Resultat analogischer Denkprozesse sind und die somit nicht nur auf sprachlicher Ebene anzutreffen sind, sondern auch bzw. vielmehr auf kognitiver. Sie prägen und steuern das fachliche Denken und somit auch das fachliche Sprechen. https://doi.org/10.1515/9783110296259-005
120
Petra Drewer
Fachsprachliche Metaphern sind das Spiegelbild modellhafter fachlicher Denkweisen, die als kognitives Grundmuster in abstrakten und/oder komplexen Gegenstandsbereichen nahezu unvermeidbar sind. Sie sind es durchaus wert, näher betrachtet zu werden. Dieser Beitrag ist als Überblick konzipiert, der die grundsätzlichen Aspekte von kognitiven Metaphern in Mathematik, Naturwissenschaften und Technik behandelt. Vor dem Hintergrund der regen Metaphernforschung sollen dabei nicht die in den vergangenen Jahren sehr zahlreichen Detailstudien präsentiert, sondern der Fokus auf einführende und grundlegende Forschungsarbeiten gelegt werden.
2 Die kognitive Metapher 2.1 Kognitive Metaphern im Alltag Der Mensch kann Unbekanntes nur unter Rückgriff auf Bekanntes entdecken und verstehen. Diese Erkenntnis ist ebenso einfach wie erstaunlich, denn sie bedeutet: Wenn unser kognitives System auf das Bilden von Analogien angewiesen ist, um neue komplexe und/oder abstrakte Sachverhalte zu verstehen, dann resultiert daraus die Notwendigkeit, metaphorisch zu sprechen. Metaphern sind somit kein linguistischer Sonderfall, kein Zeichen rhetorischer Gewandtheit, sondern die logische Folge unserer analogischen Denkweisen. Geht man darüber hinaus davon aus, dass Sprache und Denken homolog strukturiert sind, so können die sichtbaren sprachlichen Metaphern genutzt werden, um empirisch nicht direkt zugängliche Denkmuster zu rekonstruieren. Diese konstruktivistische Betrachtung der Metapher findet sich schon bei Harald Weinrich (vgl. Weinrich 1976, 276‒341), wurde aber erst in den 1980er und 1990er Jahren zu einem neuen Paradigma für die Metaphernforschung – mit dem Leitmotiv: The essence of metaphor is understanding and experiencing one kind of thing in terms of another. (Lakoff/Johnson 1980, 5)
Die Hauptfunktion der Metapher ist es also, einen Bereich in der Begrifflichkeit eines anderen zu erfahren und zu verstehen. Während bestimmte Domänen so konkret sind, dass wir sie direkt erfahren und verarbeiten können, sind wir in abstrakten Domänen häufig auf metaphorische Hilfe angewiesen. Die Metapher stellt eine systematische Verbindung her zwischen einem schwer fassbaren Erfahrungsbereich, dem sog. Zielbereich der Metapher, und einem zweiten, konkreteren Bereich, dem Herkunftsbereich der Metapher. Dabei wird ein Teil der Erfahrungen und des Wissens über den Herkunftsbereich auf den Zielbereich projiziert. Durch diese Projektion ergeben sich auf kognitiver Ebene sog. Metaphernmodelle. Auf sprachlicher Ebene formen sich Bildfelder, die durch Lexemmetaphern gefüllt werden, d. h. ganze Cluster von Lexemen werden aus dem Herkunfts- auf den
Die kognitive Metapher
121
Zielbereich übertragen. Der Terminus Kognitive Metapher bezeichnet das Gesamtphänomen, also sowohl die metaphorische Verknüpfung auf kognitiver Ebene als auch die Folgen dieser Verknüpfung auf sprachlicher Ebene. Beispiel: Das Metaphernmodell ELEKTRIZITÄT IST EINE FLÜSSIGKEIT verbindet die Bereiche ELEKTRIZITÄT (Zielbereich) und FLÜSSIGKEIT (Herkunftsbereich). Die Großschreibung markiert die begriffliche, konzeptuelle Ebene. Lexemmetaphern, durch die dieses Metaphernmodell in Texten sprachlich realisiert wird, sind in den folgenden Beispielsätzen kursiv gesetzt. Verbindet man unterschiedlich geladene Körper mit einem Leiter, so wird ein elektrisches Strömungsfeld erzeugt. Es fließt ein elektrischer Strom. Der Stromkreis wird durch eine Spannungsquelle gespeist. Der Leiter stellt für die hindurchfließenden Elektronen einen Widerstand dar. Die Elektronenbewegung in einem Leiter bezeichnet man als Drift oder Driftbewegung. Der positive Pol lässt Elektronen von der mit ihm verbundenen Kondensatorplatte abfließen; der negative Pol verursacht einen Elektronenfluss in die mit ihm verbundene Platte. Umgangssprachlich: Wieso kommt denn kein Saft aus der Steckdose?
2.2 Kognitive Metaphern in der Wissenschaft Dass metaphorische Verknüpfungen im Alltag eine Rolle spielen, erkennen selbst diejenigen an, die Metaphern skeptisch gegenüberstehen, da dort kein Wert auf Objektivität und Korrektheit gelegt werden müsse. Die Wissenschaften jedoch sollten die Metapher meiden. Dieses traditionelle Metaphernverständnis, das in der antiken Rhetorik begründet wurde und oft mit einer objektivistisch-positivistisch geprägten Realitätsauffassung einhergeht, übersieht, dass metaphorisches Denken mehr ist als ‚unwahres Verknüpfen‘. Metaphorisches Denken ist eine kognitive Notwendigkeit, und weder Geistesnoch Naturwissenschaften können auf die Metapher als Erklärungsmuster und Hypothesengenerator verzichten. Um die Einsatzmöglichkeiten der Metapher in ihrer Gesamtheit zu erfassen und systematisch zu ordnen, wird im Folgenden die in Abbildung 1 dargestellte Einteilung des wissenschaftlichen Erkenntnisgewinnungs- und Erkenntnisvermittlungsprozesses verwendet.
122
Petra Drewer
Abbildung 1: Einsatzgebiete der Metapher in der Wissenschaft
Wie kognitive Metaphern in all diesen Phasen wirksam werden können, erläutern die folgenden Abschnitte. Den Hintergrund dieser Darstellungen bildet eine umfangreiche empirische Untersuchung von astrophysikalischen Fachtexten unterschiedlicher Fachlichkeit und Funktion, bei der nachgewiesen werden konnte, dass Metaphern im Sprechen und Denken über komplexe fachliche Zusammenhänge eine zentrale Rolle spielen (zur vollständigen Untersuchung s. Drewer 2003). Zwei Leitfragen der Untersuchung waren: – Werden zur Darstellung und Erklärung physikalischer Sachverhalte kognitive Metaphern verwendet? – Bestehen Unterschiede im Metapherngebrauch in Abhängigkeit von der Fachlichkeit des Textes? Welche Rollen spielen Textfunktion und Zielgruppe? Das primäre Ergebnis war: In allen untersuchten Texten – fachinterne wie fachexterne Kommunikation – sind Systeme von aufeinander bezogenen Lexemmetaphern nachweisbar, die entweder metaphorische Denkweisen beim Produzieren der Texte zeigen oder aber metaphorische Denkweisen beim Rezipieren der Texte hervorrufen sollen. Mit anderen Worten: Kognitive Metaphern sind nicht an Textsorten oder Zielgruppen gebunden, sondern allenfalls an Themenbereiche. Dieses Ergebnis widerspricht der traditionellen Auffassung, dass Metaphern lediglich dazu dienen, stilistische Überraschungseffekte zu erzielen oder Sachverhalte bildhaft-emotional zu umschreiben. Kognitive Metaphern sind keine sprachliche Spielerei, sondern sie sind konstitutiv für das Denken und Kommunizieren im Fach. Dieses Untersuchungsergebnis wurde noch verstärkt durch die folgende Erkenntnis: In allen untersuchten Texten sind dieselben Metaphernmodelle nachweisbar. Die Übereinstimmung der Metaphernmodelle in verschiedenen Kommunikationsbereichen (fachintern und fachextern) sorgt dafür, dass das erzeugte Laienwissen dem transferierten Expertenwissen ähnlich ist, da Vorstellungen und kognitive Modelle innerhalb und außerhalb des Fachs vergleichbar bleiben. Dieses Ergebnis ist aus kognitiv-linguistischer Perspektive das bedeutsamste. Interessant ist aber auch die Betrachtung der sprachlichen Realisierung. Hier zeigen sich einige Unterschiede in Abhängigkeit vom Kommunikationsbereich:
Die kognitive Metapher
– –
–
123
Im fachexternen Kommunikationsbereich sind die Bildfelder der Metaphernmodelle dichter besetzt. Im fachexternen Bereich, insbesondere in popularisierenden Texten, werden tendenziell mehr kreative Lexemmetaphern generiert, die nicht zum lexikalisierten Bestand der Fachsprache zählen. Die Konkretheit bzw. Anschaulichkeit der Lexemmetaphern steigt mit abnehmender Fachlichkeit und zunehmender Unterhaltungsfunktion der Texte.
3 Einsatzgebiete kognitiver Metaphern im wissenschaftlichen Erkenntnisprozess 3.1 Gewinnung und kognitive Verarbeitung wissenschaftlicher Erkenntnisse 3.1.1 Wirkungsweise Wie bereits erläutert, ist das Denken in Analogien ein kognitives Grundprinzip. Auch bzw. erst recht die vermeintlich ‚harten‘ Naturwissenschaften benötigen (analogische) heuristische Methoden, um zu neuen Erkenntnissen zu gelangen. Durch die Projektion von Wissen aus einem bekannten Herkunftsbereich lassen sich Hypothesen über einen noch unbekannten Zielbereich, den Untersuchungsgegenstand der Wissenschaft, aufstellen und im Anschluss empirisch überprüfen. Die Metapher übernimmt die Aufgabe des „Suchgeräts“ (Pörksen 1994, 151) in erster Linie in Bereichen, die empirisch nicht direkt zugänglich sind. Damit haben Metaphern, die als heuristische Instrumente eingesetzt werden, eine ähnliche Funktion wie theoretische Modelle. Sie sollen (a) bereits vorhandenes Wissen über den metaphorisch verstandenen Zielbereich systematisieren und konservieren und (b) Vorhersagen per Analogieschluss ermöglichen. Bei expliziten Modellen geschieht dies bewusst, implizite Metaphernmodelle steuern das Forschen und Erkennen, ohne dass sich die Forschenden dessen bewusst sind (zur weiteren Abgrenzung von Metaphernmodell und Modell siehe Kapitel 5). Die oben genannte Konzeptualisierung ELEKTRIZITÄT IST EINE FLÜSSIGKEIT wird an der sprachlichen Oberfläche durch verschiedene Lexeme aus dem Herkunftsbereich sichtbar und damit nachweisbar. Doch wie ist sie entstanden? Als man in der Physik begann, Elektrizität zu untersuchen, stellten die Forschenden sich vor, ihr neuer Untersuchungsgegenstand sei ‚eine Art Flüssigkeit‘. Aus dieser Vorstellung heraus generierten sie Hypothesen, die sie im Anschluss empirisch überprüften. Sie versuchten nicht nur, sich mit Hilfe der Analogie die Bewegung der unbekannten ‚Substanz‘ klarzumachen, sondern sie versuchten u. a. auch, den elektrischen Strom – im wahrsten Sinne des Wortes – in Flaschen zu füllen. Das Ergebnis war die sog. Leidener oder Kleistsche Flasche (1746), der Vorläufer des heutigen Kondensators.
124
Petra Drewer
In dieser aktiven Phase der Forschung hat die analogische Verknüpfung also primär eine heuristische Funktion. Wird ein Metaphernmodell von der wissenschaftlichen Gemeinschaft zu einem bestimmten Zeitpunkt als ‚beste‘ Erklärung akzeptiert, so wird sie theoriekonstitutiv. Sie ist dann kein subjektiver Zugang zu einem Gegenstandsbereich mehr, sondern stellt eine Konzeptualisierungsweise für ein ganzes Kollektiv dar. Solange sie eine schlüssige Erklärung des Untersuchungsgegenstands liefert und Implikationen enthält, die noch nicht überprüft worden sind, ist die Metapher für ihr Fach fruchtbar. Im Anschluss an die Überprüfung werden die erkannten Analogien und Disanalogien zu fachlichem Wissen, die Lexemmetaphern zu fachlichen Termini. Lassen sich neue Erfahrungsdaten nicht mehr in das aktuelle Metaphernmodell integrieren oder zeigen sich zu viele Widersprüche, so müssen alternative Erklärungsmuster gesucht werden. Das bedeutet jedoch nicht unbedingt, dass das alte Modell unbrauchbar und ‚falsch‘ wird. Unter Umständen wird es lediglich ergänzt, wie es z. B. beim metaphorisch-analogischen Verständnis der ELEKTROMAGNETISCHEN STRAHLUNG in der Physik der Fall ist. Diese wird gleichzeitig als WELLE und als TEILCHEN konzeptualisiert, ohne dass eines der Metaphernmodelle richtiger oder weniger richtig wäre als das andere. Beide sind gleichzeitig zutreffend und gültig, obwohl sie ontologisch betrachtet unvereinbar sind.
3.1.2 Die Flexibilität der Metapher Im Hinblick auf die Verknüpfung verschiedener Bereiche sind metaphorische Konzepte äußerst dynamisch und flexibel. Die Projektion kann in beide Richtungen asymmetrisch erfolgen, das heißt, ein Herkunftsbereich kann auf mehrere Zielbereiche projiziert werden; ebenso kann ein Zielbereich durch verschiedene Herkunftsbereiche strukturiert werden (vgl. Lakoff 1985, 60ff., Lakoff/Turner 1989, 52f.). Die verschiedenen Herkunftsbereiche können Verwandtschaftsbeziehungen oder Überlappungen aufweisen, in vielen Fällen sind sie jedoch voneinander unabhängig. Selbst bei ontologischer Unvereinbarkeit können die Metaphern problemlos parallel realisiert werden, z. B. im Rahmen desselben Texts oder Satzes (vgl. auch Dobrovol’skij 1997, 177).
3.1.3 Die Gefahr des metaphorischen Erkennens Jedes Metaphernmodell birgt die Gefahr einer perspektivischen Verfälschung in sich. Lakoff/Johnson (1980, 10) sprechen in diesem Zusammenhang vom „Highlighting and Hiding“-Effekt der Metapher. Die Beschreibungs- und Erklärungsleistung einer kognitiven Metapher ist insofern limitiert, als durch ihre Selektivität stets nur ein Ausschnitt des Zielbereichs beleuchtet wird (Highlighting), während andere Merkmale unberücksichtigt bleiben oder sogar verdeckt werden (Hiding). Diese Fokussierung ist notwen-
Die kognitive Metapher
125
dig, um komplexe Sachverhalte überhaupt erfassen zu können. Gleichzeitig stellt sie jedoch eine Begrenzung des Denkens dar. Die eigentliche Gefahr der Metapher liegt allerdings nicht in ihr selbst begründet, sondern in einem inadäquaten Umgang. Denn wenn der unvermeidbare „Highlighting and Hiding“-Effekt und seine direktive Wirkung auf Denken und Handeln bekannt sind, können diese Gefahren, z. B. durch die Einführung zusätzlicher oder alternativer Metaphernmodelle sowie durch ein ausgeprägtes Bewusstsein für die Modellhaftigkeit der eigenen Vorstellungen, ausgeschaltet werden.
3.2 Versprachlichung wissenschaftlicher Erkenntnisse 3.2.1 Einzelmetaphern vs. Metaphernnetze Als Benennungsbildungsverfahren ist die metaphernbasierte Terminologisierung durchaus bekannt. Eine Benennung wird von einem Bereich in einen anderen transferiert und dort mit einer neuen Bedeutung versehen. So wandert z. B. ein Wort aus der Gemeinsprache in eine Fachsprache („Speicher“ aus dem Alltag in die IT-Welt) oder im Rahmen der Umterminologisierung von einer Fachsprache in eine andere („Virus“ aus der Medizin in die IT). Basis dieser Wanderungen ist das Erkennen oder Schaffen von Analogien (vgl. Drewer/Ziegler 2014, 178 f., Drewer/Schmitz 2017, 75 f.). In der Vergangenheit wurden von Fachsprachenforschung und Terminologiewissenschaft beinahe ausschließlich diese isolierten Einzelmetaphern betrachtet. Metaphorische Termini, die erst nach der Entstehung eines Begriffs gebildet werden und einen Benennungsbedarf decken, beruhen meist auf Ähnlichkeiten in Form oder Funktion, so dass Termini wie „Bohrkopf“ oder „Rohrknie“ entstehen, bei denen Benennungen von Körperteilen auf Maschinen übertragen werden (vgl. Arntz/Picht/ Schmitz 2014, 119). Lexemmetaphern mit kognitivem Fundament, um die es in diesem Beitrag geht, entstehen jedoch schon vor bzw. während der Begriffsbildung. Jedes kognitive Metaphernmodell eröffnet eine „Terminologiematrix“ (Martin/Harré 1982), die durch verschiedene Lexemmetaphern gefüllt werden kann. Wie sollte man z. B. über Licht sprechen, ohne Ausdrücke zu verwenden wie „das Licht fällt in den Raum“, „das Licht breitet sich aus“, „auftreffendes Licht wird gebrochen“, „das Licht wird zurückgeworfen“, „Lichtstrahlen durchdringen einander“? Völlig selbstverständlich sprechen wir davon, dass Licht von einer „Lichtquelle“ „gesendet“ wird oder dass „Lichtwellen“ beim „Lichtempfänger“ „ankommen“. Doch ist uns tatsächlich bewusst, dass wir damit das Licht (bzw. elektromagnetische Strahlung im Allgemeinen) metaphorisch als MATERIE/SUBSTANZ darstellen, teilweise als FLÜSSIGKEIT in Wellenform? Der Welle-Teilchen-Dualismus dominiert das Verständnis in der Physik und über die metaphorische Fachsprache ist er auch Fachfremden vertraut.
126
Petra Drewer
3.2.2 Sprachliche Metaphern als Zugang zu kognitiven Metaphern Netze von Lexemmetaphern sind das Ergebnis metaphorischen Denkens. Gleichzeitig stellen sie einen empirischen Zugang zu den metaphorischen Denkweisen dar. Das Ermitteln von Metaphernmodellen ist nicht nur für Fachsprachenforschung und Terminologiewissenschaft von Bedeutung, sondern auch für die entsprechenden Fächer, deren metaphorische Denk- und Sprechweisen ermittelt werden. Oftmals ist nämlich den Angehörigen einer fachlichen Gemeinschaft gar nicht (mehr) bewusst, wie stark sie innerhalb eines Bildes forschen. Wenn nun aber die fachlich etablierten Metaphern- und damit Denkmodelle durch die linguistische Analyse sichtbar gemacht werden, so können sie anschließend im Fach kritisch geprüft und in ihrer Brauchbarkeit und Angemessenheit bewertet werden. Zugleich ist der Zugang über die Sprache auch aus sprach- und wissenschaftshistorischer Perspektive äußerst interessant, denn jede wissenschaftliche Metapher repräsentiert und konserviert den Wissensstand eines Fachs zu einem bestimmten Zeitpunkt. Sie beinhaltet bestimmte Analogien, die zusammen mit den erkannten Disanalogien das vorhandene Wissen über den modellierten Sachverhalt ausmachen. An den Metaphern eines Fachs lassen sich also die Betrachtungsweisen und Konzeptualisierungsmuster ablesen, die zum Entstehungszeitpunkt der jeweiligen Metapher gültig waren bzw. als wesentlich erachtet wurden. Auf diese Weise lässt sich z. B. die große Zahl animistischer Konzepte im Sprechen über Natur und Technik erklären. Wissensentwicklung und Theoriebildung beginnen meist mit animistischen Deutungen, gehen dann über in agentivierende alltagstheoretische Deutungen, bis sie zu naturwissenschaftlich-technischen Erklärungen werden. In der Sprache jedoch wird dieser letzte Schritt oftmals nicht vollzogen, sie konserviert die alten Deutungsmuster (vgl. Jakob 1991, 30 ff.).
3.2.3 Besonderheiten in der sprachlichen Realisierung Die sprachlichen Metaphern eines kognitiven Metaphernmodells stammen aus demselben Wortfeld und externalisieren eine Modellvorstellung. Anders als mit Metaphern kann das analogisch-modellhaft Gedachte nicht gesagt werden. Das führt dazu, dass ein Großteil der Lexemmetaphern terminologisiert ist oder zumindest zum akzeptierten, konventionalisierten Sprachgebrauch im Fach zählt. Mit diesen Metapherntermini, ja sogar mit nicht terminologisierten kreativen Lexemmetaphern, lassen sich problemlos Komposita und Derivate bilden. Die Lexemmetaphern gehen also unmarkiert Verbindungen mit anderen Basis- oder Wortbildungsmorphemen ein. Parallel zu den konventionalisierten, lexikalisierten Metapherntermini besteht die Möglichkeit, die vorgegebenen Bildfelder kreativ zu erweitern und durch Ad-hocLexemmetaphern zu füllen (vgl. Drewer 2003, 41 ff., 102 ff., 368 ff.). Insbesondere Autorinnen und Autoren von Texten mit primär didaktischer oder popularisierender
Die kognitive Metapher
127
Funktion machen von dieser Möglichkeit Gebrauch. Die folgenden drei sprachlichen Realisierungen des Modells DIE VIERDIMENSIONALE RAUMZEIT IST EINE ZWEIDIMENSIONALE MEMBRAN illustrieren das Resultat dieses Vorgehens. Die erste stammt aus einem Hochschullehrbuch, die zweite und dritte aus populärwissenschaftlichen Zeitschriften: (1) Aus dem Gebiet R Überstrom oder Sparren > Zwischensparren und von Suffixen wie in dämmen > Dämmung oder Wärmetechnik > wärmetechnisch. Die Konversion besteht hingegen in einem Wortartwechsel ohne Affigierung, z. B. bei der Nominalisierung von Verben, etwa bei dämmen > das Dämmen von … Wortkürzungen sind ein quantitativ bedeutsames und unter dem Gesichtspunkt ihrer verschiedenen Formen ein überaus interessantes terminologisches Phänomen. Die ISO-Norm 12620:2019 klassifiziert sie in Abkürzungen (z. B. Temp. für Temperatur), Akronymen (Sprechkürzungen wie Laser für Light Amplification by Stimulated Emission of Radiation bzw. Buchstabierkürzungen wie LTE für Long Term Evolution), Silbenwörter (z. B. Elko für Elektrolytkondensator) und Clippings (z. B. Lok für Lokomotive). Zusätzlich dazu gibt es Symbole, die insbesondere in der Mathematik, aber auch in den Naturwissenschaften und der Technik verbreitet sind. Dass Symbole auch den Status von Termini aufweisen, liegt weniger an ihrer Morphologie als vielmehr an ihrem eindeutigen semantischen Gehalt und ihrer konzeptuellen Referenz. Phraseologie spielt bei Fachsprachen genauso wie bei der Gemeinsprache eine zentrale Rolle, obwohl dieses Thema erst seit kurzem in der Terminologieforschung an Interesse gewonnen hat. Relativ wenige Studien befassen sich mit Fachphraseologie, wobei einzelne Aspekte bereits seit langem umstritten sind, beispielsweise die Zuord
170
Laura Giacomini
nung von Komposita zu einfachen oder komplexen Termini und ihr Zusammenhang mit Fachkollokationen sowie die Unterscheidung zwischen Fachkollokationen und Mehrworttermini (vgl. Gläser 2007, Heid 2006, Giacomini 2019). Fachsprachliche Phraseologismen sind wie die der Gemeinsprache durch Polylexikalität, (relative) morphologische und syntaktische Festigkeit und einen variablen Grad an Idiomatizität und Kompositionalität gekennzeichnet. Fachkollokationen, Funktionsverbgefüge und Mehrworttermini überwiegen im Allgemeinen gegenüber anderen Arten von Phraseologismen. Wie Caro Cedillo (2004) hervorhebt, unterliegt ihre Lexikalisierung unterschiedlichen Normen, die von der speziellen Unternehmenssprache bis zu den verschiedenen Registern der Fachkommunikation reichen. Komplexe Fachkollokationen sind wiederum ein besonders relevantes und verbreitetes Phänomen, vor allem in ihrer einfachsten Form, nämlich der progressiven Expansion aus einfachen Kollokationen (Giacomini/Schäfer 2020), z. B. in (positiv) homogene Funktion in der Sprache der Mathematik oder Oberspannungskondensator (eines (kapazitiven) Spannungsleiters) in der Sprache der Elektrotechnik.
2.1.2 Terminologische Variation und Synonymie In den letzten fünfzehn bis zwanzig Jahren hat das Thema der terminologischen Variation in der Terminologieforschung grundlegende Bedeutung erlangt. Im Gegensatz zur Wüster’schen Sichtweise der Terminologie als Erscheinungsform der Sprache, in der Variation – z. B. in Form von Synonymen, ein unerwünschtes Phänomen ist, weil sie den Anforderungen an semantische Genauigkeit und Transparenz, die das Wesen eines Terminus insbesondere aus einer systemlinguistichen Perspektive erfordert (vgl. Wüster 1991), nicht gerecht werden kann, haben mehrere Forscher das natürliche Vorkommen von Variation im fachspezifischen Lexikon vieler Disziplinen zunehmend hervorgehoben. Variation darf bei der terminologischen Arbeit nicht mehr ignoriert werden. Diese Forschungsrichtung wurde von teilweise sehr unterschiedlichen Anliegen angetrieben, etwa der Suche nach einem geeigneten Modell für die Extraktion von Termini in der Computerlinguistik (vgl. Daille 2017) bzw. für die Beschreibung von Varianten in lexikografischen und terminografischen Ressourcen (Giacomini 2019). Mögliche, oft schwer eindeutig zu identifizierende Gründe für terminologische Variation wurden in der Arbeit von Freixa (2006) ausführlich beschrieben. Darüber hinaus sind Klassifikationsmodelle für terminologische Varianten innerhalb spezifischer Disziplinen entwickelt worden, die nur partielle Überschneidungen aufweisen. Kontextuell synonymische Variation kann auf verschiedenen Ebenen festgestellt werden. Auf der diasystemischen Ebene, wahrscheinlich der auffälligsten, existieren zum Beispiel diatopische oder diaphasisch-diastratische Varianten, die in der Regel von lexikografischen und terminografischen Ressourcen verzeichnet werden. Nichtdiasystemische Varianten, die oft innerhalb desselben Textes vorkommen, sind vor allem in der technischen Terminologie sehr häufig und reichen von syntaktischen (z. B.
Terminologiearbeit und Wissensmanagement
171
Untersparrendämmung – Dämmung unter den Sparren) über lexikalisch-morphologische (z. B. Solarzelle – photovoltaische Zelle) bis hin zu orthografischen Varianten (z. B. Polyurethanschaum – Polyurethan-Schaum) (für eine detaillierte Beschreibung und Klassifizierung dieser Art von Variation s. Giacomini 2019). Bei der nicht-diasystemischen Variation handelt es sich größtenteils um Fachkollokationen, die auf die relative Modifizierbarkeit und Ersetzbarkeit ihrer Bestandteile zurückzuführen sind. Bei einer Fachkollokation als Vorzugsbenennung lassen sich oft mehr oder weniger weit verbreitete Varianten erkennen, die gerade als Koreferenten in einem Text oder als Alternativen in verschiedenen kommunikativen Kontexten, Genres und Textsorten verwendet werden können. Diese Art von Variation ist aus einer pragmalinguistischen bzw. kognitionslinguistischen Perspektive (Roelcke 2001) zentral und aus Sicht der Übersetzung und der technischen Redaktion von grundlegender Bedeutung, entzieht sich allerdings noch immer einer systematischen Darstellung in der Lexikografie und Terminografie. Es gibt bislang nur wenige Modelle für die Erfassung und Beschreibung von terminologischen Daten, die in diese Richtung gehen (vgl. Faber 2012, Giacomini 2019). In der einschlägigen Literatur werden jedoch auch Ansätze vertreten, bei denen die Variation weiter gefasst wird und nicht nur Synonymie, sondern auch weitere semantische Relationen umfasst, etwa Hyperonymie, Antonymie oder Koordination. Diese breit angelegte Konzeption ist typisch für computationelle Ansätze zur Termextraktion aus Korpora (z. B. in Daille 2017 und Rösiger et al. 2016).
2.1.3 Homonymie und Polysemie Homonymie und Polysemie sind ebenso wie Synonymie und Quasi-Synonymie weit verbreitete Phänomene in der Terminologie und in technischen Fachsprachen Das Streben nach einer idealen terminologischen Eineindeutigkeit kollidiert dabei mit der natürlichen Tendenz von (Fach-)Sprachen, Konzepte spontan und – wenn schon nicht ökonomisch –, dann zumindest kommunikativ wirksam zu lexikalisieren, insbesondere in Fachgebieten mit einem niedrigen terminologischen Standardisierungsgrad. So unterscheiden z. B. Arntz et al. (2014, 139‒140) die zwei Begriffe: „Unter Polysemie versteht man die Mehrdeutigkeit einer Benennung, d. h., eine Benennung wird in mehreren unterschiedlichen Bedeutungen, deren Zusammenhang noch erkennbar ist, verwendet. […] Von Homonymie spricht man, wenn Benennungen sich zwar in ihrer äußeren Form gleichen, die Begriffe, denen sie zugeordnet sind, jedoch – anders als im Falle der Polysemie – keinerlei Ähnlichkeit aufweisen“. Gleichzeitig wird in Arntz et al. (2014, 140) betont, eine Unterscheidung zwischen Homonymie und Polysemie sei durchaus umstritten, und es wird auf DIN 2342 (2011) verwiesen, um darauf aufmerksam zu machen, dass sie nur in terminologischen Studien historischer Natur relevant ist. Diese Thematik kann jedoch auch in der lexikografischen und terminografischen Praxis von Bedeutung sein, bei der die beiden Phänomene in der Regel
172
Laura Giacomini
unterschiedlich behandelt werden. In zweisprachigen Fachwörterbüchern wird unter anderem die Polysemie eines Terminus manchmal durch semantische Disambiguatoren bzw. pragmatische Angaben zum speziellen Fachgebiet hervorgehoben, die den Benutzer bei der Auswahl des korrekten Äquivalentes in der Zielsprache unterstützen. So bietet zum Beispiel das Langenscheidt Fachwörterbuch Physik Deutsch-Englisch (Sube 2006) für das deutsche Lemma Kopf sechs Lesarten, die jeweils durch Angaben zum Teilgebiet und dem ggf. kollokativen Kontext disambiguiert werden: 1. (ASTR) head (of a comet), 2. (GEO, HYDR) nose (of a turbidity current), 3. (KERN) head (of a counter tube), 4. (MAGN) head (e.g. a read/write head), 5. (MECH) tip, crest (of a tooth), 6. (PHYSCH) top (of a column).
2.2 Textuelles und kommunikatives Wissen Zu den allgemeinen funktionalen Eigenschaften von Fachsprachen gehören Deutlichkeit, Verständlichkeit, Ökonomie und Anonymität (Roelcke 2010). Das konkrete Auftreten solcher Eigenschaften ist jedoch variabel und hängt nicht nur vom Fachgebiet, sondern auch vom Grad der Standardisierung und Konventionalität des Fachlexikons und nicht zuletzt von textlichen Merkmalen wie Genre und Texttyp ab. So gibt es in mathematischen, naturwissenschaftlichen und technischen Gegenstandsbereichen sowohl Textgattungen, die von Natur aus äußerst synthetisch und neutral sind (z. B. Datenblatt, Handbuch), als auch Genres, die weitgehend diskursiv sind und bei denen die Subjektivität und der aktive Beitrag eines Forschers bzw. einer Forschungsgruppe explizit gemacht werden (z. B. Forschungsbericht). Die Frage der Konventionalität von Fachtextsorten ist im Übrigen mit der Frage der vertikalen Gliederung von Fachsprachen verbunden. Während eine horizontale Gliederung darauf abzielt, Gruppen von Fachsprachen oder einzelne Fachsprachen auf der Grundlage ihrer konzeptuellen, textuellen, semantischen und morphologischen Merkmale zu vergleichen, konzentriert sich die vertikale Gliederung bei einer einzelnen Fachsprache auf ihre kommunikativen Aspekte (vgl. Roelcke 2010). In diesem Sinne kann man sich den kommunikativen Kontext einer Fachsprache als ein Kontinuum von spezifischen Konstellationen an Gesprächspartnern und Kommunikationsmodi vorstellen, die typischerweise mit bestimmten Genres verbunden sind (vgl. hierzu den Beitrag von Gläser 1990 zur Gliederung von Fachtextsorten je nach Kommunikationsmedium, vertikaler Ebene und der Inter- und Intrafachlichkeit sowie die Untersuchung von Göpferich 1995 zum Zusammenhang zwischen Fachtextsorten, Textfunktionen, Textgestaltung und Textkondensation in Naturwissenschaften und Technik). Ziel von Terminologiearbeit ist es nicht nur, das Fachvokabular zu sammeln, zu harmonisieren, zu katalogisieren und evtl. für die Präsentation aufzubereiten, sondern sie muss sich auch auf die kommunikativen Aspekte, d. h. die Umgebung, in der die Terminologie eines bestimmten Fachgebiets in die Praxis umgesetzt wird, konzentrieren.
Terminologiearbeit und Wissensmanagement
173
In jüngster Zeit haben sich verschiedene Terminologiestudien auf die Rolle des Kontexts bei der Analyse von Fachvokabular und Konzepten konzentriert. Besonders deutlich wird die Notwendigkeit, über den bisher nicht eindeutig definierten Begriff des Kontexts und über die verschiedenen möglichen Arten von Kontext nachzudenken, die sowohl bei der Datenakquisition als auch bei der Datenrepräsentation berücksichtigt werden müssen. Korpusbasierte Terminologiearbeit muss sich notwendigerweise auf diese Aspekte beziehen, auch im Lichte theoretischer und methodischer Ansätze, bei denen der Kontext, in den Termini und Konzepte eingebettet sind, im Mittelpunkt steht, z. B. in der framebasierten Terminologie (siehe Abschnitt 2.4.1).
2.3 Ontologisch-konzeptuelles Wissen 2.3.1 Terminologische Definition Die Erarbeitung einer terminologischen Definition ist eines der Ziele der Terminologiearbeit und kann die primäre Schnittstelle zwischen der lexikalischen Ebene und der Ebene des Begriffssystems darstellen, vor allem, wenn die Definition vom intensionalen oder extensionalen Typ ist. Die terminologische Definition, die sich aus dem Anwendungsbereich, einem definitorischen Incipit und charakterisierenden Merkmalen zusammensetzt, muss den Prinzipien der Prägnanz, Klarheit, Explizitheit und Angemessenheit, Substitution, Nicht-Tautologie, Generalisierung und Abstraktion, Anpassung an Bezugsgruppen und Vorhersehbarkeit folgen (Vézina 2009). Darüber hinaus betonen Arntz et al. (2014) die Notwendigkeit einer regelmäßigen Aktualisierung, um die Definitionen an den aktuellen Wissensstand in einem Fachgebiet anzupassen. Eine intensionale Definition (auch: Inhaltsdefinition) basiert auf den notwendigen und hinreichenden Merkmalen, die die Existenz eines bestimmten Objektes ausmachen und die es zum Denotat eines Terminus machen. Typisch intensional ist die Definition durch genus proximum et differentia specifica, d. h. durch die Angabe der nächsten Gattung und der unterscheidenden Merkmale. So kann beispielsweise ein Kristall wie folgt definiert werden: „Festkörper, dessen durch Gitterenergie zusammengehaltene Bausteine (Atome, Ionen, Molekülen) sich zu einem dreidimensionalen Gitter […] periodisch angeordnet haben“ (Deutsch Duden – Das Wörterbuch chemischer Fachausdrücke, Neumüller 2009). Diese Art der Definition beruht auf dem Prinzip der taxonomischen Subkategorisierung, demzufolge Kristall eine Art von Festkörper ist, der spezifische und charakteristische Merkmale aufweist. Auf diese Weise bildet die Definition einen Teil des Begriffssystems der Domäne ab, in dem eine semantische Beziehung der Hyperonymie-Hyponymie besteht. Im Gegensatz dazu beschreibt eine extensionale Definition (auch: Umfangsdefinition) die Bedeutung eines Definiendum, indem sie seine Extension, d. h. die Menge der Objekte, auf die sich der Terminus bezieht, explizit macht. Im oben erwähnten
174
Laura Giacomini
Fachwörterbuch besteht die Definition des Lemmas Eisengruppe aus der Angabe zur Extension des Terminus: „Sammelbezeichnung für die Metalle Eisen, Cobalt und Nickel oder für die Metalle Eisen, Ruthenium, Osmium und Hassium“ (ebd.). Eine solche Aufzählung hat nur bei relativ kleinen Objektmengen eine gewisse Zweckmäßigkeit. In Analogie dazu ist eine ostensive Definition eine Definition, in der nur einige Beispiele für Objekte genannt werden, die typischerweise mit einem bestimmten Terminus in Zusammenhang stehen. Zum Beispiel steht in der Definition von Makromolekül: „Moleküle natürlicher Herkunft sind z. B. Proteine, Polysaccharide, Nukleinsäuren, Huminsäuren, Lignin, Kautschuk u. a.“ (ebd.). Das Vorhandensein einer nicht exhaustiven und nur exemplarischen Liste wird hier durch die Formulierungen „z. B.“ und „u. a.“ signalisiert. Auch in extensionalen bzw. ostensiven Definitionen ist oft, aber nicht immer, eine Typ-von-Subkategorisierung vorhanden (Fälle wie die Sammelbezeichnung Eisengruppe zählen z. B. nicht dazu), während Bestandsdefinitionen, bei denen Teilbegriffe des Definiendum aufgezählt werden, eine Teil-von-Subkategorisierung involvieren, nämlich vom Typ Holonymie-Meronymie (z. B. „Ein WDVS besteht aus Dämmstoff, Armierungsgewebe samt Armierungsmörtel, Fassadenputz und Fassadenfarbe“, www.haus.de). Eine Variante der Bestandsdefinition sieht vor, dass nicht die Bestandteile eines Objektes aufgeführt werden, sondern Materialien oder Stoffe, aus denen das vom Terminus bezeichnete Objekt besteht. Diese beiden Varianten der semantischen Teil-vonRelation können je nach Fachgebiet mehr oder weniger relevant sein (die Nützlichkeit der Unterscheidung wird in WordNet gezeigt, wo lexikalische Einheiten wie z. B. leaf/ Blatt parallel durch part-meronyms und substance-meronyms spezifiziert werden). Eine weitere Art der Definition in der Terminologie ist die Erklärung der Bedeutung des Terminus durch Synonyme. Wie von Arntz et al. (2014, 64 ff.) aufgezeigt, gibt es in der Terminologie eine Vielzahl definitorischer Mittel, und verschiedene Aspekte können in ein und derselben Definition nebeneinander bestehen.
2.3.2 Semantische Relationen Die einfachste Form eines Begriffssystems ist die Menge der semantischen Relationen, die zwischen den Benennungen einer Disziplin bestehen. Diese Relationen gelten nicht nur auf der Ebene der lexikalischen Semantik, sondern auch auf der konzeptuellen Ebene, da sie in ihrer Gesamtheit eine Reihe von Konzepten und Beziehungen zwischen Konzepten identifizieren (vgl. L’Homme 2020). Semantische Relationen sind sehr oft implizit in lexikografischen oder terminografischen Angaben wie Definitionen, Synonymenangaben oder Verwendungsbeispielen enthalten. Explizit werden sie in manchen Ressourcen erwähnt (s. z. B. in Datenbanken wie der multilingualen Innsbrucker Termbank 2.0), ohne dass ihnen allerdings ein konkretes Wissenssystem zugrunde liegen muss.
Terminologiearbeit und Wissensmanagement
175
Die primären Relationstypen sind diejenigen, die auch in terminologischen Definitionen zu finden sind, nämlich die hierarchischen Relationen der HyperonymieHyponymie und der Holonymie-Meronymie, letztere in den in Abschnitt 2.3.1 diskutierten Varianten (Bestandteil bzw. Material/Stoff). Nicht-hierarchische semantische Relationen sind oft domänenspezifisch und entziehen sich daher einer systematischen Inventarisierung. Im technischen Bereich stellt beispielsweise die Funktion bzw. Funktionalität eines Artefaktes ein grundlegendes Konzept dar, das die Bedeutung eines Terminus mit der von zentralen Termini desselben Fachgebiets in Beziehung setzt. Auf der Grundlage von Funktionsmodellen, die im Bereich des Knowledge Engineering entwickelt wurden, und ausgehend von der Vorstellung einer ontologischen Makrokategorie der Funktion, lässt sich eine funktionale Repräsentation auf die Terminologie eines technischen Fachgebiets übertragen, und zwar unter Verwendung des Konzepts der Normalfunktion (d. h. der Funktion, die einer Norm entspricht) und der funktionalen Attribute eines technischen Artefakts (z. B. Projekt, Lage, Platzierung, Bedienung, Agent) (Giacomini 2019). Die Repräsentation und Präsentation semantischer Relationen in einer lexikografischen oder terminografischen Ressource ist auf der Ebene der Mediostruktur notwendig, um lexikalische Zusammenhänge zwischen verschiedenen Einträgen einer Ressource zu begründen. Dies kann in der Praxis durch explizite Verweisangaben erreicht werden.
2.3.3 Vom Begriffssystem zur Ontologie Sind die semantischen Relationen einer Domäne systematisch und kohärent abgebildet und beziehen sie zumindest die Kernbegriffe der Domäne ein, liegt ein Begriffssystem vor. Begriffssystem ist in der traditionellen Terminologie ein weit gefasster Ausdruck, der ein Verzeichnis bezeichnet, in dem Begriffe der Domäne gesammelt und durch i. d. R. explizit ausgedrückte Relationen verknüpft werden (vgl. DIN 2342:2011). Im Zuge der Entwicklungen in Disziplinen wie dem Knowledge Engineering (vor allem im Bereich der Künstlichen Intelligenz) und der Computerlinguistik, in denen die Modellierung von Wissen zunehmend an Bedeutung gewinnt, wird seit einiger Zeit auch in der Terminologie ein Schwerpunkt auf die mit den Termini einer Domäne verbundenen Ontologien gelegt. Eine Ontologie, verstanden als explizite Spezifikation einer Konzeptualisierung (Gruber 1995), definiert Konzepte, Relationen und anderen Merkmale, die für die Modellierung einer Domäne relevant sind. Dabei wird das Repräsentationsvokabular (Klassen, Relationen usw.) definiert, um seine Bedeutung und formale Beschränkungen für seine kohärente Nutzung zu bestimmen (Gruber 2008). Bei der Modellierung von Wissen kann die Semantik einer Domäne unterschiedlich spezifiziert werden. Modelle mit einem geringen Grad an semantischer Spezifizierung sind zum Beispiel einfache Listen wie kontrollierte Vokabulare (controlled voca
176
Laura Giacomini
bularies) sowie Glossare, die aus Termini und Definitionen in einer natürlichen Sprache bestehen, und Klassifikationen bzw. Verzeichnisse, die auf losen Hierarchien basieren. Mit zunehmender semantischer Spezifizierung ergeben sich immer komplexere Wissensmodelle, in denen die Verbindungen zwischen Klassen umfassender und systematischer werden. So gibt es Thesauri, die auf der Erfassung von Synonymen bzw. semantischen Feldern basieren (z. B. durch einfache Formalisierungen wie broader vs. narrower in SKOS), formale Hierarchien wie Taxonomien bis hin zu den Ontologien. Heutzutage wird unter einer Ontologie eine gängige Art der Wissensmodellierung bzw. -strukturierung verstanden, die durch spezifische Repräsentationsformate formalisiert wird, häufig durch die Web Ontology Language (OWL), eine formale logikbasierte Sprache, die speziell für die Beschreibung von komplexem Wissen über Klassen und Beziehungen entwickelt wurde (https://www.w3.org/TR/ owl-features, Drewer et al. 2017). Die Sprache OWL und das Resource Description Framework (RDF), ein Modell für den Datenaustausch im Web, auf dem OWL basiert, sind ein wesentlicher Bestandteil des Semantic Web technology stack. Aufgrund ihrer Komplexität können Ontologien in lightweight und heavyweight Ontologien unterschieden werden (vgl. Studer et al. 1998). Lightweight Ontologien sind formale hierarchische Klassifikationen, die auf einer Subsumtionsrelation basieren und in denen jeder Knoten einer sprachunabhängigen Aussage in der Beschreibungslogik (Description Logic, DL) entspricht (Giunchiglia et al. 2007, Davies 2010). Heavyweight Ontologien hingegen sind mit logischen Axiomen und Constraints angereichert, die es ermöglichen, neue Informationen aus den in der Ontologie kodierten Informationen abzuleiten (vgl. Fürst/Trichet 2006). Auch im Bereich der Terminologie setzen sich Domänen-Ontologien als formalisiertes Modell eines Begriffssystems zur Ergänzung des Fachlexikons immer mehr durch (vgl. NCI-Thesaurus im biomedizinischen Bereich, https://ncithesaurus.nci.nih.gov).
2.4 Terminologiearbeit und terminologisches Wissen Die Terminologiearbeit auf der Ebene des lexikalischen und ontologisch-konzeptuellen Wissens zielt darauf ab, Daten zu den oben beschriebenen Phänomenen zu erheben, zu sortieren und zu modellieren, sodass sie für den vorgesehenen Zweck, z. B. die Aufnahme in ein Fachwörterbuch, funktional aufbereitet sind. Semasiologische (benennungsorientierte) und onomasiologische (begriffs- bzw. konzeptorientierte) Methoden der Datenaufbereitung und -analyse sind grundsätzlich komplementär und wechselseitig notwendig, um systematisch vollständige und konsistente terminologische Daten für den Endnutzer zu erfassen und aufzubereiten. Die gegenwärtig für die Terminologiearbeit zur Verfügung stehenden Verfahren und Werkzeuge sind mit diesem kombinierten Ansatz zur Terminologie durchaus vereinbar. Heutzutage ist die Terminologiearbeit weitgehend computergestützt und in einem Arbeitsablauf strukturiert, der verschiedene Arbeitsschritte, Quellen und
Terminologiearbeit und Wissensmanagement
177
Werkzeuge umfasst. Dieser Ablauf kann je nach angestrebtem Ziel unterschiedlich gestaltet sein, aber es gibt einige typische Bausteine. In der Vorbereitungsphase geht es um die Festlegung des Zwecks (Motivation, theoretisches und praktisches Modell, Endziel), des Nutzerkreises und damit des Umfangs der Arbeit, der wiederum den Zeitrahmen und die Anzahl der erforderlichen Mitarbeiter bestimmt. Die Umsetzungsphase umfasst wiederum mehrere Schritte, die teilweise vom Grad der angewandten Automatisierung abhängen. Grundlegend sind die Abgrenzung des Fachgebietes und ggf. seine mögliche Untergliederung in Teilgebiete, die Sammlung und Aufbereitung des notwendigen Textmaterials (Korpora, Normen, vorhandene lexikografische und terminografische Ressourcen sowie weitere Dokumentation), die Erfassung und erste Analyse terminologischer Daten zu Termini und Konzepten, die Erarbeitung eines geeigneten Begriffssystems (z. B. einer Ontologie) und die strukturierte und fundierte Bearbeitung des terminologischen Materials, die formale Datenrepräsentation und die Anwendung eines Modells zur Präsentation der Daten für den Endnutzer. Arntz et al. (2014) weisen zudem darauf hin, dass Terminologiearbeit neben dem deskriptiven auch einen präskriptiven Charakter aufweisen kann, wenn sie darauf abzielt, die Terminologie z. B. in Normungsgremien oder ähnlichen Institutionen aktiv zu beeinflussen. In Anbetracht des Umfangs des Themas soll hier nicht auf den Zusammenhang zwischen Terminologiearbeit und normativen Aspekten eingegangen werden, die im Grunde genommen die Bildung von Wissen bestimmen. Es sei nur kurz daran erinnert, dass die Prüfung von Gesetzen, Normen (z. B. ISO, DIN usw.) und Patenten, die Dokumentation anhand von Fachliteratur, die Rücksprache mit Fachexperten und Entwicklern wesentliche Bestandteile der Terminologiearbeit sowie des Wissensmanagements sind.
2.4.1 Theoretisch-methodologische Ansätze Terminologische Arbeit kann sich an verschiedenen theoretischen Ansätzen orientieren, die unterschiedlich kompatibel mit computerisierten und korpusbasierten Methoden sind. Neben dem klassischen Ansatz der Allgemeinen Terminologielehre von E. Wüster (1991), der lange Zeit den Begriff von Domäne, die onomasiologische Ausrichtung der Terminologiearbeit und die strengen Anforderungen (z. B. semantischer Art), an die Terminologie und deren Standardisierung prägte, haben sich in den letzten zwanzig Jahren neue Theorien durchgesetzt, die offen sind für die Einbindung von kommunikations-, sozio- und kognitionslinguistischen Elementen in die Terminologieforschung. Ein Beispiel ist die Kommunikative Theorie der Terminologie (CTT) (Cabré 1999a, 1999b, 2003), die Termini gleichzeitig als Einheiten der Sprache, der Kognition und der sozialen Funktion beschreibt. Terminologische Einheiten werden durch eine Anzahl an Bedingungen (Cabré 2003) bestimmt, die sich aus einem Wissensbereich,
178
Laura Giacomini
einer konzeptuellen Struktur, einer Bedeutung, einer lexikalischen und syntaktischen Struktur und einer Valenz sowie dem kommunikativen Kontext des Fachdiskurses ergeben. Die Soziokognitive Theorie der Terminologie (SCTT) (Temmerman 2000/2001, Geentjens et al. 2006) ist ein weiteres Beispiel für einen Ansatz, der in Opposition zur starren Sichtweise der wüsterschen Theorie entstanden ist und darauf abzielt, pragmatischen und kognitiven Elementen einen größeren Stellewert einzuräumen. Die SCTT kombiniert eine semasiologische und onomasiologische Perspektive, geht von Verständniseinheiten aus, die sich weiterentwickeln und oft eine prototypische Struktur haben und als kognitive Modelle fungieren. Die SCTT zeigt auf, dass die wesentlichen Informationen in Definitionen je nach Art der Verständniseinheit und der Kommunikation variieren können. Darüber hinaus müssen Synonymie und Polysemie, die funktional für das Verständnis von Texten von Bedeutung sind, beschrieben werden. Dieser Ansatz findet in der Praxis der Termontography Anwendung (Temmerman/Kerremans 2003, Kerremans 2004), die terminografische Aktivitäten mit der Modellierung von Domänenontologien aus einer soziokognitiven Perspektive verbindet. Eine Termontology ist somit eine Kategorisierung der Verständniseinheiten, bei der intra- und interkategoriale Aspekte berücksichtigt werden. In diesem Zusammenhang ist auch das Modell der Ontoterminology (Roche et al. 2009, Roche 2012) zu nennen, innerhalb dessen Terminologie und formale Ontologie als zwei unterschiedliche, jedoch miteinander verbundene Analysedimensionen betrachtet werden. Die Framebasierte Terminologie (FBT) ist ein relativ junger kognitiver Ansatz zur Terminologie, der sich an Fillmores Frame Semantics (vgl. Fillmore 1985) anlehnt und an den Prämissen von CTT und SCTT orientiert (vgl. http://lexicon.ugr.es/fbt). Die FBT wurde in erster Linie auf umweltwissenschaftliche (Faber et al. 2014) und militärische (Faber/León-Araúz 2019) Terminologie angewandt und geht von der Annahme aus, dass innerhalb eines Fachgebiets konzeptuelle Templates identifiziert werden können, die dem in Fachtexten kodierten Wissen zugrunde liegen. Demnach zeichnen sich Fachtexte, insbesondere in Naturwissenschaften und Technik, durch die Wiederholung spezifischer Termini, Phrasen und Sätze aus. Laut der FBT basieren konzeptuelle Netzwerke in fachsprachlichen Texten auf einem zugrundeliegenden Domänenereignis, das Templates für Handlungen und Prozesse erzeugt, die in diesem Fachgebiet stattfinden, sowie für die Entitäten, die daran teilnehmen. Im Prozess der Terminologiearbeit wird das konzeptuelle Wissen der Domäne mittels eines integrierten Top-down- und Bottom-up-Ansatzes abgeleitet, der die Extraktion von Informationen aus mehrsprachigen Korpora mit der Analyse von Informationen aus Fachwörterbüchern und weiteren fachspezifischen Quellen kombiniert. Die allgemeinsten bzw. grundlegenden konzeptuellen Kategorien einer Domäne können weiter unterkategorisiert werden und sind rund um ein prototypisches Domänenereignis beschrieben, das den Wissenserwerb erleichtert. Diese in Fachtexten
Terminologiearbeit und Wissensmanagement
179
vorhandenen Wissensstrukturen spiegeln sich in den lexikalischen Relationen wider, die in terminografischen Definitionen kodiert sind. FBT ist ein gutes Beispiel für einen theoretisch-methodischen Ansatz zur Terminologie, bei dem der weitere Kontext, in diesem Fall in Form von konzeptuellen Vorlagen, den Raum für die Analyse von Schlüsselkonzepten und damit verbundenen Fachwörtern einer Disziplin bildet. Der framebasierte Ansatz verbessert den Zugang zum Domänenwissen auf der Grundlage des Kontexts, indem er assoziative Informationen im semantischen Gedächtnis aktiviert (Faber/Léon-Araúz 2019). Top-Konzepte bilden bei diesem Modell eine linguistisch fundierte Ontologie (Faber 2015). EcoLexicon, das wichtigste Beispiel für eine praktische Anwendung von FBT, enthält eine Umweltontologie, die auf Informationen aus Fachtexten und terminologischen Definitionen (Faber et al. 2014, Abschnitt 3) basiert. Die Ontologiedaten werden durch einen halbautomatischen Prozess der Computerextraktion mit anschließender Expertenvalidierung erfasst. In der Vergangenheit hat sich die Forschung auf dem Gebiet der sog. framebasierten Ontologien (van Kralingen 1997, Dameron et al. 2005) in eine ähnliche Richtung bewegt, obwohl hier die ontologische Komponente im Gegensatz zu FBT nicht linguistisch sein soll und die Terminologie nicht im Mittelpunkt steht. In diesen Studien werden oft unterschiedliche Wissensressourcen, z. B. FrameNet und Upper Ontologies wie SUMO, zusammengeführt (vgl. Segers et al. 2015). Aus Sicht der Anwendung von Ontologien im Bereich der Terminologieforschung ist auch der kombinierte Frame- und Ontologieansatz zur Untersuchung terminologischer Variation in Giacomini (2017, 2018, 2019) and Giacomini/Schäfer (2020) zu erwähnen, der primär im Fachgebiet der Wärmedämmung im Wohnungsbau erprobt wurde. Dabei überlappen sich mit einer linguistisch-konzeptuellen Ontologie, die anhand von Informationen aus Fachtexten identifiziert wird, fließende semantische Frames, die je nach Thema und Quelle der Texte eine spezifische Phase oder einen Aspekt des Lebenszyklus eines Dämmstoffprodukts erfassen. Mit jedem Frame und seinen Frame-Elementen, die somit als semantische Schnittstelle zwischen der konzeptuellen und der lexikalischen Ebene fungieren und durch ein halbautomatisches Verfahren erfasst werden können, werden Termini und Termvarianten verknüpft. Was schließlich Wortnetze betrifft, so hat die terminologische Forschung zu eher punktuellen Ergebnissen geführt, wobei die Erstellung von Ressourcen im Allgemeinen auf einige wenige Domänen beschränkt, z. B. Wortnetz Kultur vom Landschaftsverband Rheinland, https://www.lvr.de bzw. die Erweiterungen des ItalWordNet (http://www.ilc.cnr.it/iwndb_php) wie Jur-WordNet für das juristische Fachgebiet (Sagri et al. 2004) und ArchiWordNet für das Fachgebiet Architektur (Bentivogli et al. 2003). Dies scheint zu belegen, dass im Bereich der Terminologieforschung die Darstellung von semantisch-konzeptuellen Relationen, selbst wenn sie systematisiert ist, nicht den gleichen Grad an Effizienz erreichen kann wie eine Ontologie bei der Repräsentation von Domänenwissen. Im technischen Bereich ist TermNet zu erwähnen, ein
180
Laura Giacomini
deutschsprachiges Wortnetz zur Fachdomäne der Hypermediaforschung und Texttechnologie, das im Rahmen des HyTex-Projektes entwicket wurde (Beißwenger 2008). TermNet-Daten sind in OWL abgebildet und mit einem Ausschnitt von GermaNet (Kunze/Lemnitzer 2007, 139‒148) verknüpft. Die Datenmodellierung ähnelt dem Princeton WordNet, mit Termini, TermSets und lexikalischen bzw. konzeptuellen Relationen als grundlegenden Komponenten.
2.4.2 Datenakquisition und Korpora Die Verwendung von Korpora in der Terminologiearbeit ist heute eine übliche Lösung, die von verschiedenen Akteuren, von Übersetzungsdienstleistern bis hin zu Terminologie-Standardisierungsinstitutionen, genutzt wird. Ein Korpus im Sinne einer – in der Regel umfangreichen – Sammlung von Texten in elektronischem Format, die sich auf ein oder mehrere Fachgebiete beziehen, kann auf der Suche nach terminologischen Daten für ein Fachgebiet untersucht werden. Neben grundlegenden Kriterien wie Repräsentativität oder angemessener Größe muss die Wahl auf ein Korpus fallen, das den spezifischen Anforderungen der Terminologiearbeit wie der Anzahl der Sprachen (z. B. durch parallele bzw. vergleichbare Korpora), den Fachtextsorten und der kommunikativen Ebene(n) entspricht. Darüber hinaus kann das Korpus im Laufe seiner Erstellung auf unterschiedliche Weise vorverarbeitet und in unterschiedlichem Maße annotiert werden. Die Abfrage eines angemessen kodierten (d. h. indizierten und komprimierten) Fachkorpus kann direkt über eine Abfragesyntax wie im Kommandozeilenprogramm Corpus Query Processor (CQP) (vgl. Evert/Hardie 2011) oder über Korpusabfragesysteme erfolgen, die dem Nicht-Programmierer eine Benutzerschnittstelle bieten, die Zugang zu einer Reihe von mehr oder weniger komplexen Abfragetools ermöglicht. Diese reichen von der einfachen Konkordanz über die Extraktion von Kollokationen und Keywords bis zur Erstellung von Thesauri. Gängige Korpusabfragesysteme dieser Art sind z. B. AntConc, CorpusExplorer, WordSmith Tools, LancsBox und Sketch Engine. Einige dieser Werkzeuge sind in lexikalische oder lexikografische Internetportale integriert, z. B. das DWDS-Portal, das in den Sektionen Textkorpora und Statistiken die Möglichkeit der Extraktion von Konkordanzen und Kollokationen aus verschiedenen deutschsprachigen Korpora bietet. In der Terminologiearbeit werden monolinguale Korpora in erster Linie zur Extraktion von Termkandidaten auf der Grundlage ihrer termhood verwendet, d. h. ihrer Besonderheit als Termini im Vergleich mit ihrer Okkurrenz in anderen, oft gemeinsprachlichen Korpora. Die extrahierten Fachwörter können einfach oder komplex sein und müssen manuell validiert werden, wobei idealerweise mehrere parallele Strategien zum Einsatz kommen, z. B. die Nutzung der Fachkompetenz der Terminologen, der Vergleich mit vorhandenen terminografischen oder lexikografischen Ressourcen bzw. mit zusätzlichen Domänenkorpora, sowie die Konsultation fachspezifischer Pri
Terminologiearbeit und Wissensmanagement
181
märquellen. Ein einsprachiges Korpus ist auch eine wertvolle Quelle für Kontexte von Termini (Konkordanzen) und damit für zentrale morphosyntaktische, semantische und pragmatische Informationen bzw. für Beispiele ihrer Verwendung. Darüber hinaus kann es dazu verwendet werden, konzeptuelle Informationen zu sammeln – insbesondere hierarchischer Art und generell auf der Grundlage wiederkehrender Patterns –, die für die Ausarbeitung oder Validierung von terminologischen Definitionen und Wissensmodellen nützlich sind. Phraseologische Phänomene, die sich auf die Terminologie eines Fachgebiets beziehen, können durch die Extraktion von Kandidaten für Wortkombinationen, meist fachsprachliche Kollokationen, analysiert werden (vgl. Giacomini 2021). Die phraseologischen Kandidaten werden typischerweise mithilfe von Assoziationsmaßen ermittelt, die ihre statistische Signifikanz berechnen (vgl. Manning/Schütze 1999). Zusammen mit deskriptiven Werten, z. B. der absoluten Frequenz der Wortkombinationen im Korpus, bilden diese induktiven Assoziationswerte eine Grundlage für die Validierung der Kandidaten, die meistens manuell durchgeführt wird. Wenn die terminologische Arbeit auf die Erstellung einer lexikografischen oder terminografischen Ressource ausgerichtet ist, kann die Auswahl der relevanten Lemmata, selbst durch die quantitative und qualitative Analyse der Daten eines Korpus unterstützt werden. Die Analyse von Parallelkorpora bietet darüber hinaus den Vorteil, dass Äquivalentkandidaten extrahiert werden können. Wenn keine zwei- oder mehrsprachigen lexikalischen Ressourcen zur Verfügung stehen, ist die Akquisition von korrekten Äquivalenten in einer oder mehreren Sprachen im Allgemeinen mit objektiven Schwierigkeiten verbunden. Die terminologische Arbeit orientiert sich in diesem Fall an der Analyse von Paralleltexten in den verschiedenen Sprachen sowie an die systematische Rücksprache mit Fachexperten. Zum terminologischen Wissen gehört auch, wie gezeigt, eine konzeptuelle Dimension. Um das geeignete Wissenssystem für die analysierte Domäne zu identifizieren, ist es sinnvoll, lexikografische und thematische Ressourcen sowie vorhandene Fachliteratur als Ausgangspunkt zu nutzen und daraus die notwendigen konzeptuellen Informationen abzuleiten. Wie bereits erwähnt, enthält z. B. ein Fachwörterbuch mehr oder weniger explizite konzeptuelle Daten in den Definitionen, aber auch in den Angaben zu semantischen Beziehungen bzw. in den Disambiguatoren. Auch wenn diese Angaben zum Teil nicht systematisiert sind, können sie einen guten Einstieg in den Identifizierungsprozess eines bestimmten Begriffssystems darstellen. Auch Korpora können zu diesem Zweck verwendet werden. Typischerweise führt die Extraktion von Termini aus einem Fachkorpus und deren thematisch-konzeptuelle Gruppierung zu sehr aufschlussreichen Ergebnissen darüber, welche Konzepte für ein Fachgebiet zentral sind, zumindest diejenigen, auf die sich die Texte des eingesetzten Korpus konzentrieren (vgl. auch die Methoden zur Extraktion hierarchischer Relationen, z. B. in Hearst 1992). Ein ähnliches Ziel kann auch durch den Einsatz weiterer computergestützter Werkzeuge und Methoden erreicht werden, die darauf abzielen,
182
Laura Giacomini
Kernthemen und -konzepte in Texten zu ermitteln, z. B. die statistische Methode des Topic Modeling, die Analyse von Word Embeddings (vgl. Hazem/Morin 2017, Wang et al. 2018) sowie die nicht-korpusbasierte Keyword Generation im Rahmen von SEO-Tools (vgl. Giacomini 2019). Erste Ergebnisse, die nach der einen oder anderen Methode erzielt werden, müssen dann mit dem in der einschlägigen Fachliteratur enthaltenen konzeptuellen Wissen abgeglichen werden.
3 Wissensmanagement: Präsentation und Verwaltung terminologischen Wissens Die Vorstellung von Terminologieverwaltung bzw. Terminologiemanagement als integraler Bestandteil der Terminologiearbeit ist seit langem Gegenstand von Untersuchungen, sowohl im Unternehmensumfeld (vgl. Cerrella Bauer 2015), als auch im Bereich der Übersetzung und der entsprechenden Qualitätssicherung (Popiolek 2015). Mittlerweile setzt sich jedoch das Konzept des Wissensmanagements, das verschiedene Facetten annehmen kann, auch in der Terminologie durch. Wissensmanagement (Knowledge Management), ursprünglich in den Fachgebieten Betriebswirtschaft, Informatik und Informationswissenschaften entwickelt, ist heute ein Konzept, das zunehmend auch auf den Bereich der Terminologie angewendet wird. Die systematische und nachhaltige Pflege des im Rahmen der Terminologiearbeit erworbenen Wissens kann verschiedene Formen annehmen. Ausgehend von der Annahme, dass die lexikalische und die konzeptuelle Ebene im Bereich der Terminologie von gleicher Bedeutung sind, ist es möglich, folgende grundlegende Mittel des Wissensmanagements zu unterscheiden: Auf der einen Seite die Terminologiedatenbanken, die das terminologische Wissen beschreiben und auf die Erstellung terminografischer bzw. lexikografischer Ressourcen ausgerichtet sein können, und auf der anderen Seite die Wissensbanken (Knowledge Bases), die in der Regel Informationen über Produkte, Dienstleistungen, Struktur oder Themengebiete von Organisationen wie Institutionen oder Unternehmen enthalten (vgl. auch Keller 2006). Eine klare Abgrenzung zwischen den beiden Auffassungen des Wissensmanagements ist allerdings nicht unbedingt zweckmäßig, da eine auf beide Zwecke ausgerichtete Ressource durchaus denkbar wäre. Im Folgenden werden relevante Wissensmanagementsysteme in der Terminologie behandelt, u. a. anhand der Herleitung exemplarischer Modelle aus dem technischen Fachgebiet.
3.1 Terminologische Datenbanken Im Folgenden wird der Schwerpunkt auf Terminologiedatenbanken als derzeit vorherrschendes Modell für die Verwaltung von Terminologiedaten gelegt, wobei weni-
Terminologiearbeit und Wissensmanagement
183
ger strukturierte Formen wie Datenlisten, z. B. im Excel-Format, außer Acht gelassen werden. Das heutige Verständnis von Wissensmanagement im Unternehmensumfeld ist primär mit der Vorstellung einer terminologischen Datenbank verbunden, die Konzepte, Begriffe und Beziehungen systematisch und strukturiert sammelt. Dabei sind die Konsistenz und die Wiederverwendbarkeit der Daten von zentraler Bedeutung. Der Vorteil einer solchen Ressource ist, dass sie die Analyse von Unternehmensproblemen, die Dokumentation neuer Produkte und die Übersetzung der entsprechenden Texte sowie die Einbindung neuer Mitarbeiter erleichtert. Darin involviert sind letztendlich viele Akteure im Unternehmen, z. B. in den Bereichen Entwicklung, Normung, Marketing, Technische Redaktion, Übersetzung und Service. Terminologiedatenbanken werden jedoch nicht nur in Unternehmen, sondern auch im akademischen Umfeld zu Forschungszwecken (vgl. EcoLexicon) bzw. zur Verwaltung von intern erarbeiteter Terminologie erstellt (vgl. Innsbrucker Termbank 2.0, https://www.uibk.ac.at/ translation/termlogy/abfrage.html), wobei der Fokus im zweiten Fall eindeutig auf der linguistischen Analyse liegt. Die Form der Repräsentation und Präsentation von terminologischem Wissen in einer Datenbank ist daher auf die spezifischen Aufgaben und Nutzer eines Projektes ausgerichtet. Gängige Darstellungsformate für Datenbanken sind derzeit das XML-Format, das eine hierarchische, halbstrukturierte und somit flexible Gliederung bietet, und das relationale Modell, das eine starrere Struktur zur Vermeidung von Redundanzen und Inkonsistenzen aufweist und für die Verwaltung großer Datenmengen geeignet ist (Domdouzis et al. 2021, Morris/Coronel 2018). Weitere Modelle von besonderem Interesse für die Zukunft sind Graphdatenbanken, d. h. NoSQL-Datenbanken, die in Knoten und Kanten entlang von Beziehungen zwischen Daten strukturiert sind, wobei Relationen selbst Daten sind.
3.2 Terminografische und fachlexikografische Ressourcen In einer datenbankbasierten terminografischen Ressource umfassen terminologische Einträge in der Regel linguistische Daten (z. B. morphosyntaktische Angaben, Varianten, Kollokationen), konzeptuelle Daten (z. B. Definition, Relationen in einem konzeptuellen System, Verweis auf die entsprechende ontologische Entität oder Klasse) und administrative Daten (z. B. Bearbeiter, Datum der Eingabe, Bearbeitungsstatus) (Arntz et al. 2014, ISO 26162-2:2019). Eine exakte Trennung zwischen sprachlicher und konzeptueller Ebene kann nicht immer eindeutig sein, wie im bereits erwähnten Fall der Definitionen. Obwohl es im Allgemeinen strukturell und inhaltlich nicht leicht ist, zwischen terminografischen und lexikografischen Ressourcen zu unterscheiden, insbesondere in einer Zeit äußerst dynamischer Online-Tools, kann man feststellen, dass Fachwörterbücher eher auf eine tiefergehende linguistische Dokumentation auf morphosyntakti
184
Laura Giacomini
scher, semantischer und pragmatischer Ebene gerichtet sind und diese manchmal mit Informationen enzyklopädischer Natur kombiniert (Kageura 2015). Wie in der Funktionstheorie der Lexikografie (Tarp 2008) dargelegt, bestimmt die Definition des idealen Benutzerkreises und der konkreten Benutzungssituationen die Eigenschaften einer fachlexikografischen (aber auch terminografischen) Ressource, etwa die Funktion, die Direktionalität, die Makro- und Mikrostruktur sowie die Anzahl und den Typ der vorgesehenen Zugriffspfade (Wang 2001). Die Präsentation der Daten für den Benutzer über eine grafische Benutzerschnittstelle kann somit unterschiedliche Formen annehmen und mehr als eine Art des äußeren Zugriffs auf die Daten ermöglichen. Im technischen Bereich reichen diese von primär onomasiologisch konzipierten Ressourcen wie dem elektronischen Fachglossar Electropedia (https:// www.electropedia.org), das sich auf das Gebiet der Elektrotechnik bezieht und auf einer thematischen Anordnung der Daten beruht, zu primär semasiologisch konzipierten Ressourcen wie ECHA-term zur Terminologie der Chemie, bis hin zu onomasiologisch-semasiologischen, polyakzessiven Ressourcen wie dem Oilfield Glossary (https://glossary.oilfield.slb.com) oder GEMET (General Multilingual Environmental Theusaurus, https://www.eionet.europa.eu/gemet). Trotz ihrer systematischen Struktur beruhen manche dieser Ressourcen nicht auf einem ontologischen System, wie dies bei EcoLexicon (Faber et al. 2014, San Martin et al. 2017, http://ecolexicon.ugr.es) der Fall ist. EcoLexicon ist eine mehrsprachige Ressource im Bereich Umweltterminologie, die an der Universität Granada nach dem Frame-Based-Terminology-Ansatz erstellt wurde: Jedes Konzept wird innerhalb eines Frames beschrieben und ist mit einer Definition sowie mit seinen Benennungen in verschiedenen Sprachen bzw. mit anderen Konzepten verknüpft. Die Benutzeroberfläche ermöglicht eine grafische, wortnetzähnliche Visualisierung der Daten. Als wichtiger Bestandteil des Wissensmanagements in lexikografischen und terminografischen Ressourcen ist außerdem die Nutzerbeteiligung zu nennen, d. h. die Einbindung des Nutzers in den Prozess der Erstellung und Aktualisierung von Einträgen oder in die Produktauswertung (vgl. Abel/Mayer 2016). So können beispielsweise die Nutzer von Electropedia und der Datenbank der Telekommunikationsterminologie TERMITE (https://www.itu.int/bitexts/termino.php) ihr Feedback zur Terminologie-Datenbank abgeben. Die Möglichkeit der Nutzerintegration kann stark davon abhängen, ob die endgültige Ressource deskriptiv oder präskriptiv ist.
3.3 Anwendungen für das terminologische Wissensmanagement Umfassende Werkzeuge für Terminologen, technische Redakteure oder Übersetzer, die sich mit Terminologiearbeit befassen, sind z. B. Anwendungen mit einer dafür konzipierten Schnittstelle, wie Terminus (terminus.iula.upf.edu), eine webbasierte Lösung für Korpus – und Terminologiemanagement, die in verschiedenen Modulen
Terminologiearbeit und Wissensmanagement
185
individuelle oder teambasierte Terminologieprojekte unterstützt und die Auswahl bestimmter Datenkategorien ermöglicht. Andere Besipiele sind die Terminologiemanagement-Komponenten von CAT-Tools, z. B. MultiTerm in SDL Trados, dessen Eingabestrukturen allerdings in der Regel nicht sehr flexibel und auch nicht an die Bedürfnisse des Benutzers anpassbar sind. Zum anderen gibt es eine Reihe von spezifischen Hilfsmitteln, die in den verschiedenen Arbeitsphasen des terminologischen Prozesses eingesetzt werden können. Ein Beispiel sind Anwendungen zur Extraktion von Termini aus Texten und Korpora (Korpusabfragesysteme im Allgemeinen wie in Abschnitt 2.4.2 beschrieben oder eigenständige Tools wie TermTreffer (https://termtreffer.org, siehe hierzu auch Steurs et al. 2015, oder OneClick Terms, https://terms.sketchengine.eu). Auch für die Darstellung und Verwaltung von konzeptuellem und ontologischem Wissen gibt es verschiedene Lösungen. Ontologie-Editoren, insbesondere Protégé (https://protege.stanford.edu), sind nützlich für die Formalisierung und Validierung der Konsistenz von Inhalten und ermöglichen zudem eine grafische Darstellung der Daten. Coreon (https://www.coreon.com) und LexO (Bellandi 2021) sind beispielsweise zwei Werkzeuge, die es ermöglichen, die lexikalische und konzeptuellontologische Ebene systematisch miteinander zu verbinden, erstere in taxonomischer Form, zweitere als Open-Source-System zur Verwaltung von in OntoLex lemon (https://lemon-model.net) erstellten Ressourcen. Schließlich bieten lexikografische Redaktionssysteme dem Benutzer oft eine XML-basierte Plattform, auf der die lexikografischen (oder terminografischen) Einträge der geplanten Ressource strukturiert und erstellt werden können (vgl. TLex, DPS, DEBWrite, Lexonomy).
4 Fazit In diesem Beitrag wurde versucht, die Anforderungen an die Terminologiearbeit und das Wissensmanagement zu verdeutlichen, wobei verschiedene theoretische und methodische Perspektiven vorgestellt wurden. Es handelt sich um einen vielseitigen Forschungs- und Tätigkeitsbereich, in dem es allerdings einige grundlegende Eckpfeiler gibt. Die von Kockaert (2005) beschriebenen Grundsätze bezüglich der Do‘s und Don‘ts bei Terminologiearbeit und Terminologiemanagement sind zweifellos auch heute noch gültig. Problematisch sind nach wie vor Aspekte wie die Undurchsichtigkeit des Themas, unzureichende sprachliche und/oder fachliche Kenntnisse von Terminologen bzw. Übersetzern, veraltete, nicht aktualisierte Daten sowie Formate, die keine Interoperabilität der Datenbanken ermöglichen. Ohne den Anspruch einer erschöpfenden Darstellung zu erheben, hatte dieser Beitrag das Ziel, die relevantesten Fragestellungen zu beleuchten und Hinweise für weitere Untersuchungen und möglicherweise neue Anregungen zu vermitteln. Vor allem wurde die ständig wachsende, aber keineswegs ausschließliche Rolle der
186
Laura Giacomini
computergestützten Verfahren in einem Bereich hervorgehoben, der ein hohes Maß an linguistischen und fachlichen Kompetenzen bei seinen Akteuren erfordert.
5 Literatur Abel, Andrea/Christian M. Meyer (2016): Nutzerbeteiligung. In: Annette Klosa/Carolin Müller-Spitzer (Hg.): Internetlexikografie. Ein Kompendium. Berlin/Boston, 249–290. Arntz, Reiner/Heribert Picht/Klaus-Dirk Schmitz (2014): Einführung in die Terminologiearbeit. Hildesheim. Beißwenger, Michael (2008): TERMNET – ein terminologisches Wortnetz im Stile des Princeton WordNet. Projekt Hypertextualisierung auf textgrammatischer Grundlage. Technical Report, http:// www.michael-beisswenger.de/pub/termnet2008.pdf Bellandi, Andrea (2021): LexO: an open-source system for managing OntoLex-Lemon resources. In: Language Resources and Evaluation 55/4, 1093–1126. Bentivogli, Luisa/Andrea Bocco/Emanuele Pianta (2003): Archiwordnet: Integrating wordnet with domain-specific knowledge. Cabré, María Teresa (1999a): La terminologia: representación y comunicación. Elementos para une teoría de base comunicativa y otros artículos. Barcelona. Cabré, María Teresa (1999b): Terminology: Theory, Methods and Applications. Amsterdam/Philadelphia. Cabré, María Teresa (2003): Theories of Terminology. Their Description, Prescription and Explanation. In: Terminology 9/2, 163–200. Caro Cedillo, Ana (2004): Fachsprachliche Kollokationen: Ein übersetzungsorientiertes Datenbankmodell Deutsch-Spanisch. Tübingen. Cerrella Bauer, Silvia (2015): Managing terminology projects: concepts, tools and methods. In: Hendrick J. Kockaert/Frida Steurs (Hg.): Handbook of Terminology 1. Amsterdam, 324–340. Daille, Béatrice (2017): Term Variation in Specialised Corpora: Characterisation, automatic discovery and applications. Amsterdam/Philadelphia. Dameron, Olivier/Daniel L. Rubin/Mark A. Musen (2005): Challenges in converting frame-based ontology into OWL: the Foundational Model of Anatomy case-study. In: AMIA Annual Symposium Proceedings. American Medical Informatics Association. Davies, John (2010): Lightweight ontologies. In: Roberto Poli/Michael Healy/Achilles Kameas (Hg.): Theory and Applications of Ontology: Computer Applications. Bd. 1. Dordrecht/London, 197–229. Domdouzis, Konstantinos/Peter Lake/Paul Crowther (2021): Object and Object Relational Databases. In: Concise Guide to Databases, 165–187. Drewer, Petra/François Massion/Donatella Pulitano (2017): Was haben Wissensmodellierung, Wissensstrukturierung, künstliche Intelligenz und Terminologie miteinander zu tun? Deutsches Institut für Terminologie. Evert, Stefan/Andrew Hardie (2011): Twenty-first century corpus workbench: Updating a query architecture for the new millennium. In: Proceedings of the Corpus Linguistics Conference 2011. Faber, Pamela (Hg.). (2012): A Cognitive Linguistics View of Terminology and Specialized Language. Berlin/Boston. Faber, Pamela (2015): Frames as a framework for terminology. In: Handbook of terminology, 1/14, 14– 33. Faber, Pamela/Pilar León Araúz/Arianne Reimerink (2014): Representing Environmental Knowledge in EcoLexicon. In: Elena Bárcena/Timothy Read/Jorge Arús (Hg.): Languages for Specific Purposes in the Digital Era. Heidelberg u. a., 267–301.
Terminologiearbeit und Wissensmanagement
187
Faber, Pamela/Pilar León Araúz (2019): Frame-based terminology applied to military science: transforming a glossary into a knowledge resource. Lexicography 6/2, 105–131. Fillmore, Charles J. (1985): Frames and the Semantics of Understandings. In: Quaderni Di Semantica, 6/2, 222–254. Freixa, Judit (2006): Causes of denominative variation in terminology. A typology proposal. Terminology. In: International Journal of Theoretical and Applied Issues in Specialized Communication 12/1, 51–77. Fürst, Frédéric/ Francky Trichet (2006): Heavyweight ontology engineering. In: OTM Confederated International Conferences „ On the Move to Meaningful Internet Systems“. Berlin/Heidelberg, 38–39. Geentjens, Sancho/Rita Temmerman/Koen Kerremans/Peter De Baer (2006): ok . In: Finds and Results from the Swedish Cyprus Expedition: A Gender Perspective at the Medelhavsmuseet, 138–151. Giacomini, Laura (2012): Lexical borrowings in German and Italian IT terminology. At the crossroads between language interference and translation procedures. In: Proceedings of the BDÜ Conference ,Übersetzen in die Zukunft 2012ʻ, Berlin 28.–30.09.2012. Giacomini, Laura (2017): An ontology-terminology model for designing technical e-dictionaries: formalisation and presentation of variational data. In: Electronic lexicography in the 21st century: Proceedings of eLex 2017 conference. Lexical Computing, 110–123. Giacomini, Laura (2018): Frame-based Lexicography: Presenting Multiword Terms in a Technical E-dictionary. In: Proceedings of the XVIII EURALEX International Congress. Lexicography in Global Contexts, 309–318. Giacomini, Laura (2019): Ontology – Frame – Terminology. A method for extracting and modelling variants of technical terms. Habilitation Thesis, University of Hildesheim. Giacomini, Laura (2021): Phraseology in technical texts: a frame-based approach to multiword term analysis and extraction. In: Carmen Mellado Blanco (Hg.): Productive Patterns in Phraseology and Construction Grammar. Berlin/Boston, 215–233. Giacomini, Laura/Johannes Schäfer (2020): Computational Aspects of Frame-Based Meaning Representation in Terminology. In: Proceedings of the 6th International Workshop on Computational Terminology, 80–84. Giacomini, Laura/Paolo DiMuccio-Failla/Eva Lanzi (2021): The interaction of argument structures and complex collocations: role and challenges in learner’s lexicography. EURALEX XIX. Giunchiglia, Fausto/Maurizio Marchese/Ilya Zaihrayeu (2007): Encoding classifications into lightweight ontologies. In: Journal on data semantics VIII, 57–81. Gläser, Rosemarie (1990): Fachtextsorten im Englischen (Vol. 13). Tübingen. Gläser, Rosemarie (2007): Fachphraseologie. In: Harald Burger/Dmitrij Dobrovol’skij/Peter Kühn/Neal R. Norrick (Hg.): Phraseologie/Phraseology. Ein internationales Handbuch der zeitgenössischen Forschung/An International Handbook of Contemporary Research, 1. Teilband / Volume 1. Berlin/ New York, 482–505. Göpferich, Susanne (1995): Textsorten in Naturwissenschaften und Technik: pragmatische Typologie, Kontrastierung, Translation. Tübingen. Gruber, Thomas R. (1995): Toward principles for the design of ontologies used for knowledge sharing? International Journal of Human-Computer Studies 43/5–6, 907–928. Gruber, Tom (2008): Ontologies. In: Ling Liu/M. Tamer Özsu (Hg.): Encyclopedia of Database Systems. Boston, 1959. Hazem, Amir/Emmanuel Morin (2017): Bilingual word embeddings for bilingual terminology extraction from specialized comparable corpora. In: Proceedings of the Eighth International Joint Conference on Natural Language Processing, Volume 1, 685–693. Hearst, Marti A. (1992): Automatic acquisition of hyponyms from large text corpora. In: Proceedings of the 14th conference on Computational linguistics. Association for Computational Linguistics, Volume 2, 539–545.
188
Laura Giacomini
Heid, Ulrich (2006): Extracting term candidates from recursively chunked text. In: Pius ten Hacken (Hg.): Terminology, Computing and Translation. Tübingen, 97–116. Herold, Axel/Peter Meyers/Carolin Müller-Spitzer (2016): Datenmodellierung. In: Amnette Klosa/ Carolin Müller-Spitzer (Hg.): Internetlexikografie. Ein Kompendium. Berlin/Boston, 111–152. Kageura, Kyo (2015): Terminology and lexicography. In: Hendrick J. Kockaert/Frieda Steurs (Hg.): Handbook of terminology 1. Amsterdam/Philadelphia, 45–59. Keller, Nicole (2006): Terminologie und Wissensmanagement. AREAS–Annual Report on English and American Studies 31, 417–434. Kerremans, Koen (2004): Categorisation frameworks in termontography. In: Linguistica Antverpiensia, New Series–Themes in Translation Studies, (3). Kockaert, Hendrick J. (2005): Terminology management: Do’s and don’ts. Advancing multilingualism through terminology development. TermNet. Wien, 25–29. Kunze, Claudia/Lothar Lemnitzer (2007): Computerlexikographie: Eine Einführung. Tübingen. L’Homme, Marie-Claude (2020): Lexical semantics for terminology: An introduction (Vol. 20). Amsterdam. Manning, Christopher D./Hinrich Schütze (1999): Foundations of Statistical Natural Language Processing. Cambridge. Morris, Steven/Carlos Coronel (2018): Database Systems: Design, Implementation, & Management. Boston. Neumüller Otto-Albrecht (2009): Duden – Das Wörterbuch chemischer Fachausdrücke. Duden Bibliothek. Software. Mannheim. Popiolek, Monika (2015): Terminology management within a translation quality assurance process. In: Hendrick J. Kockaert/Frieda Steurs (Hg.): Handbook of terminology 1. Amsterdam/Philadelphia, 341–359. Roche, Christophe/Marie Calberg-Challot/Luc Damas/Philippe Rouard (2009): Ontoterminology: A new paradigm for terminology. In: International Conference on Knowledge Engineering and Ontology Development, 321–326. Roche, Christophe (2012): Ontoterminology: How to unify terminology and ontology into a single paradigm. In: LREC 2012, Eighth International Conference on Language Resources and Evaluation. European Language Resources Association. Roelcke, Thorsten (2001): Homonymie und Polysemie in den terminologischen und terminographischen Grundsatznormen des Deutschen Instituts für Normung eV (DIN). In: Lexicographica 17, 92–143. Roelcke, Thorsten (2010). Fachsprachen. 3., neu bearb. Aufl. Berlin. Rösiger, Ina/ Julia Bettinger/Johannes Schäfer/Michael Dorna/Ulrich Heid (2016): Acquisition of semantic relations between terms: how far can we get with standard NLP tools? In: Proceedings of the 5th International Workshop on Computational Terminology (CompuTerm 2016). Osaka: COLING 2016, 41–51. Sagri, Maria Teresa/Daniela Tiscornia/Francesca Bertagna (2004): Jur-WordNet. In: Petr Sojka/Karel Pala/Pavel Smrz/Christine Fellbaum/Piek Vossen (Hg.): Global Wordnet Conference. Segers, Roxane/Piek Vossen/Marco Rospocher/Luciano Serafini/Egoitz Laparra/German Rigau (2015): Eso: A frame based ontology for events and implied situations. Proceedings of MAPLEX, 2015. Steurs Frieda/Ken De Wachter/Evy De Malsche (2015): Terminology tools. In: Hendrick J. Kockaert/ Frieda Steurs (Hg.): Handbook of terminology 1. Amsterdam/Philadelphia, 222–249. Studer, Rudi/V. Richard Benjamins/Dieter Fensel (1998): Knowledge engineering: Principles and methods. In: Data & knowledge engineering 25/1‒2), 161–197. Sube, Ralf (2006): Langenscheidt Fachwörterbuch Physik Deutsch-Englisch. München. Tarp, Sven (2008): Lexicography in the Borderland between Knowledge and Non-knowledge: General Lexicographical Theory with Particular Focus on Learner’s Lexicography (Vol. 134). Tübingen.
Terminologiearbeit und Wissensmanagement
189
Temmerman, Rita (2000): Towards New Ways of Terminology Description: The sociocognitive approach. Amsterdam/Philadelphia. Temmerman, Rita (2001): Sociocognitive terminology theory. In: María Teresa Cabré/Judit Feliu (Hg.): Terminología y Cognición. Barcelona, 75–92. Temmerman, Rita/Koen Kerremans (2003): Termontography: Ontology Building and the Sociocognitive Approach to Terminology Description. In: Proceedings, XVII. International Congress of Linguists. Prague, 1–10. ten Hacken, Pius (2018): Terms between Standardization and the Mental Lexicon. In: Roczniki Humanistyczne, 66/11, 59–77. van Kralingen, Robert (1997): A conceptual frame-based ontology for the law. In: Proceedings of the first international workshop on legal ontologies, 6–17. Vézina, Robert (2009): La rédaction de définitions terminologiques. Québec: Office québécois de la langue française. Wang, Yanshan (2018): A comparison of word embeddings for the biomedical natural language processing. In: Journal of biomedical informatics 87, 12–20. Wang, Weiwei (2001): Zweisprachige Fachlexikographie: Benutzungsforschung, Typologie und mikrostrukturelle Konzeption. Frankfurt a. M. u. a. Wüster, Eugen (1991): Einführung in die allgemeine Terminologielehre und terminologische Lexikographie. 3. Aufl. Bonn.
Annely Rothkegel
7. Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung Abstract: Technisches Schreiben ist eine Dokumentationstätigkeit, die in der Gesellschaft fest verankert ist und durch den gesellschaftlichen Wandel immer wieder neu eingeordnet und definiert werden muss. In diesem Kontext skizziert der Beitrag vier linguistisch beschreibbare Problemfelder der Sprach- und Textarbeit, die auf Textdokumente mit expliziter Objektbindung an technische Artefakte zielen. In den beiden ersten Problemfeldern geht es um die Aspekte von Kommunikation und Wissen, darauf folgen Strategien der textlichen Realisierung auf Struktur- und Begriffsebene und schließlich die Sicht auf Prozesse und Management. Die Erörterung der Problemfelder wird gerahmt durch verallgemeinernde Betrachtungen. Einführend geht es um grundsätzliche Erwägungen zu den Möglichkeiten und Grenzen schriftlicher Kommunikation. Als Ausblick werden mögliche Spielräume und Entwicklungstendenzen des Technischen Schreibens angesprochen. Dabei geht es um Zusammenhänge zwischen Technik, Kultur(en) und Kommunikation. 1 2 3 4 5 6 7
Einführung Technisches Schreiben als sprachlich-kommunikatives Handeln Wissen und Sachverhalte sprachlich darstellen Verständnissicherung durch Strategien der Textproduktion Schreibprozesse und Management der Textarbeit Ausblick: Spielräume im Kontaktbereich von Technik- und Kommunikationskulturen Literatur
1 Einführung 1.1 Problemfelder des technischen Schreibens Technisches Schreiben gehört zu den Dokumentationstätigkeiten, die seit der Entwicklung von Schriftkulturen bis in die Gegenwart multimedialer Vervielfältigung und Distribution einen Platz im geregelten gesellschaftlichen Miteinander haben (Stein 2010). Gesellschaftlicher Wandel, sei er durch Technik oder andere kulturelle Einflüsse in Gang gesetzt oder beschleunigt, bringt es mit sich, dass solche Tätigkeiten immer wieder neu eingeordnet und definiert werden müssen. Zusammen mit dem Einzug wirkmächtiger „Weltbilder“ in öffentliche Kommunikationsräume (Wachstumsidee des Wirtschaftens, Nachhaltigkeit als Überlebensprinzip, Problemlösungen durch Digitalisierung in Professionen und Alltag, Regelungen und Normen und nicht https://doi.org/10.1515/9783110296259-008
192
Annely Rothkegel
zuletzt auch durch temporäre Moden; Fischer 2017), ändert sich gleichermaßen die Art und Weise des Kommunizierens darüber. Dies betrifft auf der Inhaltsebene den begrifflichen Umgang mit Wissen (zu Denkstilen vgl. Andersen et al. 2018), die Berücksichtigung digitaler Nutzungskontexte (Villiger 2020) sowie den Einsatz automatisierter Verfahren bis hin zu sich verselbstständigenden Kommunikationstechnologien (Einsatz von Bots; Lotze 2016; Rothkegel 2020). Die Frage stellt sich, welche Rolle dabei dem Gebrauch von Sprache mit ihren Möglichkeiten und Grenzen zukommt. Der Begriff des Technischen Schreibens steht in der Nähe zu Begriffen wie „Technische Dokumentation (Redaktion)“, „Technische Kommunikation“, „Technikkommunikation“ oder „Schreiben in technischen Berufen“, „Schreiben über Technik“ sowie zu englischen Ausdrücken wie „Technical Communication“, „Technical Writing“, „Technical Communication Systems“. Im Verständnis dieser Begriffe mit jeweils anderen thematischen Schwerpunkten gibt es Übergänge zwischen Aspekten der „Kommunikation über Technik“, der „Kommunikation mit technischen Mitteln (technisch vermittelte Kommunikation)“ und „Kommunikationstechnologien“, was in den entsprechenden Diskursen seit ca. zehn Jahren thematisiert wird (Rothkegel/ Ruda 2012). Nicht angesprochen in diesem Beitrag werden vorrangig software-technisch bestimmte Perspektiven (Einstieg in Mehler/Romary 2012), auf die zahlreichen, sprachlich orientierten Ratgeber, auch mit Hinweisen zur Normenkonformität, aus der Praxis und für die Praxis, wird exemplarisch im Abschnitt 4 im Rahmen des Themas Textproduktion eingegangen. Der Fokus des Beitrags konzentriert sich auf linguistisch beschreibbare Probleme der Sprach- und Textarbeit, die auf Textdokumente mit expliziter Objektbindung an technische Artefakte zielen. Sowohl Aspekte der Analyse wie solche der Produktion von Texten spielen eine Rolle. Im Hinblick auf zu ermöglichende Anknüpfungspunkte für spätere Forschungen werden vier aufeinander bezogene Problemfelder skizziert, die kaskadenartig miteinander verknüpft sind. In den beiden ersten Problemfeldern geht es um die Aspekte von Kommunikation und Wissen, darauf folgen Strategien der textlichen Realisierung auf Struktur- und Begriffsebene und schließlich die Sicht auf Prozesse und Management. Vor dem Hintergrund eines sprechakttheoretischen Zugangs zum Konzept des Technischen Schreibens als Sprachhandlung (Illokutionsebene, Modell Searle 1969/1971) steht das Problem des Gegensatzes von grundsätzlicher Interpretationsoffenheit sprachlicher Handlungen und der Anforderung an Eindeutigkeit für Leser und Nutzer im Vordergrund (Problemfeld-1, Abschnitt 2). Mit Blick auf die Aufgabe der Wissensvermittlung geht es auf der inhaltlichen Seite der Sprachhandlung (Ebene propositionaler Gehalt) um das Verhältnis von Wissen und Sprache. Zu beachten beim Technischen Schreiben sind mögliche Überlappungen von fachlichem und alltäglichem Wissen mit den jeweiligen Parallelen auf der sprachlich-begrifflichen Seite. Dabei stehen Probleme bezüglich der Korrektheit und Vollständigkeit nutzungsrelevanter Informationen im Vordergrund (Problemfeld-2, Abschnitt 3).
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
193
Das in kommunikative Funktionen eingebundene und verbal fixierte Wissen wird schließlich durch Strategien der Textproduktion in ein schriftliches Textformat überführt (Sprachhandlungsebene der Lokution). Als Anforderung gilt eine adressatenbezogene Verständlichkeit, befördert durch erkennbare Strukturiertheit und textsortenspezifische Formulierungen (Problemfeld-3, Abschnitt 4). Die aufeinander bezogenen Themen der drei genannten Problemfelder bilden auf der Ebene des Managements einen eigenen, integrierten Gegenstand. Hier steht das Problem des Umgangs mit Qualitätsansprüchen (Produktqualität, Prozessqualität) im Vordergrund (Problemfeld-4, Abschnitt 5). Die vier Problemfelder, die das Technische Schreiben im engeren Sinn behandeln, werden gerahmt durch zwei verallgemeinernde Betrachtungen. Einführend (Abschnitt 1) geht es um einige grundsätzlichen Erwägungen zu den Möglichkeiten und Grenzen schriftlicher Kommunikation. So ist der Zugang zu geplanter Analyse und Produktion letztlich durch das zugrunde gelegte Kommunikationsmodell bestimmt. Abschließend (Abschnitt 6) werden als Ausblick mögliche Spielräume und Entwicklungstendenzen des Technischen Schreibens angesprochen. Dabei geht es um Zusammenhänge zwischen Technik, Kultur(en) und Kommunikation. In dieser Perspektive und mit Hinweis auf die internationale „Global Reporting Initiative“ (GRI 2021) erscheinen die Facetten des Technischen Schreibens im Sinne dynamischer Kommunikationskulturen im Kontakt mit sich wandelnden Technikkulturen. Die Zugänge zu den sprachlichen Phänomenen stammen aus der Textlinguistik sowie aus der Textproduktions- und Schreibforschung. Hinsichtlich des sprachlichen Materials für die Analysen werden gleichermaßen Print- und Online-Textdokumente herangezogen. In einer linguistisch ausgerichteten Darstellung haben sprachliche Äußerungen ihren Platz als Belege oder veranschaulichende Beispiele (hier in kursiver Schrift), auch wenn aus Platzgründen nur in sparsamer Weise davon Gebrauch gemacht werden kann. Wenn es als sinnvoll erscheint, werden authentische Einzelverwendungen, aber auch (bereits interpretativ bearbeitete) Teiltexte mit Analyse und Kommentar präsentiert. Die wörtlichen Zitierungen beziehen sich auf typische, hier stark verkürzte und zur Vermeidung von Werbung nicht zitierte Quellen. Sie werden als veranschaulichende Beispiele für möglichen Sprachgebrauch herangezogen und haben nicht die Funktion von Musterlösungen.
1.2 Möglichkeiten und Grenzen schriftlicher Kommunikation Technisches Schreiben steht, wie andere domänenbezogene Dokumentationstätigkeiten, in alten schriftlichen Traditionen, die sich in der Praxis entwickelt haben. So hatte der Schreiber im Alten Ägypten (ca. 3500 v. Chr.), der als Beamter einem höchst angesehenen Berufsstand angehörte, die verantwortungsvolle Aufgabe, die Durchführung aller Verwaltungsakte zu dokumentieren (Jäger 2004). Die sich etablierenden Schriftkulturen, angefangen bzw. belegt in Zeugnissen von vor 6000 Jahren (Stein
194
Annely Rothkegel
2010), ermöglichten die Fixierung von Regeln für das gesellschaftliche Leben, insbesondere für die aufblühenden Wirtschaften. Die schriftliche Dokumentation wichtiger Ereignisse förderte eine standardisierte Weitergabe von Wissen, diente aber auch der Kontrolle und Einflussnahme, also Entwicklungen, die durch die Verwendung schriftlicher Kommunikation begünstigt werden, was in der Gegenwart durch Mediennutzung weiterhin verstärkt wird. In dieser Einführung werden zwei zentrale Aspekte der Kommunikation in ihren Grundlagen skizziert, die in den folgenden Abschnitten als Problemfelder des Technischen Schreibens konkretisiert und ausgearbeitet werden: das Verständnis von Kommunikation gemäß ausgewählter Kommunikationsmodelle sowie der Umgang mit begrifflichem Wissen. Der Aspekt der Verbindung verbaler und visueller Komponenten wird hier der Vollständigkeit halber erwähnt, spielt aber hinsichtlich der Eingrenzung des Beitragsthemas auf schriftliche Kommunikationsformen keine Rolle. Das Verständnis von Kommunikation als intendierte Einflussnahme auf die Kommunikationspartner, was impliziert, dass Kommunikation Handlungen ermöglicht, gründet sich auf das Kommunikationsmodell von Bühler (1934/1999), das dezidiert von einem technischen Kommunikationsmodell des Transfers von Information abweicht (z. B. Shannon/Weaver 1949/1995). Dieses ist kritisiert worden als „Information ohne Kommunikation“ (Weingarten 1990) oder, mit Anspielung an ein modernes gesellschaftliches Phänomen, als mit menschlicher Kommunikation nicht vergleichbares „Paketversand-Modell“ (Keller 2018). Stattdessen geht es darum, wie Menschen handelnd und damit auf sich selbst, auf andere und auf die Welt verändernd einwirken bzw. einzuwirken versuchen, indem sie ihre Absichten der Einflussnahme (Intentionen) mit Bezug zu ausgewählten Inhalten sprachlich zum Ausdruck bringen (linguistische Ebene der Pragmatik). Das Bühler-Modell beschreibt die Zuordnung sprachlicher Ausdrücke zu den Ebenen der Darstellung (Referenzausschnitte) und den Ebenen der Beteiligten. Auf der Symptomebene bringen sich die Sprechenden bzw. Schreibenden selbst ein (Selbstdarstellung), auf der Appellebene geht es um Einwirkungsabsichten auf die anderen. Sprachlich gesehen geht es um Sprachhandlungen wie Behauptungen, Instruktionen, Empfehlungen usw., die komplexe Kombinationsmuster bilden (z. B. Beschreibung, Bericht, Argumentation; Wichter 2011). Mit der Anwendung auf mündliche und schriftliche Texte ist es also möglich, komplexe, auch fachlich geprägte Kommunikationssituationen zu analysieren und zu typisieren (Schubert 2007a, Rothkegel 2010a, Ballstaedt 2019). Hinsichtlich der Inhalte (linguistische Ebene der Semantik) der Kommunikation spielt das Verhältnis von Wissen und Sprache eine wichtige Rolle (Felder/Gardt 2015). Von besonderem Interesse sind die Möglichkeiten begrifflicher Zusammenhänge untereinander sowie die Probleme bei den Mischungen von Fach- und Alltagssprachen. Hilfreich sind zunächst die Arbeiten aus den Anfängen der Textlinguistik, in denen die wesentlichen Prinzipien in übersichtlicher Form präsentiert werden (van Dijk 1980, de Beaugrande/Dressler 1981) sowie Weiterentwicklungen wie Schwarz-Friesel/ Consten 2014, Adamzik 2016, Heringer 2016, Brinker et al. 2018. Technikkommunika
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
195
tion auf textlinguistischer Grundlage findet eine hervorgehobene Beachtung im Bereich der Fachkommunikation (u. a. Schubert 2007a, Heine 2010, Rothkegel 2010a, Rothkegel/Ruda 2012, Adamzik 2018). Nicht unerwähnt sollte die historisch interessante Verbindung von Sprache und Bild sein, gegenwärtig im Trend hin zu mehr Bild, wie es alten Traditionen entspricht. Im Hinblick auf das Interesse an mehr Text ist auf Georg Agricola zu verweisen (Agricola 1556/2004), der als Arzt (und Bürgermeister von Chemnitz) den Abbau der Eisenerze im Erzgebirge dokumentierte. Die künstlerisch in Holzschnitten ausgearbeiteten bildlichen Dokumentationen begleiten ausführliche Texte, die über den Bildinhalte hinausgehen, indem soziale Bezüge sowie mögliche gesundheitliche Risiken der mit den Gerätschaften hantierenden Personen berücksichtigt sind, also eine durchaus moderne Perspektive (vgl. Ropohl 2009, s. Abschnitt 6). Auf der Ebene der Kommunikation wie auf der Ebene des Inhalts zeigen sich gleichermaßen die Grenzen schriftlicher Kommunikation. Zu nennen ist eine grundsätzlich fehlende 1:1-Zuordnung von Gemeintem und sprachlichem Ausdruck. Zur Vermeidung möglicher Fehlinterpretationen sind antizipatorische Strategien gefragt. Daraus ergeben sich Anforderungen wie Eindeutigkeit (wenig Interpretationsspielraum), Korrektheit (im Hinblick auf Referenzausschnitte), Verständlichkeit (Maßnahmen zur Verständnissicherung durch die Textqualität (Strukturiertheit, angemessene Reihenfolgen des Nacheinanders der Inhalt, zeitliche und räumliche Achsen, Adäquatheit von Szenarien, Beachtung von Qualität und Quantität von Informationen und Daten). Dieser Katalog lässt sich erweitern durch Einbeziehung kulturell bestimmter Sichtweisen, so etwa als Anforderungen an Glaubwürdigkeit, an die Transparenz von Entscheidungspfaden zusammen mit der Übernahme von Verantwortung hinsichtlich der Selektion von Informationen und Daten. Mit Erweiterungen dieser oder anderer Art, u. a. formuliert als Qualitätsmerkmale für „gute Arbeit“ als eines der 2015 von der UN vereinbarten 17 Nachhaltigkeitsziele (Bundesregierung „Agenda 2030“, 2018), verändert sich ebenfalls der Horizont der Kommunikationsarbeit (vgl. Abschnitt 6; auch Rothkegel 2021). Insofern als Sprache selbst als ein dynamisches Gebilde für die Interpretation von „Welt“ verstanden werden kann, ermöglicht sie es, den sich stetig verändernden Kommunikationssituationen Rechnung zu tragen. Diese Möglichkeit bestimmt gleichzeitig ihre Grenzen: die jeweilige Sicht auf die „Welt“ eröffnet eine bestimmte Perspektive, eine bestimmte Konstruktion, die gleichzeitig in Konkurrenz zu anderen Konstruktionen steht und in stetem Wandel begriffen ist (Adamzik 2018, 338).
2 Technisches Schreiben als sprachlich-kommunikatives Handeln Die Betrachtungsweise, dass Schreiben Handeln ist, stammt aus den 90er Jahren (Wrobel 2012, Reprint von 1995) und wurde fortgesetzt mit der Perspektive auf das
196
Annely Rothkegel
Schreiben in den Professionen (Pogner 1999, Jakobs et al. 2005). Die jeweiligen Konzepte knüpfen an das oben zitierte Bühler-Modell an (Bühler 1934/1999), in dem eine sprachliche Äußerung mit den an der Kommunikation Beteiligten systematisch verbunden ist (s. Abschnitt 1). Mit Blick auf Aufgaben der Analyse und Produktion von Texten stellt sich die Frage nach möglichen Identifikations- und Unterscheidungsverfahren für sprachlich-kommunikative Handlungen, die als solche aus den sprachlichen Äußerungen nicht hervorgehen und deren Bedeutung sich erst im Kontext der Äußerung erschließt. Diese Frage betrifft das Technische Schreiben innerhalb von Textsorten (vgl. Instruktionstexte in Ehlich et al 1994), in denen es wichtig ist, dass Objektbeschreibungen und Handlungsanweisungen von den Lesern/Nutzern klar unterschieden werden können. Ein Instrument der Handlungsbeschreibung, das sowohl in der Forschung als auch in der Praxis erfolgreich war und ist, liefert die Sprechakttheorie nach Searle (1969, 1971). Dabei geht es um eine Klassifikation von fünf Sprechaktklassen, drei Bestimmungsmerkmale und die Annahme von vier Ebenen einer sprachlichen Handlung: die Handlung als solche (Illokution: Veränderungsaspekt, Intention, Handlungsziel), der Bezug auf einen Inhalt (propositionaler Gehalt), die Form der Äußerung (Lokution: Lexik, Grammatik) und schließlich die Wirkung (Perlokution). Die drei erstgenannten Ebenen sind der Äußerung in systematischer Weise zugeordnet, die vierte Ebene, was also tatsächlich als Konsequenz der Äußerung geschieht, ist eher offen (Beispiel: Nutzer halten sich nicht an die Anleitung). Die fünf Sprechaktklassen sind wie folgt eingeordnet: Repräsentativa (darstellend: wir berichten über…), Direktiva (auffordernd/andere sollen etwas tun: wir empfehlen Ihnen …), Kommissiva (selbstverpflichtend: wir garantieren Ihnen …), Expressiva (Emotionsbezeichnende Handlungen: wir begrüßen es …), Deklarativa (Zustand-Erzeugung bei institutioneller Berechtigung: wir eröffnen hiermit die Filiale X in …) (Erläuterungen in Staffeldt 2008, 81‒90). Als klassifizierende Merkmale gelten: die Involviertheit der Beteiligten (illocutionary point; vgl. Bühlermodell), die Einstellung des Sprechers zum Gegenstand der Äußerung (psychological state) und die Entsprechungsrichtung zwischen Äußerung und Realität (direction of fit: a) eine Realität (ein Zustand) ist vorhanden, die Äußerung folgt der Realität (Klassen 1 bis 4) oder b) die Äußerung erzeugt einen bestimmten Zustand der Realität innerhalb eines institutionellen Rahmens (Klasse 5: Direktiva; Beispiele: Namensgebung, Eheschließung, Kündigung). Die sprachlich-kommunikativen Handlungen des Technischen Schreibens gehören vorwiegend den Klassen der Repräsentativa (im Sinne von Zuschreibungen) und Direktiva (im Sinne von an die Leser/Nutzer adressierten Handlungsanleitungen) an. Beide Klassen sind durch die Entsprechungsrichtung „Realitätskonstruktion → sprachliche Äußerung“ gekennzeichnet. Bei der Gruppe der Repräsentativa geht es um Zuschreibungen von Klassen sowie von einzelnen Eigenschaften und Verhaltensweisen des im Zentrum stehenden Objekts. Dazu gehören Sprachhandlungen wie BESCHREIBEN, BERICHTEN, BEWERTEN,
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
197
DARSTELLEN, DEFINIEREN, VERGLEICHEN, usw.). Die Zuordnung einer sprachlichen Äußerung zu einer der Klassen ist häufig nicht eindeutig. Ein Satz wie Finger gehören nicht in das Innere des Geräts, gemeint im Sinne des WARNENS (Direktiva), könnte von seinem Aufbau her eine Feststellung oder Behauptung sein, also bei den Repräsentativa eingeordnet werden. Im Falle einer Feststellung könnte er als Information verstanden werden, auf die keine aktiv-tätige Reaktion erwartet wird (möglicherweise eine Zustimmung oder Ablehnung). Im Falle einer Behauptung könnte man den Inhalt im Sinne einer sozialen Norm („ein solches Benehmen gehört sich nicht“) in Zweifel ziehen oder die Kompetenz des Autors in Frage stellen. Vom Kontext (Gebrauchsanleitung) her sind diese beiden Interpretationen auszuschließen, was allerdings eine gewissen Textsortenkompetenz der Leser voraussetzt. Probleme gibt es auch hinsichtlich der Unterscheidung von Repräsentativa und Deklarativa. So wird die Handlung des DEFINIERENs (im Sinne einer Klassenzuschreibung) in der Literatur auch den Deklarativa zugerechnet (Ballstaedt 2019). Dies entspricht einem Verständnis, dass Klassifikationssysteme selbst einen Realitätszustand bilden und dass mit der sprachlichen Äußerung ein Objekt (z. B. Kraftfahrzeug) zum Verkehrsmittel, Marketingobjekt, Reparaturgegenstand oder Müll wird bzw. dass der betreffende Ausdruck durch die sprachliche Handlung der Definition die Fähigkeit erhält, Mitglieder einer Klasse „Verkehrsmittel“ oder „Müll“ zu bezeichnen. Schwierigkeiten in dieser Sichtweise entstehen weiterhin auch im Hinblick auf die Erfassung anderer klassifizierender Verfahren, etwa durch Adjektive (innovative Konstruktion, Elektrofahrzeug) oder Präpositionalattribute (Berechnungen mit KI-Methoden), deren Erwähnung ebenfalls als deklarativ einzustufen wären. Als weniger kompliziert und einfacher handhabbar erscheint dagegen eine hier vertretene klare Trennung zwischen Zuschreibungen (Repräsentativa) und der Konsequenz einer Äußerung für eine institutionell bestimmte Realität (Deklarativa) wie etwa, wenn durch eine Kündigung ein Arbeitsverhältnis beendet wird. Instruktionen (Direktiva) hinsichtlich der Handhabung und Nutzung eines Objekts durch Personen (Handlungsanleitungen) bilden die zweite Gruppe. Diese ist vor allem interessant wegen der Wichtigkeit einer präventiven Kommunikation im Hinblick auf erwünschte bzw. nicht erwünschte „Weltzustände“ (was (nicht) sein soll; s. o. Beispiel Finger gehören nicht in das Innere des Geräts). Insofern als Textdokumente aus dem Bereich des Technischen Schreibens (insbesondere Anleitungen wie Installations-, Bedienungs-, Gebrauchs-, Wartungs-, Reparaturanleitungen; vgl. Tillmann et al. 2020) bestimmten haftungsrechtlichen Bedingungen unterliegen, gibt es erhöhte Anforderungen an die Eindeutigkeit des Textes (das Textdokument gilt als Teil des technischen Produkts). In Anlehnung an Standards, die technische Produkte betreffen, werden „Warnungen“ im Rahmen der Technische Dokumentation auf ähnliche Weise (ohne Bezug zu linguistischen Kategorien wie solchen der Sprechakttheorie) normiert. Entsprechend werden vier Graduierungen auf der Grundlage eines fachlichen Risiko-Modells unterschieden, wobei die Höhe des (erwarteten) Schadens (Personen- und/oder Sachschaden) und die Erwartbarkeit des Schadenseintritts (z. B.
198
Annely Rothkegel
„unmittelbar bevorstehend“ oder „generell existierend“) die jeweilige Stufe im verbalen „Warnsystem“ bestimmen (zur Risiko-Definition vgl. Rothkegel 2010b, 2013). Entsprechend gilt eine (in der Praxis variierende) Liste typografisch hervorgehobener Signalwörter: GEFAHR, WARNUNG, VORSICHT (auch ACHTUNG), HINWEIS, die die unterschiedenen Warnhandlungen markieren (hier interpretiert als Illokutionsvarianten zu WARNEN; zum Anteil des propositionalen Gehalts und den Beschreibungen der Nutzungsszenarios s. Abschnitt 3.4). Inwieweit eine solche, mit fachlichem Hintergrund gestufte Festlegung von den „Alltagslesern“ wahrgenommen wird, bleibt dahingestellt, zeigt aber das besondere Bemühen auf Herstellerseite um sprachliche Eindeutigkeit durch normierte metakommunikative Hinzufügungen. Es stellt sich die generelle Frage, ob und wie mögliche Konflikte zwischen fachlicher und alltäglicher Kommunikation durch eindeutigen Sprachgebrauch entschärft werden können. Anders als im semantischen Bereich (Abschnitt 3), wo lexikalische Indikatoren die zu erschließenden Kontextinformationen ergänzen, kommt der Bereich kommunikativer Handlungen ohne lexikalische Indikatoren aus, was den Interpretationsspielraum vergrößert. Das oben skizzierte (in Ausführung und Formulierung auch umstrittene) Praxisbeispiel der Einführung verbaler Indikatoren („Signalwörter“) verdeutlicht die Rolle metakommunikativer Ergänzungen in Situationen, wenn man auf Eindeutigkeit nicht verzichten möchte. Die Einbeziehung von Metakommunikation (Kommunikation über die (laufende) Kommunikation) gibt den Produzenten überdies die Gelegenheit zu mehr Sichtbarkeit in ihrer Rolle als Kommunikationspartner, was wiederum die Vertrauensbildung unterstützt. Damit gerät das Technische Schreiben mehr und mehr in den überlappenden Bereich der Image- und Reputationsarbeit der Unternehmenskommunikation (Zerfaß et al. 2021). Zusammenfassend kann generell gesagt werden, dass Technisches Schreiben durch einen angemessenen Gebrauch von Metakommunikation an Transparenz gewinnt (vgl. GRI-Standards (GRI 2021) in Abschnitt 6).
3 Wissen und Sachverhalte sprachlich darstellen 3.1 Sprache, Kommunikationssituationen und Nutzungsszenarien Im Hinblick auf die inhaltlichen Anforderungen des Technischen Schreibens an Korrektheit und Vollständigkeit kommen Fragestellungen in den Blick, in denen die Selektionen auf der Ebene der Realitätsausschnitte parallel zu den sprachlich-begrifflichen Selektionen betrachtet werden. Ausgehend von der sprachlichen Verfasstheit des Wissens werden Zugänge zum Wissen über Zugänge zur Sprache ermöglicht (Felder/Gardt 2015, darin: Atayan/Metten/Schmidt 2015). Je nach Objektrolle und Perspektive auf den jeweiligen Realitätsausschnitt kommt es zu Mischungen von Fachwissen und Alltagswissen mit entsprechenden Parallelen in Mischungen von Fachsprache(n) und Alltagssprache(n). Auch wenn erstere disziplinär sortiert, begriff-
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
199
lich systematisiert und terminologisch standardisiert sind, unterliegen sie der Dynamik von Bedeutungsveränderungen (als sich wandelnde Konstruktionen von Welten; Adamzik 2018). Auch Alltagssprache(n), wohl weniger reguliert, unterliegen dennoch sich anpassenden Sichtweisen der Alltagsexperten an sich verändernde Lebenswelten (Hörning 2001). Darstellungsprobleme ergeben sich einerseits im Rahmen dieser Veränderungen, andererseits im Hinblick auf die Mischung von fachlichem und alltäglichem Sprachgebrauch. Letzteres ist seit 20 Jahren Forschungsthema im Rahmen der Experten-Nichtexperten-Kommunikation (in verschiedenen Domänen: Niederhauser/ Adamzik 1999, Villiger/Gerzymisch-Arbogast 2007; mit speziellem Bezug auf kleinere und mittlere Betriebe in der Metall- und Elektroindustrie Forster 2007; die Forschungsthematik hat sich ansonsten in Richtung Wissenschaftskommunikation und Öffentlichkeit erweitert). Im Hinblick auf die Sprachgebrauchsmischungen lassen sich vier Konfigurationen unterscheiden: die domänenspezifische, einzelfachliche Sprache auf disziplinärer Ebene (Baugruppe, Nockenwelle, Wirkungsgrad), die nicht-einzelfachliche Sprache auf einer interdisziplinären Ebene (Grundlagen, Funktion, Daten), die fachunspezifischen Ausdrücke der Alltagssprache, die auch fachlich und dann in spezifizierter Bedeutung verwendet werden können (Geschwindigkeit, Temperatur, Wetter, Zukunft) sowie allgemeine Alltagsausdrücke (Beginn, Tag, fahren, schnell). Die Gruppierung hat zu tun mit der Bedeutungskonstruktion innerhalb der Begriffsbildung und folgt einer Graduierung auf einer Skala von spezifisch zu unspezifisch. Mit „spezifisch“ ist gemeint, dass der Begriff nur in wenigen oder engen Anwendungskontexten eine bestimmte Bedeutung entfaltet, während bei „unspezifischem“ Gebrauch viele und weite Anwendungskontexte möglich sind, so wie es für die allgemeine Alltagssprache gilt. Bei „inflationärem“ Gebrauch, so auch für die Produktbeschreibung, kann diese Ausweitung bis zu einer „Bedeutungsentleerung“ führen (Beispiel: die Anwendung von nachhaltig, Nachhaltigkeit in beliebigen Kontexten; vgl. Grober 2010). Eine Gefährdung hinsichtlich einer solchen Bedeutungsentleerung betrifft vor allem die Gruppe aus nicht-einzelfachlichem und alltäglichem Gebrauch (z. B. Zukunft). Entsprechend gibt es auch auf der semantischen Ebene Bemühungen um Standardisierung und Normierung (zur einzelsprachlichen Umsetzung s. Abschnitt 4). In diesem Abschnitt werden drei Problemtypen hinsichtlich der allgemeinen Kategorien skizziert, die den Umgang mit der Objektbindung beim Technischen Schreiben bilden: (a) die identifizierende Beschreibung des Produkts als Nutzungsobjekt auf der Grundlage von Ordnungssystemen (Klassifikationen, Ontologien, Thesauri; (3.2)); (b) die orientierende Darstellung von zeitlichen und räumlichen Bezügen (3.3); (c) die instruierende Beschreibung von Aufgaben in Nutzungsszenarios (3.4).
200
Annely Rothkegel
3.2 Identifizierende Beschreibung des Produkts als Nutzungsobjekt Wissen über das in Frage stehende technische Produkt bildet eine Basis für die Kommunikation, mit der die Anknüpfungspunkte für alle weiteren Informationen und deren Darstellungen festgelegt werden. Dazu gehört seine Einordnung in die Welt der Produkte und deren Status im Rahmen eines Produkt-Lebenszyklus sowie die Hervorhebung von Eigenschaften, die für die vorgesehenen Handlungen von Belang sind. Textbeispiel (1) (aus einem Softwarehandbuch) zeigt exemplarisch, wie Klassifikation und Definition die Identifikation des thematisierten Produkts (Teilprodukts) unterstützen. Klassifikationssysteme, die den jeweils fachlichen Zusammenhang einer Domäne (Branche, Disziplin) prägen, gelten als „künstliche“ Einteilungen der Welt, die gelernt werden müssen, die aber auch verändert werden können (allgemein: Kiel/Rost 2002; zu Ontologien Meixner 2011, in Bezug auf die Technische Dokumentation Oevermann 2019, Villiger 2020). Sie sind in der Regel hierarchisch aufgebaut und gestatten auf diese Weise die Eingrenzung eines Objekts in ein System von Ober- und Unterbegriffen sowie seine Abgrenzung von anderen Objekten. Definitionen operieren auf der Basis solcher Klassifikation. Sie geben die jeweilige übergeordnete Klasse an und ein Merkmal, das das Objekt von anderen Objekten dieser Klasse unterscheidet. (1) Beispiel: Software (Farbmanagement) (1.a) Da Farbunterschiede durch unterschiedliche Farbräume von Geräten und Software bedingt sind, kann ein System Abhilfe schaffen, das Farben auf verschiedenen Geräten korrekt interpretiert und überträgt. (1.b) Bei einem Farbmanagementsystem (CMS) wird der Farbraum, in dem eine Farbe erzeugt wurde, mit dem Farbraum verglichen, in dem die Farbe ausgegeben werden soll und die Farbe ggf. angepasst, damit sie auf unterschiedlichen Geräten konsistent dargestellt wird. (1.c) Hinweis: (1.d) Farbmanagement ist nicht mit Farbanpassung oder Farbkorrektur zu verwechseln. […] Es stellt lediglich eine Umgebung zur Verfügung, in der Sie Bilder im Hinblick auf die endgültige Ausgabe zuverlässig überprüfen können.
Analyse zu (1): In (1.a) wird das Objekt definiert: ein System (Oberbegriff) + unterscheidendes Merkmal: das Farben … interpretiert und überträgt. (1.b) gibt das verwendete Verfahren an. (1.c) fungiert als Signalwort (Aufmerksamkeit auf das Folgende lenken). (1.d) beugt möglichem Missverständnis vor durch Abgrenzung der Bedeutungen von Farbmanagement, Farbanpassung, Farbkorrektur. Die Möglichkeit des Missverständnisses wird allerdings in (1.b) durch die Formulierung ggf. angepasst erzeugt. Es scheint ein Darstellungsproblem für die einfache Abgrenzung unterschiedlicher Elemente zu geben, obwohl die Hierarchieebenen durchaus verschieden sind: Farbmanagement (Ebene System), Farbanpassung bzw. Farbkorrektur (Ebene Einzelverfahren). Möglicherweise war im Moment des Schreibens eine Formulierungsalternative für ggf. angepasst in (1.b) nicht verfügbar, so dass das Problem der unklaren Einordnung eigentlich durch eine unpassende lexikalische Auswahl entstanden ist,
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
201
was dann wiederum durch den Hinweis auf die mögliche Verwechslung kompensiert bzw. repariert werden sollte. Auch wenn die sprachliche Darstellung als unpräzise bezeichnet werden muss, ist dennoch das definitorische Verfahren erkennbar, nach dem die identifizierende Einordnung des Produkts in die Gesamtklasse der Systeme sowie die Abgrenzung von anderen Klassenmitgliedern durch das unterscheidende Merkmal erfolgt (vgl. (1.d): […] stellt […] eine Umgebung zur Verfügung, die […]). Neben der Ober-/Unterbegriffsrelation bildet die Teil-Ganzes-Relation die zweite wichtige semantische Gliederung im Blick auf die Realität. Während erstere eine Art abstraktes Filter auf Objekte und Sachverhalte legt (grob: was man weiß), bezieht sich letztere auf sie in unmittelbarer Weise (grob: was man sieht). Sie hat eine identifizierende Funktion in Bezug auf Objekte, die bereits als Klasse eingeführt sind. Textbeispiel (2) aus einer Produktinformation zu einem Automobil veranschaulicht dies in zwei Varianten: (2a) Die Gurtstraffer sind Bestandteil der Sicherheitsgurte. (2b) Das Airbag-System ist kein Ersatz für den Sicherheitsgurt, sondern Teil des gesamten passiven Fahrzeug-Sicherheitskonzepts.
Schließlich ist das Schema-Format der Wissensrepräsentation (auch unter der Bezeichnung Frame geläufig), das aus der Wahrnehmungspsychologie stammt, geeignet, Zusammenhänge zwischen semantischen Relationen und ausgewählten Merkmalen in typischen Konfigurationen des Miteinander-Vorkommens zu erfassen, wobei allgemeinen Kategorien situationsbezogene Spezifikationen zugeordnet werden können. Mit der Rekursivität im Format können auf diese Weise auch umfangreiche Begriffsfelder im Bezug auf eine Domäne und in ihren Bezügen aufeinander dargestellt werden. Eine relativ einfache Anwendung findet man häufig unter der Rubrik „Technische Daten“ (z. B. für Automobil).
(3) Beispiel: Auto (Schema) Motor Leistung Verbrauch CO2-Emmission
= = = =
[…] […] […] […]
Das Schema-Format ist offen für inhaltliche Bezüge auf Fachwissen und Alltagswissen, aber auch auf gruppenspezifisches oder individuelles Erfahrungs- bzw. Erwartungswissen (Ziem 2008).
202
Annely Rothkegel
3.3 Räumliche und zeitliche Orientierung Das Phänomen der räumlichen und zeitlichen Einordnung von Objekten, Sachverhalten und Ereignissen ist nicht trivial (allgemein: Reichenbach 1928/1977; linguistisch: Keller 2018). Deren sprachliche (aber auch visuelle) Darstellung ist darauf angewiesen, dass relative Angaben erforderlich sind, wobei (tatsächliche oder angenommene) Fixpunkte und Achsen als Hilfsmittel für die Orientierung eingesetzt werden (Gutermann 1996, Wenz 1997). Textbeispiel (4) bringt zwei Objekte (Kopfstütze, Kopf) in Relation zueinander (auf einer Linie): (4) Automobil: richtige Sitzposition der Mitfahrer Stellen Sie die Kopfstütze so ein, dass die Oberkante der Kopfstütze sich möglichst auf einer Linie mit dem oberen Teil Ihres Kopfes – jedoch nicht niedriger als Augenhöhe – befindet.
Räumliche und zeitliche Zuordnungen werden sprachlich häufig analog gehandhabt, was u. a. im parallelen Sprachgebrauch von Präpositionen zum Ausdruck kommt (vor der Tür; vor vier Uhr). Eine andere mögliche Darstellungskonvention bezieht sich auf den (ikonischen) Vergleich mit der visuellen Parallele zu den Zeigerpositionen auf einer Uhr mit Zeigern.
(5) Automobil: richtige Sitzposition des Fahrers Halten Sie während der Fahrt das Lenkrad so, dass Sie es mit beiden Händen seitlich am äußeren Rand festhalten (9-Uhr- und 3-Uhr-Position).
Für Veränderungen im Raum kommt neben der Semantik von Präpositionen und Konjunktionen die spezifische Semantik von Verbgruppen ins Spiel (z. B. öffnen, verformen, transportieren). Sie kennzeichnen Ereignisse oder Handlungen, durch die ein Objekt seine Position im Raum verändert (Nehmen Sie niemals das Gehäuse der Maschine ab). Probleme können auftauchen, wenn der Sprecherstandpunkt entscheidend ist. Dies ist z. B. der Fall, wenn es darum geht, ob sich ein Objekt A vor oder hinter einem anderen Objekt B befindet:
(6a) Sprecherstandpunkt bezieht sich auf A: A befindet sich vor B. (6b) Sprecherstandpunkt bezieht sich auf B: A befindet sich hinter B.
Die sprachliche Organisation von Zeitrelationen ist eine hochkomplexe Angelegenheit (zur Zeitreferenz im Deutschen Vater 2005). Die Relation von Sprechzeit und Ereigniszeit bringt Ereignisse bzw. Handlungen in unterschiedlicher Weise miteinander in Bezug. Als Fixpunkt dient dabei eine Zeit-Ereignis-Achse, auf der man sich die Ereignisse e1 und e2 in ihrer faktischen zeitlichen Folge vorstellen kann. Dem gegenüber steht eine Reihenfolge der Äußerungen, die den Bezug zur Sprechzeit festlegen. Entspre-
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
203
chend muss sprachlich markiert werden, wie die Verhältnisse in der Realität ablaufen. Ein kurzes Beispiel soll dies verdeutlichen. Angenommen wird, dass es zwei Ereignisse gibt, die auf der Ereignisachse in der Reihenfolge festgelegt sind, z. B. e1: Maschine kommt zum Stillstand; e2: Türe öffnen. Im Fließtext kann e2 als Aktion des Nutzers hervorgehoben werden, indem e2 zuerst genannt wird. Dabei muss e1 in Bezug zu e2 sprachlich in eine entsprechende Relation gebracht werden:
(7a) e2 ist nachzeitig gesehen zu e1: Öffnen Sie erst die Türe, nachdem die Maschine zum Stillstand gekommen ist. (7b) e2 ist vorzeitig gesehen zu e1: Bevor Sie die Türe öffnen, muss die Maschine zum Stillstand gekommen sein. Natürlich kann auch die Chronologie der Ereignisse abgebildet werden: (7c) Erst wenn die Maschine zum Stillstand gekommen ist, können Sie die Türe öffnen.
In der Negation kann die hervorhebende Erststellung beibehalten werden: (7d) Öffnen Sie nicht die Türe, bevor die Maschine zum Stillstand gekommen ist.
Denkbar ist ebenfalls eine Lösung, bei der zeitliche Angaben vermieden werden, wobei neben der zeitlichen Dimension die der Bedingung hinzukommt: (7e) Airbag: Wird das System aktiviert, füllt sich der Luftsack mit Treibgas.
Die Konstellationen sind vielfältig, so dass an dieser Stelle nur eine Art knapper Hinweis auf die sprachlichen Gestaltungsmöglichkeiten gegeben werden kann. Nichtsdestoweniger sollte klar sein, dass hier eine hohe Genauigkeit in der Darstellung der Bezüge gefragt ist. In der Praxis hilft man sich häufig mit grafischen Darstellungsweisen, für die allerdings ebenfalls bestimmte Darstellungskonventionen zur Geltung kommen, zu deren Verständnis schließlich auch eine gewisse Lesekompetenz erforderlich ist (Mijksenaar/Westendorp 1999).
3.4 Zur Modellierung von Aufgaben Eine Aufgabe liegt vor, wenn es einen benennbaren Ausgangszustand und einen erwünschten Ergebniszustand als Ziel von Handlungen gibt, wobei die Schritte zur Zielerreichung den Akteuren bekannt sind. Ist dies nicht der Fall, handelt es sich um ein Problem, für das eine Lösung zu finden ist. Auf dem Weg zum Zielzustand mögen Entscheidungen notwendig werden, wenn alternative Handlungen anstehen oder wenn sich eine Situation in eine unerwünschte Richtung entwickelt, die es zu vermeiden gilt
204
Annely Rothkegel
(präventive Kommunikation; s. Abschnitt 2, Ebene der Illokutionen). Basis der Darstellung bildet also die Darstellung von Handlungen. Verschiedenen Typen von Aufgaben (z. B. innerhalb typischer Nutzungsszenarios) lassen sich entsprechende Muster der Aufgabenerfüllung zuordnen. Dabei spielt eine überschaubare Zahl von Komponenten eine Rolle. Den Rahmen bilden Akteur (Nutzer) sowie Ausgangs- und Ergebniszustand, das eigentliche Handlungsfeld bezieht sich auf Ziel, Strategie, Ausführung und Wirkung, wobei zusätzliche Komponenten wie Voraussetzungen, Bedingungen, Risiken (bzw. Fehler, Gefahren) und Folgen den jeweiligen Kontext erfassen (vgl. Ansatz der „task analysis“ in Hackos/Redish 2000, Rothkegel 2010, 50‒73). Interessant ist es nun festzustellen, dass es auf der sprachlichen Seite musterhafte Entsprechungen gibt, die sich semantisch beschreiben lassen. Pörings/Schmitz (2003) unterscheiden Handlungs-, Bewegungs- und Transferschemata, gemäß derer die Veränderungen von Objekten darstellbar sind, um die es bei der Mensch-Technik-Interaktion geht. Zu ergänzen sind die ebenfalls durch die Semantik vorgegebenen Modalitäten, die die Handlungstypen in den Kontext von Notwendigkeiten (müssen, dürfen nicht) oder Möglichkeiten (können, können nicht) einordnen. Neben den häufig mehrdeutigen Modalverben (müssen, können, sollen/sollten) gibt es weitere Ausdruckskonventionen (Imperativform, sollten nie, sind auf keinen Fall zu […]). Mit diesem Rüstzeug semantischer Mittel steht eine Art Werkzeugkoffer zur Verfügung, die für die jeweiligen Nutzungsszenarios relevanten Sachverhalte (zusammen mit den kommunikativen Handlungen) sprachlich darzustellen. Dabei haben sich Konventionen bzw. Normen musterhafter Realisierungen etabliert, die mehr oder weniger vollständig in den Einzeltexten ausgeführt sind. Der Akteur als Nutzer erscheint in der Dokumentation typisiert, also in nicht personalisierter Form (Sie, Du, nicht realisiert in der Passivkonstruktion), denkbar ist aber, dass bestimmte Nutzerprofile zugeordnet werden (z. B. Lerner bzw. Profi oder im Hinblick auf Qualifikationsanforderungen etwa für den Gebrauch medizinischer Geräte). Zustandsbeschreibungen sind gekennzeichnet durch Verben wie sein, haben, bestehen aus, sich befinden, liegen, die die Möglichkeit der Eigenschaftszuordnung sowie eine Orientierung hinsichtlich der beteiligten Objekte (einschließlich Personen) in ihrer zeitlichen und räumlichen Positionierung bieten. Im Hinblick auf ein Handlungsfeld im Rahmen der Mensch-Technik-Interaktion beziehen sie sich auf Ausgangs-, Zwischen- und Zielzustände der Nutzungssituation. Die Handlungen als solche und die eventuellen Rückmeldungen bzw. Aufforderungen des jeweiligen technischen Systems sind in der Regel als Instruktionen realisiert, wobei naturgemäß für das Szenario typische Handlungsverben verwendet werden. Die Interaktion selbst wird dabei über entsprechende Schnittstellen (Interface) über Anzeigen oder Aufforderungen gesteuert. Dabei sind zwei Ebenen zu unterscheiden: die Aufgabenbenennung (evtl. hierarchisch nach Ganzes-Teil-Relationen gestuft) und die Aktionen der Ausführung, wobei Alternativen und deren Blockierung (Ausnahme) verschiedentlich mit genannt werden:
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
205
(8) Beispiel: Online-Hilfe Aufgabe:
Formatieren
Erstellen eines Hyperlinks für eine leere E-Mail-Adresse Aktion-1: Aktion-2: Aktion-3: Aktion-4:
Markieren Sie den Text […] Klicken Sie auf […] Klicken Sie unter X auf Y Geben Sie im Feld x die gewünschte E-Mail-Adresse ein
Hinweise
[…]
Tipp (Alternative): Sie können auch […], Ausnahme:
außer Sie haben die automatische Formatierung von Hyperlinks deaktiviert.
Die Mensch-Maschine-Interaktion als Sequenz von Aktion und Reaktion findet ihren Ausdruck im entsprechenden Wechsel von Deskription und Instruktion: (9) Beispiel: Trainingsgerät Deskription:
Gerät schaltet 4 Minuten nach Trainingsende in den Schlummermodus.
Instruktion:
Beliebige Taste drücken.
Deskription:
Anzeige beginnt wieder mit Segmentetest und Trainingsbereitschaft.
Für Maßnahmen im Umgang mit Gefahren gibt es genormte Darstellungsmuster. Dies betrifft neben den Illokutionsvarianten des WARNENS (vgl. Abschnitt 2) auch die Inhalte, die sich auf die Konstruktion einer „Nicht-Sein-Soll-Realität“ im Sinne einer Prävention (Rothkegel 2010a, 62 ff.; 2010b, 2013) beziehen. Gängig ist eine vierteilige Sequenz: Grad der Gefahr [GEFAHR, WARNUNG, ACHTUNG oder VORSICHT], Art und Quelle der Gefahr, Folgen, Gefahrenabwehr bzw. Gefahrenvermeidung und Schutzmaßnahmen (zur Normumsetzung Tillmann et al. 2020).
(10) Beispiel: Bügeleisen: GEFAHR (Grad der Gefahr: Lebensgefahr, schwere Verletzungen) Das Bügeleisen darf mit Wasser befüllt (Instruktion), aber niemals in Wasser oder andere Flüssigkeiten eingetaucht werden (Gefahrenvermeidung), da dann die Gefahr eines elektrischen Schlages besteht (Gefahrenquelle). […] Die Einfüllöffnung darf während des Gebrauchs nicht geöffnet werden (Gefahrenvermeidung).
Instruktionen der Prävention beziehen sich nicht nur auf „Not-to-do“-Aktionen, sondern werden ebenfalls mit „To-do“-Aktionen kombiniert:
206
Annely Rothkegel
(11) Beispiel: Kamera Instruktion:
Vergewissern Sie sich vor dem Einsetzen,
Instruktion:
dass die Speicherkarte richtig ausgerichtet ist.
Warnung:
Wird die Karte falsch herum eingesetzt,
Folgen:
kann dies zu Beschädigungen der Kamera führen.
Die Thematisierung von Sicherheit vor dem Hintergrund von Risiken oder Gefahren kann als Beispiel für kulturelle Veränderungen im Umgang mit Technik und Technikentwicklung über Zeiten und Regionen hinweg gelten (zum Übergang von aktiver zu passiver Sicherheit des Autos, vgl. Stieniczka 2006). Ähnliches lässt sich beobachten auch bei anderen Konzepten, die einen Einfluss auf Handlungsweisen im Bereich der Mensch-Technik-Interaktion haben, so etwa gegenwärtige Konzepte zur Nachhaltigkeit, die sich in der Thematisierung von Wiederverwendbarkeit, Effizienzsteigerung oder Vermeidung von Treibgasen spiegeln (s. Abschnitt 6).
4 Verständnissicherung durch Strategien der Textproduktion 4.1 Nutzungssituation und Textverständlichkeit Texte werden geschrieben, um in und mit ihnen Personen, Objekte und Sachverhalte in einen Zusammenhang zu bringen, der in dieser Form vorher nicht bestanden hat. Im Idealfall wird dieser neue Zusammenhang im Lese- und Verstehensprozess rekonstruiert. Wünschenswert ist, dass die Leser zumindest einen für sie relevanten neuen Zusammenhang konstruieren können. Dabei, so die Textverstehenstheorie (Göpferich 2008, Adamzik 2016, Ballstaedt 2019), kommt es darauf an, dass sich das thematisierte Wissen an das Wissen der Leser anknüpfen lässt. Auch wenn der Adressatenbezug immer wieder eingefordert wird, erscheinen die Einwirkungsmöglichkeiten seitens der Schreiber beschränkt, zumal die Schreibziele des Technischen Schreibens – anders als beim Marketing – auf völlig heterogene Leser- und Nutzergruppen ausgerichtet sind. Dennoch sind zwei Möglichkeiten zu nennen, die es gestatten, auf einer relativ allgemeinen Ebene den Lesern entgegenzukommen: einerseits mit einer Differenzierung der Nutzungssituationen und daran angepassten Textversionen, andererseits im Bemühen um Textverständlichkeit. Beide Aspekte lassen sich in Maßnahmen erfassen bzw. variieren, die mit den Schreibstrategien des Strukturierens (4.2), Formulierens (4.3) und Präsentierens (4.4) zu tun haben. Gemeinsam ist ihnen, dass sie auf das Dokument als Textganzes zielen.
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
207
Neben der Differenzierung von Nutzungssituationen nach den Kontexten unterschiedlicher Sachbereiche (Verkehr, Sport, Haushalt usw.) spielen im Weiteren Faktoren wie verfügbare Zeit, Interesse, Aufmerksamkeit und Lernziel eine Rolle. Hier kommen zwei Arten der Wissensvermittlung zum Tragen: ein Schritt-für-Schritt-Vorgehen einerseits (z. B. Juhl 2015) und der Aufbau „mentaler Modelle“ andererseits (im Sinne von Johnson Laird 2010). Dieser Gegenüberstellung entsprechen Dokumentversionen in Form von schrittweisen Anleitungen (s. Beispiel (11)) einerseits und breiter angelegten wissensaufbauenden Texten andererseits (zum Wissenserwerb aus Texten vgl. Schnotz 1994, Rothkegel 2017). Während mit dem Textverstehen die kognitiven Aktivitäten von Schreibern und Lesern angesprochen sind, bezieht sich die Textverständlichkeit auf Eigenschaften des Textdokuments, die den Verständnisprozess unterstützen. Der Begriff der Textverständlichkeit gilt als komplex, insofern er ein Textverständnis unterschiedlicher Textebenen voraussetzt (Stede 2018). So erscheint es im Hinblick auf die Textproduktion als hilfreich, von einer Texttiefe (nicht sichtbare, aber interpretierbare Funktionen und thematische Relationen) und Textoberfläche (Lexik, Syntax) auszugehen. Strategien der Textproduktion sind Gegenstände der textlinguistischen Forschung (Text als Schreibziel; Grundlagen in Krings/Antos 1992) wie der kognitiv-psychologischen Schreibforschung (s. 5.1) oder der Schreibdidaktik (s. 5.2), die gemischt, mitunter auch in Anlehnung an die klassische Rhetorik theoretisch und empirisch ausgerichtet sind. Hier schließen sich auch journalistische Ansätze an wie Schümchen 2008, Bechtel/Thoma 2011. Die Bezüge zur Technischen Dokumentation sind vielfältig. Ihnen gemeinsam sind Standardisierungsbemühungen, die die Makroebene des Textganzen erfassen (Muthig 2008, Göpferich 2011, 2019, Tjarks-Sobhani 2012, Schmidt 2012) oder sich auf die Mikroebene von Lexik und Syntax beschränken (Ratgeber, Redaktionsleitfäden, Styleguides), u. a. Grupp 2008, Frei 2008, Kothes 2011, Schlenkhoff 2012, Juhl 2015, Baumert 2016, Hennig/Tjarks-Sobhani 2019, Weissgerber 2020). Des Weiteren gibt es Bezüge zu Themen wie kontrollierte (regulierte) Sprachen und Plansprachen (Vollstedt 2002, Lehrndorfer 2005).
4.2 Strukturieren in Relation von Texttiefe und Textoberfläche Entscheidend für das Verstehen von Zusammenhängen ist die Festlegung der Texteinheiten und von deren Relationen zueinander innerhalb einer Textstruktur. Diese wird durch das Thema bzw. die Themen und Teilthemen und deren Gliederungen innerhalb des Textganzen bestimmt. Dem entspricht ein Textverständnis, nach dem die sichtbare Textoberfläche quasi als Spitze des Eisbergs den relevanteren Teil in der nicht-sichtbaren Texttiefe verbirgt, der beim Lese- und Verstehensprozess aus dem sichtbaren Teil sowie aus der Kenntnis des Kontextes erschlossen werden muss. Beim Schreiben bildet umgekehrt die zur Texttiefe gerechnete, hierarchisch strukturierte Themenstruk-
208
Annely Rothkegel
tur die Basis für die sequenzielle Entfaltung des Themas in einem linearen Fließtext bzw. in einem multilinear geordneten Hypertext, wie er für eine Web-Anwendung üblich ist. Entsprechend findet Verständnissicherung auf zwei Ebenen der sprachlichen Umsetzung statt: einerseits durch strukturelle Merkmale der Texttiefe und andererseits in der Selektion und Sequenzierung der Texteinheiten auf der Textoberfläche. Der Hinweis wie der in der Praxis häufig genannte Rat, möglichst verständlich zu schreiben, kann aufgrund der Unterscheidung von Texttiefe und Textoberfläche in eine wissenschaftliche Methode übersetzt werden. Mit der Theorie der Makrostruktur, eingeführt in den Anfängen der Textlinguistik durch van Dijk (1980), weiter entwickelt in Brinker et al. (2018), liegt ein Instrument für die explizite Darstellung der Themenstruktur vor. Dabei handelt es sich um eine hierarchische Ordnung der thematischen Elemente, die den gesamten Text über mehrere Hierarchieebenen hinweg bis auf Satzund Wortebene repräsentiert. Diese Textrepräsentation lässt sich nutzen für drei Funktionen: sie bildet die Grundlage für die Verständlichkeit des Textes, garantiert Vergleichbarkeit mit anderen Texten und ist geeignet als Ausgangspunkt für die weitere Textarbeit. Die thematische Makrostruktur repräsentiert die Auswahl und Festlegung der zu thematisierenden Wissenselemente und deren Relationen zueinander. In diesem Sinne ist sie zugleich Mittel und Resultat der Kohärenzbildung, wobei durch gezielte Kombination der Bedeutungselemente ein neuer Zusammenhang konstruiert wird. Die Idee der Makrostruktur, die einer hierarchisch geordneten Texttiefenstruktur einen linearen Oberflächentext (Fließtext) gegenüberstellt, eröffnet die Möglichkeit, Verstehen als kognitive Aktivität in vernetzten Strukturen mit den kognitiven Bedingungen des Nacheinanders von Lesen und Schreiben bzw. Hören und Sprechen in Verbindung zu bringen. In diesem Sinne spiegelt sich hier das Prinzip der vernetzten Hypertextorganisation, wie sie z. B. in Websites oder Online-Portalen realisiert ist und die vom Erfinder Vannevar Bush (1945) (metaphorisch) als Prinzip des menschlichen Denkens bezeichnet worden ist. Insofern spielt es auf dieser Ebene der Tiefenstruktur keine Rolle, ob die Schreibaktivitäten auf einen linearen Printtext zielen oder auf einen mehrfach fragmentierten und kombinierten Hypertext. Unterschiede kommen erst auf der Ebene der oberflächenbezogenen Realisierung zum Tragen. Die Offenheit der Makrostruktur für die Arbeit mit tiefenstrukturellen Elementen, die regelhaft in die Einheiten der Oberfläche überführt werden, macht sie brauchbar für eine Reihe von Anwendungen, seien sie intellektuell geplant und ausgeführt und/ oder durch Software unterstützt wie z. B. das Verfahren des Single Source Publishing (Closs 2008), das verwendet wird, um „aus einer Quelle“ alle Versionen des Textes für unterschiedliche Medien zu produzieren. Sie eignet sich als Basis für eine Modularisierung der Textzusammensetzung wie auch für Annotierungen mit metasprachlichen Zusätzen für eine Weiterverarbeitung in Content-Management-Systemen (Hennig/ Tjarks-Sobhani 2013). Ausgehend von einer das Textganze erfassenden Makrostruktur lassen sich im Weiteren zwei Strategien der Textproduktion unterscheiden: top-down und bottom
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
209
up (Schnotz 1994). Erstere nimmt den Text als Ganzes in den Blick, der fortgesetzt in seine thematischen Teile zerlegt wird, bis schließlich die Wortebene erreicht ist. Letztere startet von den Einzelteilen, die in immer umfassendere thematische Einheiten zusammengefasst werden. In der Praxis des Schreibens ergeben sich in der Regel gemischte Verfahren.
4.3 Formulieren Mit der visuell-schriftlichen Form erhält das Textdokument seine Sichtbarkeit für Leser. Beim Schreibprozess stehen entsprechende Entscheidungen an, die selektierten Wissensbestände und thematischen Einheiten durch lexikalische und syntaktische Mittel zum Ausdruck zu bringen (Antos 2008). Sprachbezogene Probleme ergeben sich unter verschiedenen Gesichtspunkten, so insbesondere Aspekte von Angemessenheit hinsichtlich der Kommunikationssituation, d. h. Adressatenbezug, Sachbezug mit der Vertextung von Termini (Kastberg 1999), Explizierung des Kommunikationszwecks sowie Textsortenbezug als Entgegenkommen hinsichtlich der Lesererwartung. Ein etwas problematischer Punkt betrifft die häufig erwünschte Kürze, ein Phänomen, das mit der Nutzung von Onlinemedien verstärkt zum Vorschein kommt. Auf Wort- und Satzebene muss damit gerechnet werden, dass Kürze zu syntaktischen und semantischen Verdichtungen von Informationen führt, die die Verständlichkeit verringern, oder zu Informationsverlust, was dem Zweck der Wissensvermittlung entgegensteht. Auf der Ebene von Teiltexten, insbesondere in Hypertexten, führt die Vermehrung von Kurztexten zu komplexen Verknüpfungsstrukturen, die zusätzliche Maßnahmen der Verständnissicherung z. B. durch Überblickskarten (Hypertextmaps) notwendig machen, in denen die Gesamtstruktur metatextlich dargestellt ist. Hinsichtlich der Nutzung mobiler Technologie bildet die Kürze wegen des beschränkten Platzes auf dem Display eine Notwendigkeit (Broda 2011).
4.4 Präsentieren Die finale Fassung des Textdokuments (Print- oder Online-Format) präsentiert sich als Ganzheit und in einer spezifischen medialen Textgestalt (Blatt/Hartmann 2004). Diese trifft zuerst auf die Wahrnehmung der Leser und lenkt deren Aufmerksamkeit. In einem zweiten Schritt kommen die Textstruktur und damit der Zugang für den inhaltlich-funktionalen Zusammenhang zum Tragen. Hierbei unterstützt die Kenntnis der Textsorte die Wiedererkennung des Textaufbaus (Wüest 2011), der in der Regel durch Überschriften abgebildet wird. Die Textgestalt lässt sich in der Perspektive eines linguistischen Stilbegriffs im Sinne von fortgesetzter Selektion eines Typs von sprachlichen Mitteln bzw. unter dem Produktionsaspekt dem des Textdesigns (corporate design) erfassen. Insofern als
210
Annely Rothkegel
Technisches Schreiben auf relativ eingrenzbare Verwendungssituationen der Dokumentation ausgerichtet ist (Klemm 2005), spielen Standardisierungen auch hier eine große Rolle. Dazu gehört u. a. die Einbindung von Bildern, Grafiken und Tabellen bzw. online auch von Videos und Filmen. Eine häufig versuchte Kompensation durch Verwendung von textergänzenden oder textersetzenden Bildern, begünstigt durch multimediale Realisierungen, mag oberflächlich, d. h. auf der Wahrnehmungsebene eine Wirkung erzeugen, ist aber ebenfalls an spezifische Bedingungen der Verständnissicherung gebunden, die ihrerseits eine gewisse Lesekompetenz verlangen, um Verständnis in der Sache zu erlangen. Generell gilt, dass die Verwendung visueller Mittel (z. B. auch solche wie Farbe, Layout, Typografie), ähnlich wie es bei textuellen Mitteln der Fall ist, an kognitive und kulturell bestimmte Darstellungskonventionen gebunden sind, die einen mehr oder weniger großen Spielraum für kreative sowie technisch unterstützte Gestaltung bieten (Ballstaedt 2012). Eine spezifische Rolle spielen Metatexte, in denen Lese- und Verständnishilfen in die Textdokumente eingefügt sind. Als irritierend mag es dabei wirken, wenn in einer Formulierung wie Bitte lesen Sie vor Inbetriebnahme des Gerätes die Bedienungsanleitung sowie die Sicherheitsvorschriften die Darstellung der Risiken als unabhängig von den Handlungen an und mit dem Gerät betrachtet werden (was historisch motiviert sein mag, insofern das Thema Sicherheit erst seit einiger Zeit Gegenstand der Aufmerksamkeit ist; vgl. 3.4). Einen anderen interessanten Fall betrifft das Phänomen, dass Sprache und Texte selbst ein Bestandteil des technischen Produkts sind und damit wiederum Gegenstand der Dokumentation werden (vgl. „Textreflexe“ in Schubert 2007b).
5 Schreibprozesse und Management der Textarbeit 5.1 Abläufe des Technischen Schreibens Mit den Fragen des Managements der Textarbeit (Arbeitsschritte, Abläufe) kommen die Schreibprozesse als solche in den Blick und damit die Schreibenden: Was tun sie wann, wozu, mit welchen Schreibzielen und Mitteln? Neben der eher produktorientiert ausgerichteten Disziplin der Textlinguistik (vgl. dynamischen Ansatz in Fritz 2017) etablieren sich zunehmend die Richtungen der (vorwiegend psychologisch oder pädagogisch orientierten) prozessorientierten Schreibforschung und Schreibdidaktik („Schreibwissenschaft“ in Huemer et al. 2021, zu den Methoden Becker-Mrotzek et al. 2017, Brinkschulte/Kreitz 2017). An etlichen Hochschulen und Forschungseinrichtungen haben sich mittlerweile Schreibzentren, Schreibwerkstätten oder Schreiblabore angesiedelt, teils zu Forschungszwecken, teils zur praktischen Unterstützung von Lehrenden und Studierenden beim Verfassen von qualifizierenden Texten (Ulmi et al. 2017). Entsprechend gibt es Angebote zum wissenschaftlichen, schulischen oder generell beruflichen Schreiben.
211
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
Die Professionalisierung des Technischen Schreibens hat dazu geführt, dass sich theoretische Ansätze und „best-practice“-Regeln mischen. Dabei stößt man auf in der Linguistik bislang weniger beachtete Phänomene. Dazu gehören Fragen der Qualität (Produkt- und Prozessqualität) und Qualitätsüberprüfung (Kamiske/Brauer 2020), insbesondere im Hinblick auf Gebrauchstauglichkeit und -freundlichkeit (usability, ergonomy; Hennig/Tjarks-Sobhani 2006), Fragen der Wiederverwendbarkeit (Text-Recycling; Problematik der „Rekombinationstexte“ in Schubert 2004) sowie die Einordnung der Arbeitsabläufe in vorhandene Geschäftsprozesse, so die Dokumentenverwaltung im Rahmen eines Dokumenten-Lebenszyklus nach dem Vorbild des Konzepts vom Produkt-Lebenszyklus. Was allerdings wie ein roter Faden durch alle diese Anwendungen verläuft, betrifft ein grundsätzliches linguistisches Problem, nämlich das der Einheitenbildung. Es fragt sich, nach welchen Kriterien die für die Schreibprozesse relevanten Texteinheiten fragmentiert werden, um im Hinblick auf das Schreibziel wieder zusammengesetzt zu werden. Diese Frage betrifft sowohl die intellektuelle Textarbeit wie auch die halb- oder vollautomatisierten Arbeitsschritte mit dem Einsatz von Redaktionssystemen bzw. spezifischen Software-Werkzeugen (Hennig/TjarksSobhani 2013, Drewer/Ziegler 2014). Im Folgenden werden zwei Entwicklungen des Technischen Schreibens etwas näher beleuchtet. Die eine Tendenz zielt auf Phänomene von individuell anvisierten Schreibprozessen (Schreibkompetenz, Strategien der Modularisierung und Phasenbildung; 5.2). Eine zweite Linie der Betrachtung fokussiert auf gruppenbezogenes Schreiben („kooperatives Schreiben“ bzw. „Schreiben im Team“ und dessen Einbindung in Bedingungen des Arbeitsplatzes (5.3).
5.2 Modularisierung der Schreibprozesse und Schreibkompetenzen Mit der Schreibforschung, zuerst in den USA (Überblick in Hayes 2012), später auch in Deutschland (Eigeler et al. 1993, Blatt/Hartmann 2004, Knorr et al. 2014), wurde der Prozesscharakter des Schreibens zum wissenschaftlichen Gegenstand. Dabei ging es um die kognitiven Aspekte mit der dreigliedrigen Unterscheidung von Phasen wie Planung (pre-writing), Produktion (writing) und Revision (post-writing). Auch wenn hier die prozessbezogenen Aspekte des menschlichen Tuns im Vordergrund stehen, bleiben die Resultate in Form zu unterscheidender Textzustände im Blick, wobei sich der nächste Zustand aus dem vorigen entwickelt (Saathoff 2012). Damit wird gleichzeitig die Verbindung zu konkreten sprachbezogenen Problemen hergestellt, die in der Praxis des Technischen Schreibens auftreten, von denen einige exemplarisch in den vorangegangenen Abschnitten thematisiert worden sind. Der andere Blick richtet sich auf die Schreibenden und deren Schreibkompetenzen. Im Rahmen der Schreibdidaktik geht es um Bemühungen, vergleichbare Untersuchungsmethoden und Bewertungsmaßstäbe zu entwickeln. Dabei stehen u. a. Dis
212
Annely Rothkegel
ziplinen bzw. Berufsfelder im Fokus, die mit technischen Sachverhalten zu tun haben (Faust 2013, Hirsch-Weber/Scherer 2016, Jörissen/Lemmenmeier 2016).
5.3 Kooperatives Schreiben am Arbeitsplatz Im Hinblick auf das Schreiben im Team (oder auch kollaboratives Schreiben) kommen zwei entgegengesetzte Tendenzen zum Tragen. In der Perspektive der Schreibdidaktik (Girgensohn/Sennewald 2012) wird die Reflexion über den Schreibprozess, an dem man beteiligt ist, gefördert, so dass u. a. auch die eigenen individuellen Schreibstrategien bewusster wahrgenommen werden können. Als Mitglied im Team muss man wissen, welche Art Beitrag wer wann und zu welchem Zweck leistet, um den eigenen Beitrag angemessen zu gestalten und auf die anderen Beiträge adäquat zu reagieren. Gefördert werden Zielsetzungs-, Strukturierungs- und Formulierungskompetenz. In den Redaktionen von Verlagen haben sich vor allem zwei Varianten bewährt, die sich in der Rolle der Autoren unterscheiden: Es gibt einen verantwortlichen Autor für den Text, wobei die anderen beteiligten Kommentare und Veränderungsvorschläge einbringen, die der Hauptautor in den Text einarbeitet. In der anderen Variante liefern alle Beteiligten Teiltexte, die an einer zentralen Stelle zusammengefasst werden. In der so entstehenden Teamkommunikation liegen große Chancen für eine Optimierung der Resultate, unabhängig davon, ob auf Softwareunterstützung zurückgegriffen wird oder nicht. Im Vordergrund stehen das Schreibziel sowie alle Maßnahmen zum Gelingen seiner kommunikativen Funktion. In der Praxis der Arbeitswelt gelten verschiedentlich andere Prioritäten, auch wenn das Schreiben im Team den Normalfall bildet. Beim Technischen Schreiben im Unternehmen kommt die spezifische Arbeitsplatzsituation hinzu (Jakobs et al. 2005, Karras 2017). So besteht die Redaktion in der Regel bereits aus einem Team mit gewohnter Arbeitsteilung. Hier laufen des Weiteren Informationen aus anderen Abteilungen zusammen. Zudem besteht die Tendenz, die Produktion von Texten in Anlehnung an die Herstellung technischer Produkte zu organisieren, wobei die Modellierung der eingesetzten Softwaresysteme den gesamten Arbeitsablauf („Workflow“) bestimmt. Die standortübergreifende Kooperation in internationalen Unternehmen mit dem Konzept einer hohen Aufgabenspezialisierung der Beteiligten führt dazu, dass eine Autorenschaft für das Gesamtdokument nicht mehr existiert. Anders als beim vernetzten Schreiben mit der Problematik der Kohärenzbildung verschiebt sich beim textfernen Management das Interesse weg von der Produktqualität hin zur Prozessqualität mit vorgegebenen sprachlichen lexikalischen und syntaktischen Inventaren.
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
213
6 Ausblick: Spielräume im Kontaktbereich von Technik- und Kommunikationskulturen Mit der thematischen Objektbindung ist die Tätigkeit des Technischen Schreibens durch eine Doppelperspektive bestimmt, durch den Blick auf das technische Produkt einerseits und auf das anvisierte bzw. erstellte Textdokument andererseits. In dieser Doppelperspektive kann ein eher engerer oder weiterer Rahmen gewählt werden. Der Schwerpunkt des Beitrags fokussierte bisher auf einen engeren Rahmen, also auf spezifische linguistische Beschreibungszugänge. In diesem abschließenden Abschnitt werden Spielräume und Entwicklungsmöglichkeiten des Technischen Schreibens im Hinblick auf dessen kulturellen Horizonte angesprochen. Die zunehmende technologische Durchdringung professioneller und alltäglicher Lebenswelten (Banse et al. 2019) ist – seit gut zehn Jahren – Anlass, die kulturell-sozialen Implikationen zu thematisieren. In diesem Sinne präferiert Ropohl (2009) die Bezeichnung „soziotechnisches System“ anstelle von Technik oder Technologie. In Banse/Grunwald (2010) und Banse/Rothkegel (2014) werden unterschiedliche Modelle der Beziehungen zwischen Technik und Kultur explizit gemacht, Rösch (2008) lenkt den Blick auf die Interkulturalität von Technik. Vor dem Hintergrund eines allgemeinen Kulturbegriffs (Hansen 2011), der durch das Trio von Kollektivität, Standardisierung und Kommunikation bestimmt ist, lassen sich Technikkulturen als sozial geprägte Standards der Technikentwicklung und Techniknutzung (bezogen auf mehr oder weniger abgegrenzte Gemeinschaften) differenzieren, wobei es auch darauf ankommt, wie darüber kommuniziert wird. Letzteres betrifft einzelne Technikkulturen („Algorithmuskulturen“ in Seyfert/Roberge 2017) oder generelle, technisch orientierte „Weltbilder“ (Fischer 2017). Was die Ebene des öffentlichen Berichtswesens mit möglichen Auswirkungen auf das Technische Schreiben betrifft, gibt es – seit 20 Jahren – internationale Standardisierungsbemühungen, in denen auch das thematisierte Wissen Berücksichtigung findet. Die privatwirtschaftlich organisierte „Global Reporting Initiative“ (GRI 2021), seit 2002 mit Sitz in Amsterdam, arbeitet kontinuierlich an der Ausarbeitung und Publikation allgemeiner Standards der Berichterstattung mit Anforderungen an die Selektion der zu thematisierenden Informationen (Erkennbarkeit von Entscheidungspfaden, Transparenz und Relevanz der Daten (Qualitätsdaten anstelle von Klickdaten, Rothkegel 2019) sowie Begründungen zu präsentierten und nicht-präsentierten Themen (z. B. Angaben zur Herkunft der Rohstoffe, zum Umgang mit den Ressourcen entlang von Liefer-, Produktions- und Vertriebsketten sowie zu Entsorgungskonzepten und sozialen Umfeldern). Offiziell wurden die 2015 von der UN vereinbarten „17 Sustainable Development Goals“ (deutsch: Bundesregierung „Agenda 2030“, 2018) in das Programm der GRI aufgenommen. Inwieweit solche Erweiterungen des Spektrums bei der Sprach- und Textarbeit Berücksichtigung finden, ist von der jeweiligen Kommunikationssituation abhängig. Dies gilt ebenfalls für die Berücksichtigung ethischer Aspekte
214
Annely Rothkegel
(Spiekermann 2016, Grimm/Zöllner 2018). Die Art der Standards, die das Technische Schreiben bestimmen, ordnet es unterscheidbaren Kommunikationskulturen zu. Innerhalb des skizzierten Horizonts gewinnt die Tätigkeit des Technischen Schreibens einen Spielraum im Umgang mit Textdokumenten (weiter bzw. enger Rahmen). Im Hinblick auf die Objektbindung erhält das jeweilige Objekt seinen Stellenwert in einer durch sprachliche Kommunikation sichtbar gemachten Technikkultur. In zahlreichen Wahlmöglichkeiten, angepasst an die jeweilige Technikkultur und in Abhängigkeit inhaltlicher wie auch sprachlich-textlicher Standards, zeigen sich die vielfältigen Facetten wandelbarer Kommunikationskulturen, in denen Technisches Schreiben seinen jeweils aktuellen Platz hat.
7 Literatur Adamzik, Kirsten (2016): Textlinguistik: Grundlagen, Kontroversen, Perspektiven. Berlin/Boston. Adamzik, Kirsten (2018): Fachsprachen. Die Konstruktion von Welten. Tübingen. Agricola, Georg (1928): De Re Metallica Libri XII. Zwölf Bücher vom Hüttenwesen. Nachdruck der deutschen Erstausgabe des VDI-Verlags Berlin durch Fourier Verlag (2003), Wiesbaden (1556 Erstdruck posthum in lateinischer Sprache in Basel erschienen). Andersen, Christiane/Ulla Fix/Jürgen Schiewe (Hg.) (2018): Denkstile in der deutschen Sprachwissenschaft. Bausteine einer Fachgeschichte aus dem Blickwinkel der Wissenschaftstheorie Ludwik Flecks. Berlin. Antos, Gerd (2008): Schriftliche Textproduktion: Formulieren als Problemlösung. In: Nina Janich (Hg.): Textlinguistik. 15 Einführungen. Tübingen, 237‒254. Atayan, Vahram/Thomas Metten/Vasco Schmidt (2015): Sprache in Mathematik, Naturwissenschaften und Technik. In: Ekkehardt Felder/Andreas Gardt (Hg.): Handbuch Sprache und Wissen. Berlin/ Boston, 411‒434. Ballstaedt, Steffen-Peter (2012): Visualisieren. Konstanz. Ballstaedt, Steffen-Peter (2019): Sprachliche Kommunikation: Verstehen und Verständlichkeit. Tübingen. Banse, Gerhard/Armin Grunwald (Hg.) (2010): Technik und Kultur. Bedingungs- und Beeinflussungsverhältnisse. Karlsruhe. Banse, Gerhard/Annely Rothkegel (Hg.) (2014): Neue Medien: Interdependenzen von Technik, Kultur und Kommunikation. Berlin. Banse, Gerhard/Julia Thelen/Stephan Lingner (Hg.) (2019): Industrie 4.0 zwischen Idee und Realität. Ein Ländervergleich. Berlin. Baumert, Andreas (2016): Texten für die Technik. Leitfaden für Praxis und Studium. 2. Aufl. Heidelberg. Beaugrande, Alain R. de/Wolfgang Dressler (1981): Einführung in die Textlinguistik. Tübingen. Bechtel, Michael/Thoma, Volker (2011): Schreiben über Technik. Konstanz. Becker-Mrotzek, Michael/Joachim Grabowski/Torsten Steinhoff (Hg.) (2017): Forschungshandbuch empirische Schreibdidaktik. Münster/New York. Blatt, Inge/Wilfried Hartmann (2004): Schreibprozesse im medialen Wandel. Ein Studienbuch. Baltmannsweiler. Braun, Sabine/Kurt Kohn (Hg.) (2005): Sprache(n) in der Wissensgesellschaft. Frankfurt a. M. Brinker, Klaus/Hermann Cölfen/Steffen Pappert (2018): Linguistische Textanalyse. Eine Einführung in Grundbegriffe und Methoden. 9. Aufl. Berlin.
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
215
Brinkschulte, Melanie/David Kreitz (Hg.) (2017): Qualitative Methoden in der Schreibforschung. Bielefeld. Broda, Sonja (2011): Mobile Technische Dokumentation. Studie zu Einsatzmöglichkeiten mobiler Endgeräte in der Technischen Dokumentation. Lübeck. Bühler, Karl (1934): Sprachtheorie. Die Darstellungsfunktion der Sprache. Jena (Neudruck 1999, Stuttgart). Bundesregierung „Agenda 2030“ (2018): Nachhaltigkeitsziele verständlich erklärt. bundesregierung. de/breg-de/themen/nachhaltigkeitspolitik/nachhaltigkeitsziele-verstaendlich-erklaert-232174 (Zugriff 01.02.2021). Bush, Vannevar (1945): As we may think. In: Atlantic Monthly 176/1, 101‒108. Closs, Sissi (2007): Single Source Publishing. Topicorientierte Strukturierung und DITA. Siegen/ Paderborn. Dijk, Teun A. van (1980): Textwissenschaft. München. DIN Taschenbuch 351 (2008): Technische Dokumentation. Normen für Produktdokumentation und Dokumentenmanagement. Berlin. Drewer, Petra/Wolfgang Ziegler (2014): Übersetzungsgerechte Texterstellung und Content-Management. 2. Aufl. Würzburg. Ehlich, Konrad/Claus Noack/Susanne Scheiter (1994): Instruktion durch Text und Diskurs. Zur Linguistik ‚technischer Texte‘. Wiesbaden. Eigeler, Gunther/Thomas Jechle/Monika Kolb/Alexander Winter (1997): Textverarbeiten und Textproduzieren. Tübingen. Faust, Martina (2013): Informationsschreiben in der IT-Branche. Ein Leitfaden und Qualitätsprüfungsverfahren. Wiesbaden. Felder, Ekkehard/Andreas Gardt (Hg.) (2015): Handbuch Sprache und Wissen. Berlin/Boston. Fischer, Ernst Peter (2017): Hinter dem Horizont. Eine Geschichte der Weltbilder. Berlin. Forster, Ulrich (2007): Bedingungen für gelungene Experten-Laien-Kommunikation in der Qualifizierungsberatung. München. Frei, Viktor (2008): Was Styleguides der IT-Riesen regeln. In: Sprache und Datenverarbeitung 32/2, 27‒50. Fritz, Gerd (2017): Dynamische Texttheorie. http://creativecommons.org/licenses/by-nc-nd/3.0/de (Zugriff 08.02.2021). Girgensohn, Katrin/Sennewald, Nadja (2012): Schreiben lehren – Schreiben lernen. Eine Einführung. Darmstadt. Göpferich, Susanne (2008): Textverstehen und Textverständlichkeit. In: Nina Janich (Hg.): Textlinguistik. 15 Einführungen. Tübingen, 291‒312. Göpferich, Susanne (2011): Technische Kommunikation. In: Karlfried Knapp/Gerd Antos/Michael Becker-Mrotzek/Arnulf Deppermann/Susanne Göpferich/Joachim Grabowski/Michael Klemm/ Claudia Villiger (Hg.): Angewandte Linguistik. Ein Lehrbuch. 3. Aufl. 149‒171. Tübingen/ Basel. Göpferich, Susanne (2019): Textproduktion im Zeitalter der Globalisierung. Entwicklung einer Didaktik des Wissenstransfers. (1. Aufl. 2006, Tübingen. 2019 als Taschenbuch), Tübingen. GRI (2021): Global Reporting Initiative. https://globalreporting.org(Zugriff 01.02.2021). Grimm, Petra/Oliver Zöllner (Hg.) (2018): Mensch – Maschine. Ethische Sichtweisen auf ein Spannungsverhältnis. Stuttgart. Grober, Ulrich (2010): Die Entdeckung der Nachhaltigkeit. Kulturgeschichte eines Begriffs. München. Grupp, Josef (2008): Handbuch Technische Dokumentation: Produktinformation rechtskonform aufbereiten, wirtschaftlich erstellen, verständlich kommunizieren. München. Gutermann, Barbara (1996): Die Raumdarstellung in deutschen und französischen technischen Texten. Frankfurt a. M.
216
Annely Rothkegel
Hackos, JoAnn T. /Janice C. Redish (2000): User and task analysis for interface design. 2. Aufl. New York. Hansen, Klaus P. (2011): Kultur und Kulturwissenschaft. Eine Einführung. 4. Aufl. Tübingen/Basel. Hayes, John (2012): Modelling and Remodelling Writing. In: Written Communication 29, 369‒388. Heine, Carmen (2010): Modell zur Produktion von Online-Hilfen. Berlin. Hennig, Jörg/Marita Tjarks-Sobhani (Hg.) (2006): Usability und Technische Dokumentation. Lübeck. Hennig, Jörg/Marita Tjarks-Sobhani (Hg.) (2013): Content Management und Technische Kommunikation. Stuttgart. Hennig, Jörg/Marita Tjarks-Sobhani (Hg.) (2019): Verständlichkeit als Problem der Technischen Dokumentation. Stuttgart. Heringer, Hans Jürgen (2016): Linguistische Texttheorie. Eine Einführung. Tübingen. Hermeking, Marc (2012): Cultural aspects of technology and documentation: Contributions from the field of intercultural communication. In: Annely Rothkegel/Sonja Ruda (Hg.): Communication on and via Technology. Berlin, 203‒215. Hirsch-Weber, Andreas/Stefan Scherer (2016): Wissenschaftliches Schreiben in Natur- und Technikwissenschaften. Neue Herausforderungen der Schreibforschung. Wiesbaden. Hörning, Karl H. (2001): Experten des Alltags. Die Wiederentdeckung des praktischen Wissens. Weilerswist. Huemer, Birgit/Ursula Doleschal/Ruth Wiederkehr/Katrin Girgensohn (2021): Schreibwissenschaft – eine neue Disziplin. Diskursübergreifende Perspektiven. Wien. Jäger, Stephan (2004): Altägyptische Berufstypologie. Göttingen. Jakobs, Eva-Maria/Katrin Lehnen/Kirsten Schindler (Hg.) (2005): Schreiben am Arbeitsplatz. Heidelberg. Janich, Nina (Hg.) (2008): Textlinguistik. 15 Einführungen. Tübingen. Jörrissen, Stefan/Max Lemmenmeier (2016): Schreiben in Ingenieurberufen – Praxishandbuch für Ausbildung und Arbeitswelt. 3. Aufl. Bern. Johnson Laird, P. N. (2010): Mental models: Towards a cognitive science of language, inferences, and consciousness. (1. Aufl. 1983). Cambridge. Juhl, Dietrich (2015): Technische Dokumentation: Praktische Anleitungen und Beispiele. 3. Aufl. (1. Aufl. 2005). Berlin. Kamiske, Gerd F./Jörg-Peter Brauer (Hg.) (2020): ABC des Qualitätsmanagements. München. Karras, Simone (2017): Wie schreiben Ingenieure im Beruf? Ein arbeitsplatzbezogenes Kommunikationsprofil. Münster. Kastberg, Peter (1999): Die Vertextung von Termini als Ausweis textueller Strategien in technischen Textsorten. In: Hermes. Journal of Linguistics 23, 41‒63. Keller, Rudi (2018): Zeichentheorie. Eine pragmatische Theorie semiotischen Wissens.2. Aufl. Tübingen. Kiel, Ewald/Friedrich Rost (2002): Einführung in die Wissensorganisation. Grundlegende Probleme und Begriffe. Würzburg. Klemm, Victoria (2005): Verwendungssituation und Textgestalt. Stuttgart. Knorr, Dagmar/Carmen Heine/Joachim Engberg (Hg.) (2014): Methods in Writing Process Research. Textproduktion und Medium. Frankfurt a. M. König, Wolfgang (2010): Das Kulturelle in der Technik. Kulturbegriffe und ihre Operationalisierung für die Technik. In: Gerhard Banse/Armin Grunwald (Hg.): Technik und Kultur. Bedingungs- und Beeinflussungsverhältnisse. Karlsruhe, 73‒87. Kothes, Lars (2011): Grundlagen der Technischen Dokumentation. Anleitungen verständlich und normgerecht erstellen. Düsseldorf. Krings, Hans P./Gerd Antos (Hg.) (1992): Textproduktion. Neue Wege der Forschung. Trier. Kuhn, Carmen (2019): Studentische Textkompetenz im Fach Maschinenbau. Eine qualitative Interviewstudie. Bielefeld.
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
217
Lehrndorfer, Anne (2005): Kontrolliertes Deutsch: Linguistische und sprachpsychologische Leitlinien für eine (maschinell) kontrollierte Sprache in der Technischen Dokumentation. Tübingen. Lotze, Netaya (2016): Chatbots. Eine linguistische Analyse. Frankfurt a. M. Mehler, Alexander/Laurent Romary (Hg.) 2012): Handbook of Technical Communication. Berlin. Meixner, Uwe (2011): Einführung in die Ontologie. 2. Aufl. Darmstadt. Mijksenaar, Paul/Piet Westendorp (1999): Open here. The Art of Instructional Design. New York. Deutsche Ausgabe (2000): HIER ÖFFNEN. Die Kunst der Gebrauchsanleitung. Köln. Muthig, Jürgen (Hg.) (2008): Standardisierungsmethoden für die Technische Dokumentation. Stuttgart. Niederhauser, Jürg/Kirsten Adamzik (Hg.) (1999): Wissenschaftssprache und Umgangssprache im Kontakt. Frankfurt a. M. Oevermann, Jan (2019): Optimierung des semantischen Informationszugriffs auf Technische Dokumentation. Diss. Universität Bremen, Bremen. Pörings, Ralf /Ulrich Schmitz (Hg.) (2003): Sprache und Sprachwissenschaft. Eine kognitiv orientierte Einführung. Tübingen. Pogner, Karl-Heinz (1999): Schreiben im Beruf als Handeln im Fach. Tübingen. Reichenbach, Hans (1977): Philosophie der Raum-Zeit-Lehre. Wiesbaden (Erstveröffentlichung 1928 Berlin). Rösch, Olga (Hg.) (2008): Technik und Kultur. Berlin. Ropohl, Günter (2009): Allgemeine Technologie. Eine Systemtheorie der Technik. 3. Aufl. Karlsruhe. Rothkegel, Annely (2007): Kulturspezifische Technikkommunikation. In: Jürgen Straub/Arne Weidemann/Doris Weidemann (Hg.): Handbuch interkulturelle Kommunikation und Kompetenz. Grundbegriffe – Theorien – Anwendungsfelder. Stuttgart. 604‒613. Rothkegel, Annely (2010a): Technikkommunikation. Produkte, Texte, Bilder. Konstanz. Rothkegel, Annely (2010b): Sicherheitsmodelle und Kommunikationsrisiko. In: Petra Winzer/Eckehard Schnieder/Friedrich-Wilhelm Bach (Hg.): Sicherheitsforschung – Chancen und Perspektiven. Heidelberg, 207‒220 (acatech diskutiert). Rothkegel, Annely (2013): Sicherheitskommunikation. Kommunikationskulturen im Kontext der Techniknutzung. In: Gerhard Banse/Ernst-Otto Reher (Hg.): Technik – Sicherheit – Techniksicherheit. Berlin, 13‒30. Rothkegel, Annely (2017): Lernort Text: Zur Studie „Lernen mit Texten / Wissenserwerb durch selbstgesteuertes Lernen“ (Themenfeld Nachhaltigkeit). Hildesheim. Rothkegel, Annely (2019): Arbeiten mit Qualitätsdaten oder Clickworking – Optionen für die Technische Kommunikation. In: Yolanda-Mirela Catelly (Hg.): Limba, Cultura si Civilizatie. Bucuresti, 27‒32. Rothkegel, Annely (2020): Produkte und Menschen: die Treiber des Wandels. In: Julius Erdmann/Björn Egbert/Sonja Ruda/Karel Mracek (Hg.): Industrie 4.0, Kultur 2.0 und die Neuen Medien – Realitäten, Tendenzen, Mythen. Berlin, 55‒66. Rothkegel, Annely (2021): Kommunikationsarbeit in digitalen Kontexten. In: Julius Erdmann/Björn Egbert (Hg.): Menschliche Praktiken und Beziehungen in der mediatisierten Welt – Wandel, Nachhaltigkeit und Verantwortung. Berlin, 61‒71. Rothkegel, Annely/Sonja Ruda (Hg.) (2012): Communication on and via Technology. Berlin. Saathoff, Jens (2012): Textproduktion und Schreibdidaktik. München. Schlenkhoff, Andreas (2012): DUDEN Ratgeber – Technische Dokumentation. Beschreibende und anleitende Texte. Mannheim. Schmidt, Vasco Alexander (2012): Software documentation: The role of compu-ters as a means, tool and medium. In: Annely Rothkegel/Sonja Ruda (Hg.): Communication on and via Technology. Berlin, 177‒201. Schnotz, Wolfgang (1994): Aufbau von Wissensstrukturen. Untersuchungen zur Kohärenzbildung bei Wissenserwerb mit Texten. Weinheim.
218
Annely Rothkegel
Schubert, Klaus (2004): Rekombinationstexte und Wissensatome. In: Sabine Braun/Kurt Kohn (Hg.): Sprache(n) in der Wissensgesellschaft. Frankfurt a. M., 143‒153. Schubert, Klaus (2007a): Wissen, Sprache, Medium, Arbeit. Tübingen. Schubert, Klaus (2007b): Textreflexe. Zur mehrsprachigen Dokumentation texthaltiger Produkte. In: Claudia Villiger/Heidrun Gerzymisch-Arbogast (Hg.): Kommunikation in Bewegung. Multimedialer und multilingualer Wissenstransfer in der Experten-Laien-Kommunikation. Frankfurt a. M., 151‒165. Schümchen, Andreas/Deutscher Fachjournalisten-Verband (2008): Technikjournalismus. Konstanz. Schwarz-Friesel, Monika/Manfred Consten (2014): Einführung in die Textlinguistik. Darmstadt. Searle, John R. (1969): Speech Acts – An Essay in the philosophy of Language. Cambridge; (1971): Sprechakte. Frankfurt a. M. Seyfert, Robert/Jonathan Roberge (Hg.) (2017): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit. Bielefeld. Shannon, Claude/Warren Weaver (1949): The mathematical theory of communication. 2. Ed. 1995. Urbana, Illinois. Spiekermann, Sarah (2016): Ethical Innovation. A Value-Based System Design Approach. Boca Raton, Florida. Staffeldt, Sven (2008): Einführung in die Sprechakttheorie. Tübingen. Stede, Manfred (2018): Korpusgestützte Textanalyse: Grundzüge der Ebenenorientierten Textlinguistik. Tübingen. Stein, Peter (2010): Schriftkultur. Eine Geschichte des Schreibens und Lesens. Darmstadt. Stieniczka, Norbert (2006): Das „narrensichere“ Auto. Die Entwicklung passiver Sicherheitstechnik in der Bundesrepublik Deutschland. Darmstadt. Tjarks-Sobhani, Marita (2012): Professionelles Schreiben als Basiskompetenz. Diskussion eines Leitfadens. In: Regina Freudenfeld/Florian Feuser (Hg.): Mit Sprache(n) zum Beruf. Translation. Interkulturelle Kommunikation. Wirtschaftskommunikation. Hildesheim, 132‒147. Tillmann, Martin et al. (2020): Umsetzung der IEC/IEEE 82079 – 1 Ed. 2. Lübeck. Ulmi, Marianne/Gisela Bürki/Annette Verhein-Jarren/Madeleine Marti (2017): Textdiagnose und Schreibberatung. Fach- und Qualifizierungsarbeiten begleiten. 2. Aufl. Leverkusen. Vater, Heinz (2005): Referenz-Linguistik. München. Villiger, Claudia (2020): Smarte Informationsprodukte im digitalen Nutzungskontext. In: Barbara Ahrens/Morvem Beaton-Thome/Monika Krein-Mühle et al. (Hg.): Interdependenzen und Innovationen in Translation und Fachkommunikation. Berlin, 239‒261. Villiger, Claudia/Heidrun Gerzymisch-Arbogast (Hg.) (2007): Kommunikation in Bewegung. Multimedialer und multilingualer Wissenstransfer in der Experten-Laien-Kommunikation. Frankfurt a. M. Vollstedt, Marina (2002): Sprachenplanung in der internen Kommunikation internationaler Unternehmen. Hildesheim. Weingarten, Rüdiger (Hg.) (1990): Information ohne Kommunikation? Die Loslösung der Sprache vom Sprecher. Frankfurt a. M. Weissgerber, Monika (2020): Schreiben in technischen Berufen. 3. Aufl. (1. Aufl. 2010), Erlangen. Wenz, Karin (1997): Raum, Raumsprache und Sprachräume. Zur Textsemiotik der Raumbeschreibung. Tübingen. Winzer, Petra/Schnieder, Eckehard/Bach, Friedrich-Wilhelm (Hg.) (2010): Sicherheitsforschung – Chancen und Perspektiven. Heidelberg ( acatech diskutiert.) Wichter, Sigurd (2011): Kommunikationsreihen aus Gesprächen und Textkommunikaten. Zur Kommunikation in und zwischen Gesellschaften. Tübingen. Wrobel, Arne (2012): Schreiben als Handlung. Überlegungen und Untersuchungen zur Theorie der Textproduktion (Reprint von 1995). Berlin. Wüest, Jakob (2011): Was Texte zusammenhält. Zu einer Pragmatik des Textverstehens. Tübingen.
Technisches Schreiben: Spracharbeit an und mit Textdokumenten zur Techniknutzung
219
Zehrer, Christiane (2014): Wissenskommunikation in der technischen Redaktion. Die situierte Gestaltung adäquater Kommunikation. Berlin. Zerfaß, Ansgar/Manfred Piwinger/Ulrike Röttger (Hg.) (2021): Handbuch Unternehmenskommunikation. 3. Aufl. Wiesbaden. Ziem, Alexander (2008): Sprachliches Wissen und Frames. Kognitive Aspekte der semantischen Kompetenz. Berlin/New York.
Radegundis Stolze
8. Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik Abstract: Aufgrund weltweit vernetzter Kommunikation kommt der Fachübersetzung heute eine sehr große Bedeutung zu, denn sie dient der Fortsetzung der fachlich-wissenschaftlichen Kommunikation über Sprachbarrieren hinweg. Hier steht die linguistische Perspektive im Vordergrund und die übersetzerische Kompetenz erstreckt sich auf Kenntnisse zur Sprachanalyse und Bedeutungskonstitution sowie auf diskursfeldspezifische Formulierungsweisen in den einzelnen Domänen. Wesentliche Punkte des Arbeitsansatzes für Fachübersetzer sind der translatorische Terminologievergleich, basierend auf Begriffsbildung und Benennungssystem, die Terminologiearbeit unter Beachtung der Terminologienormung und Terminologieverwaltung sowie Aspekte der Sprachform wie Wortbildung, Funktionalstil und Textsortennormen. Im Blick auf das Textverstehen richtet sich das Augenmerk auf den Wissenschaftsbereich und das Fachgebiet mit seiner spezifischen Begrifflichkeit. Bei der Frage nach der zielsprachlichen Textproduktion geht es um den Äquivalenzstatus von Termini und sprachspezifische Wortbildungsformen, um die Textfunktion und Verständlichkeitskriterien. 1 2 3 4 5 6
Aufgabenstellung Der translatorische Terminologievergleich Die Terminologiearbeit Sprachform auf Wort- und Textebene Zusammenfassung Literatur
1 Aufgabenstellung Die moderne Welt ist wesentlich von Erkenntnissen und dem Wissenszuwachs in Mathematik, Naturwissenschaften und Technik gekennzeichnet. Und in den Zeiten der Globalisierung mit weltweit vernetzter Kommunikation, Migrationsströmen und globaler wissenschaftlicher Integration kommt der Fortsetzung einer korrekten fachlichwissenschaftlichen Kommunikation über Sprachbarrieren hinweg durch Fachübersetzung in diesen Bereichen eine immer größere Bedeutung zu, auch wenn in den letzten Jahrzehnten durchaus ein fast erdrückendes Gewicht von nur einer Sprache, nämlich Englisch, in der Fachkommunikation zu beobachten ist (Ammon 1998).
https://doi.org/10.1515/9783110296259-009
222
Radegundis Stolze
1.1 Sprachperspektive beim Fachübersetzen Das Fachübersetzen stellt dabei eine spezifische Aufgabe dar, die nicht nur von Fachleuten, die auch einer anderen Sprache mächtig sind, erfüllt werden kann. Während sich nämlich Fachautoren in ihrer Textproduktion auf die Wissensgenerierung und fachliche Leser auf die Wissensnutzung konzentrieren, richtet der Fachübersetzer sein Augenmerk auf die sprachliche Gestalt dieses Wissens, wozu er selbstverständlich auch ein gewisses naturwissenschaftliches und/oder technisches Vorverständnis benötigt, denn Übersetzen bedeutet die verantwortliche Präsentation eines verstandenen Ausgangstextes. Die Sprachperspektive steht beim Fachübersetzen also im Vordergrund und die übersetzerische Kompetenz erstreckt sich auf linguistische Kenntnisse der Sprachanalyse und Bedeutungskonstitution im Blick auf das Textverstehen sowie auf fachstilistische und diskursfeldspezifische Formulierungsweisen bei Fachtexten in den einzelnen Domänen. Wesentliche Aspekte der hier vorgestellten Überlegungen zur translatorischen Aufgabe sind in einem Lehrbuch zum „Fachübersetzen“ niedergelegt worden (Stolze 2009), worauf wir hier Bezug nehmen. Eine linguistische Analyse der Sprache in Mathematik, Naturwissenschaften und Technik ist hier Leitschnur. Die Linguistik zeigt Theorien und Methoden auf, um die sprachliche Verfasstheit des Wissens in bestimmten Wissensdomänen zu erklären und ein Bewusstsein darüber zu schaffen, wie Erkenntnisse (auch) sprachlich gewonnen, weitergegeben und verwertet werden und wie sie ihrerseits unsere Sprache und unser Denken beeinflussen. Dies ist relevant für das Übersetzen von Fachtexten. Die Verständlichkeit von Texten ist abhängig vom Wissensstand und dem Leserinteresse der Empfänger. Neben einem reflexiven Wissen über die Sprachverwendung und das Sprachsystem liefert daher die Linguistik hier auch Handlungswissen, welches sich Fachübersetzer zunutze machen können.
1.2 Begriffliche Unterschiede In seinem berühmten Aufsatz Die zwei Kulturen unterscheidet C. P. Snow (1959) zwischen der mathematisch-naturwissenschaftlichen und technischen Welt und der geisteswissenschaftlich-literarischen Welt. Beide Welten würden eigene Wissenskulturen bilden, die durch jeweils eigene Annahmen über die Welt, eigene Beschreibungsansätze sowie eigene Normen und Verhaltensmuster geprägt sind. Die kognitiven und kommunikativen Rahmenbedingungen der sog. ‚harten‘ Wissenschaften und der Technik spiegeln sich vor allem in einer überdurchschnittlich genormten und somit auch reflektierten Sprachverwendung. Dieser Unterschied zwischen Fach- und Gemeinsprache ist von zentraler Bedeutung im Fachübersetzen, da ein naives, lebensweltlich bestimmtes Herangehen an solche Fachtexte von Seiten des Übersetzers nicht angebracht ist. Oft haben linguistisch gleichlautend gebildete Wör-
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
223
ter in Fachbereichen und in der Umgangssprache nicht dieselbe Bedeutung, was bei einer Fehlinterpretation zu einer misslungenen Übersetzung führt. Dies kann anhand eines kurzen, zur Korrektur vorgelegten Beispiels aus der Praxis eines Übersetzungsbüros dargelegt werden. (1) (1.a) Textvorlagen Non ferrous scrap treatment We attest that the O. scrap plant operates under the authorization n° 750... of the province L. After maximum recovery of metallic parts, due to state of the art technology, the remaining non-metallic steriles are dumped on Class I authorized site of NNNN. Englische Termini Non ferrous scrap treatment, scrap plant, authorization, recovery, non-metallic steriles (1.b) Laienhafte Übersetzung Nicht-Alteisen Behandlung oder Die Behandlung von Nicht-Alteisen Wir bestätigen, dass die O. Altwarenfabrik unter der Referenznummer (Lizenznummer) 750... des Gebiets/der Gemeinde L. arbeitet. Nach einem Maximum an Wiederherstellung/Recycling von Metallteilen, gemäß dem neuesten Stand der Technik, werden die restlichen Nicht-Metall (steriles?), nach meiner Genehmigung, auf dem (Bau-)Platz von NNNN abgeladen. Laienhaft interpretierte Fachausdrücke Nicht-Alteisen-Behandlung, Altwarenfabrik, Referenznummer, Recycling, Nicht-Metall Steriles (1.c) Fachliche Neuübersetzung Verarbeitung von Nichteisenschrott Hiermit wird bescheinigt, dass die Schrottverarbeitungsfirma O. gemäß Genehmigungsbescheid Nr. 750.l. der Provinz L. tätig ist. Nach weitestgehender Rückgewinnung der Metallteile mit modernster Technologie werden die verbleibenden unergiebigen Nichtmetallteile auf der nach Klasse I zugelassenen Deponie von NN. abgelagert. Korrekte Termini auf Deutsch Verarbeitung von Nichteisenschrott, Schrottverarbeitungsfirma, Genehmigungsbescheid, Rückgewinnung, unergiebige Nichtmetallteile
Die Besonderheit wissenschaftlichen und technischen Redens und Schreibens zeigt sich unter anderem auch in der mathematischen Formelsprache sowie in anderen Symbolsprachen, Diagrammen und Bildern, wie sie in der Mathematik als Grundlagenwissenschaft, den Naturwissenschaften und der Technik verwendet werden. Diese Elemente bedingen eine hohe Abstraktheit und Dichte bei der Darstellung mathematisch-naturwissenschaftlichen und technischen Wissens. Sie sind dort zwar in die natürliche Sprache eingebettet, tragen aber meist selbst die zentrale Bedeutung eines Satzes, Absatzes oder Textes. Nur wer das spezifische Zeicheninventar sowie den Aufbau und die Logik der abstrakten Formen kennt, kann deren Bedeutung korrekt erfassen und den Gesamtsinn verstehen. Wegen ihrer Einzelsprachenunabhängigkeit
224
Radegundis Stolze
werden Formeln und Abbildungen in einer Übersetzung nicht verändert, sondern übernommen. Die Adressaten als Fachleute in dem jeweiligen Gebiet können dies dann aufgrund ihres Fachwissens verstehen. Im Sinne der „zwei Kulturen“ weisen die Gebiete von Mathematik, Naturwissenschaften und Technik eine grundlegende Gemeinsamkeit in der Begriffsbildung auf, denn die Motivation fachlicher Aussagen ist die fachliche Denkwelt. Man unterscheidet erkenntnistheoretisch zwischen ‚nomothetisch‘ verfahrenden, d. h. auf Gesetzmäßigkeiten ausgerichteten Naturwissenschaften, und ‚idiographisch‘ verfahrenden, auf Besonderheiten und Individuelles ausgerichteten Geisteswissenschaften (Beiner 2009, 13). Im linguistischen Sinne ist zwar jede Begriffsbildung abstrakt, da für eine kognitive Vorstellung von Dingen oder Vorgängen ein Begriff gebildet wird, der dann sprachlich eine Bezeichnung erhält. Jedoch ist eben die Bildung dieser Begriffe bei den Fachsprachen von Mathematik, Naturwissenschaften und Technik anders als in den Geisteswissenschaften, in denen eine approximative Begriffsevidenz angestrebt wird (Stolze 2009, 81). Entsprechendes Wissen steht bei der Fachübersetzung in allen Wissensbereichen immer im Hintergrund und muss von der Übersetzerin reflektiert werden.
2 Der translatorische Terminologievergleich Als wichtigstes Qualitätsmerkmal einer Fachübersetzung in Mathematik, Naturwissenschaften und Technik wird allgemein die korrekte Terminologie angesehen. Daher sind die Kenntnis der Terminologiebildung und der translatorische Terminologievergleich relevant.
2.1 Die Begriffsbildung Ein Objekt wird zunächst an bestimmten Merkmalen erkannt. Die bei der Definition zu verwendenden Merkmale sind hierarchisch gegliedert nach Qualität, Funktion und Relation, wie dies nach der DIN-Norm 2330:2011 „Begriffe und Benennungen – Allgemeine Grundsätze“ vorgeschrieben ist. Eine „Definition“ ist dabei die Inhaltsbeschreibung (Intension) des Begriffs, und sie kann erst nach Aufdeckung, Strukturierung und Auswahl der Merkmale verfasst werden. Durch ständiges Hinzufügen eines weiteren Spezifizierungsmerkmals entsteht eine Definitionskette. Dabei werden anhand der unterscheidenden Merkmale Ober- und Unterbegriffe (Hyperonyme und Hyponyme) gebildet. Den Begriffsumfang (Extension) bildet die Gesamtheit aller Gegenstände, die sämtliche Merkmale dieses Begriffs auf einer bestimmten Ebene aufweisen. Ein Unterbegriff enthält immer mindestens ein distinktives Merkmal mehr als sein Oberbegriff, er ist spezieller. Bei den so entstehenden „logischen Leitern“ präzisiert also jeder weiter unten stehende Begriff den darüber stehenden durch Hinzufügen eines bestimm-
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
225
ten Merkmals der bezeichneten Sache. Die auf der gleichen Abstraktionsstufe einander nebengeordneten Begriffe (Kohyponyme) nennt man auch „logische Reihe“, denn hier werden Variationen eines bestimmten Merkmals koordiniert (z. B. Fahrzeuge = Raum-, Wasser-, Luft- und Bodenfahrzeuge). Ein Oberbegriff enthält weniger selektive Merkmale, ist daher „allgemeiner“ und weniger differenziert, und er inkludiert den Unterbegriff immer. Die Beziehungen zwischen Ober- und Unterbegriffen sowie den nebengeordneten Unterbegriffen lassen sich formelhaft darstellen:
Oberbegriff: a Unterbegriff: a + xn nebengeordnete Unterbegriffe: a + x1, a + x2, a + x3 etc.
Ein Begriff steht auch nicht für sich allein, sondern immer in einem systematischen Zusammenhang mit anderen Begriffen in einem Begriffssystem, vgl. DIN-Norm 2331:1980 „Begriffssysteme und ihre Darstellung“. Definitionen dienen hierbei dazu, einen möglichst eindeutigen Zusammenhang zwischen Begriffen und Benennungen herzustellen. Sie grenzen einen Begriff ab, indem er zu anderen (bereits definierten oder zumindest bekannten) in Beziehung gesetzt wird. Jeder einzelne Begriff ist durch seine Position innerhalb des Begriffssystems bestimmt und kann so gefunden werden. Die Gliederungsstruktur der Begriffssystematik wird durch die Ordnung der distinktiven Merkmale gebildet und stellt ein klar gegliedertes Netz aus Begriffen dar, zwischen denen Beziehungen bestehen. Insbesondere im Bereich der Technik kann eine exakte Begriffsanalyse mittels der Merkmalszuweisungen der Gegenstände erfolgen (s. Abb. 1).
2.2 Termini und Benennungssysteme Die fachlichen Begriffe werden dann nach ihrer Konzeption/Definition mit leicht zu handhabenden Benennungen, den „Termini“ bezeichnet. Die Ausdrücke „Term“ und „Terme“ bezeichnen dagegen etwas anderes, nämlich sinnvolle, syntaktisch korrekt gebildete Ausdrücke in der Mathematik, welche Zahlen, Variablen, Symbole für mathematische Verknüpfungen und Klammern enthalten können (die fälschliche Verwendung im Deutschen als Benennung dürfte ein falscher Freund des englischen term sein.). Die Benennung/der Terminus ist keine Kurzdefinition von Begriffen, sondern sie kann als sprachliche Bezeichnung theoretisch beliebig lauten, man rekurriert jedoch im Allgemeinen auf den vorhandenen Zusammenhang, um neue Benennungen abzuleiten. Eine „Benennung“ ist also die mindestens ein Wort umfassende Bezeichnung für einen Begriff. Es gibt Einwortbenennungen (Stammwörter und Komposita mit bis zu drei Elementen, z. B. Feinleiterschaltung) und Mehrwortbenennungen (meist mit Adjektiv, z. B. flexible Leiterplatte).
226
Radegundis Stolze
Abbildung 1: Begriffsanalyse zu „Leiterplatte“, vgl. Barczaitis (1992, 6)
Ein Terminus als zentrales Element der Terminologielehre steht also immer in einem systematischen Zusammenhang mit anderen Termini; dem Begriffssystem wird ein Benennungssystem zugeordnet. Man kann das Benennungssystem auch in einem Strukturbaum oder einem Baumgraphen abbilden (s. Abb. 2). Die Systematik kann natürlich an jeder Stelle durch weitere unterscheidende Merkmale ergänzt und präzisiert werden; auch Querverbindungen bestehen, so dass ein weitläufiges vernetztes System entsteht. Die Entstehung neuer Begriffe und sprachlicher Benennungen erfolgt häufig nicht durch völlig neue Bildung, sondern durch Verknüpfung bereits bekannter Begriffe (vgl. Arntz/Picht/Mayer 2002, 54‒62). Logische Begriffsverknüpfungen erscheinen dabei – als Determination (nähere Bestimmung), z. B. Werkzeugmaschine + durch Drehen > Drehbank; Fahrzeug + Wasser > Wasserfahrzeug > Schiff, – als Konjunktion (Inhaltsvereinigung), z. B. Mähmaschine + Dreschmaschine = Mähdrescher, fr. faucheuse-batteuse, e. combine harvester, – als Disjunktion (Umfangsvereinigung) [in der Logik die Verknüpfung zweier Aussagen durch „oder“], z. B. Henne/Hahn > Huhn: Die Begriffsumfänge werden vereinigt und das Ergebnis ist der gemeinsame Oberbegriff,
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
227
Abbildung 2: Strukturbaum für „Transportmittel”, vgl. Stolze (2009, 72)
–
als Integration (Bestandsvereinigung) [im Gegensatz zur logischen die ontologische Verknüpfung], z. B. sind Nabe, Speichen und Felge die Bestandteile eines Rades.
2.3 Der Äquivalenzstatus der Termini Differenzierungen von Benennungen machen sprachkontrastiv die Unterscheidung der Denotatsidentität vom Denotatsdurchschnitt erforderlich, wobei das Denotat der von den Experten per definitionem festgesetzte Bedeutungskern des Wortes/Terminus ist. Dasselbe außersprachlich Gemeinte, der fachliche Gegenstand in seiner Begriffsvorstellung, verbindet dabei die Ausdrücke in den verschiedenen Sprachen als „tertium comparationis“ (Mounin 1963, 223) miteinander. Koschmieder (1965, 104) präzisiert Mounins Position, indem er vom Charakter der Sprache als Kommunikationsinstrument ausgeht. Er definiert: „‚Übersetzen’ heißt nämlich: 1. zu Zx in Lx über Bx das G finden und 2. zu demselben G in Ly über By das zugeordnete Zy finden (s. Abb. 3). Explizit ausgedrückt: Übersetzen heißt, zum ausgangssprachlichen Zeichen (Benennung) über das ausgangssprachlich Bezeichnete (Wortbedeutung) das Gemeinte (Begriff) finden und zu demselben Gemeinten in der Zielsprache über das zielsprachlich Bezeichnete das zugeordnete zielsprachliche Zeichen, den passenden Fachausdruck finden.
228
Radegundis Stolze
Abbildung 3: ‚Übersetzen‘ nach Koschmieder, vgl. Wilss (1977, 49)
Die internationale Kommunikation wird durch Ähnlichkeit von Benennungen in unterschiedlichen Sprachen natürlich erleichtert, aber auch erschwert, je nachdem, ob die diesen Benennungen zugeordneten Begriffe übereinstimmen oder nicht (vgl. DIN-Norm 2332:1988 „Benennen international übereinstimmender Begriffe“). Die Benennungen können in unterschiedlichen Sprachen ähnlich sein, aber es geht um die Begriffsidentität. Die Termini sind nämlich in mehreren Sprachen keineswegs immer bedeutungsgleich, da lokale Gegebenheiten durchaus semasiologisch zu einer Begriffsänderung führen können. Es werden drei Fälle unterschieden: 1) die Begriffsinhalte decken sich vollständig, 2) teilweise, 3) nicht. Daher ist der Äquivalenzstatus vom Übersetzer zu prüfen. Die Benennungen werden in präzisen Nomenklaturen für eine Zeit lang festgehalten. Wenn sich Begriffe in zwei Sprachen nicht völlig decken, wenn also keine denotative Kongruenz zwischen den zugeordneten Termini vorliegt, können diese nicht als „Äquivalente“, sondern nur als „Entsprechungen“ bezeichnet werden. Ein Vergleich von Termini unterschiedlicher Sprachen kann grundsätzlich zu folgenden Ergebnissen führen, wie Arntz/Picht/Mayer (2002, 143) darstellen: – Die Begriffe A und B stimmen voll überein (Kongruenz). Äquivalent A+B – Begriff A ist weiter als B, schließt B aber ganz ein (Inklusion). Ober- mit Unterbegriff A+B’ – Der Begriff A bzw. der Begriff B fehlt in der anderen Sprache. Lücke A, B? – Die Begriffe A und B sind nur teilweise äquivalent, weil ein Begriff oder beide Begriffe über einen gemeinsamen Kern wesentlicher Merkmale hinausgehend noch je eigene wesentliche Merkmale aufweisen. Entsprechung B~A Die genannten Kategorien sind direktional aufgefasst, denn der Übersetzer sucht nach einem Äquivalent für einen ausgangssprachlichen Terminus in seiner zielsprach-
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
229
lichen Übersetzung. Bei fehlender Äquivalenz stehen sprachlich die Möglichkeiten der Übernahme oder der Lehnübersetzung eines Wortes aus der Ausgangssprache, des Prägens eines neuen Ausdrucks sowie die Schaffung einer erklärenden Umschreibung zur Verfügung. Bei der Übernahme eines Ausdrucks in eine andere Sprache besteht zunächst oft eine lexikalische Lücke. Die erste Reaktion ist daher, den fremdsprachlichen Terminus als Lehnwort einfach zu übernehmen, freilich mit einzelsprachspezifischen Grammatikformen wie Großschreibung (z. B. Computer, Blister), oder man konstruiert neue Benennungen mit einheimischem Material, um die Lücke zu schließen, was nicht selten durch wörtliche Übersetzung eines Kompositums geschieht (sky scraper > Wolkenkratzer > gratte-ciel). In einem weiteren Schritt erfolgt dann oft die interpretierende Lehnübersetzung (computer > ordinateur > Rechner/Rechenanlage, random access memory > RAM > Arbeitsspeicher). Manchmal ist ein Ausdruck aus der Sicht der Zielsprache, z. B. des Deutschen auch uneindeutig. So ist die italienische Benennung saldare für die Übersetzung ins Deutsche problematisch zweideutig, wo eine Generalisierungslücke im Blick auf Materialfügeverfahren besteht, sodass der Übersetzer sich entscheiden muss. Die Problematik wird deutlich, wenn man sich die Normdefinitionen für diese Fügeverfahren anschaut (Bachmann 1992, 148). Die Benennung umfasst nämlich die beiden Begriffe „Schweißen“ und „Löten“. Demgegenüber kennt das Englische: löten – to solder, schweißen – to weld. Ein anderes Beispiel ist der Ausdruck Drei-Wege-Katalysator. Er bezeichnet nicht ein Gerät mit drei Arbeitskammern, wie man meinen könnte, sondern dies ist eine unglückliche Übersetzung von am. three-way-catalyst, was eigentlich „Dreifach-Wirkungs-Katalysator“ bedeutet: es werden in einem Reaktionsraum dreierlei Giftstoffe (CO, CH, NOx) umgewandelt (in CO2, N2, H2O). Die im Zeichen angedeuteten Merkmale „way“ wurden falsch interpretiert, sodass hier nicht von einer korrekten Lehnübersetzung gesprochen werden kann. Auch im Deutschen sind die fachsprachlichen Wortbildungen nicht immer ganz eindeutig. So kann der Ausdruck Deckenbefestigung in einer Gebrauchsanleitung sowohl „Befestigung (eines Geräts) an der Decke“ oder „Befestigungsvorrichtung (für die Decke) am Gerät“ als auch „Befestigung der Decke (des Gehäuses)“ bezeichnen. Hier handelt es sich um eine innersprachliche Polysemie. Anhand von Abbildungen kann aber eine mehrdeutige Benennung oft leicht analysiert werden (Neubert 1989: VI). Alle Beispiele zeigen freilich, dass ein entsprechendes Fachwissen fürs Fachübersetzen unabdingbar ist. Arntz/Picht/Mayer (2002, 145 ff.) stellen „Methoden des systematischen Terminologievergleichs“ dar. Oft wird schließlich nicht erkannt, wie hilfreich und manchmal sogar notwendig der Vergleich eines Benennungssystems als Kernelement terminologischen Arbeitens zur Analyse und Veranschaulichung von Äquivalenzproblemen in einem bestimmten technischen Teilgebiet ist. So kann z. B. ein Benennungssystem in zwei Sprachen anhand der Fachliteratur gesondert erarbeitet werden. Termini werden Originaltexten entnommen und systematisch nach Kategorien zusammengestellt.
230
Radegundis Stolze
Beim Vergleich der Systematik werden dann Teilentsprechungen und Lücken sofort deutlich. So kann durch Lehnübersetzung ein Terminus neu geschaffen und die Lücke in einem zielsprachlichen System auf der Ebene der Benennungen geschlossen werden.
3 Die Terminologiearbeit Unverzichtbar für die technische Kommunikation ist die zuverlässige Exaktheit der Terminologie in allen Sprachen. Häufig begegnen Techniker aber der Sprache als einem wenig exakten, für die Funktion der genauen Darstellung nicht genügend tauglichen Werkzeug mit Misstrauen. So entstanden Bemühungen um nationale und internationale Terminologienormung. 1917 wurde auf Anregung des Deutschen Ingenieurvereins in Berlin das Deutsche Normen-Institut DIN gegründet. Wissenschaftlich entscheidenden Anstoß für eine Terminologienormung gab das Buch von Eugen Wüster: Internationale Sprachnormung in der Technik (1931).
3.1 Terminologienormung Das Desiderat einer internationalen Terminologienormung als planmäßige, unter Beteiligung aller jeweils interessierten Kreise auf gemeinnütziger Grundlage gemeinschaftlich durchgeführte Vereinheitlichung von Terminologien setzt als ersten Schritt eine Vereinheitlichung des Bestands nationaler Fachausdrücke voraus, die im Zuge der rasanten Forschungsentwicklung unkontrolliert ständig als Spontanschöpfungen entstehen und oft eine Zeit lang nebeneinander existieren. Die Normung darf aber nur Gültigkeit beanspruchen, wenn eine mit nationaler Autorität versehene Institution solche Normen durchsetzt. International genormte Benennungen sind eigens gekennzeichnet: Deutsche Normen tragen die Bezeichnung DIN; internationale Normen die Bezeichnung ISO/R. Die DIN EN, DIN IEC und DIN ISO sind deutsche Übersetzungen der entsprechenden internationalen Normen. IEC-Normen betreffen die Elektrotechnik, EN-Normen den Maschinenbau (engineering), P bezeichnet eine vorläufige Norm (preliminary standard). Wichtige Normungsstellen sind: – DIN = Deutsches Institut für Normung e.V. – ISO = International Organisation for Standardization, Genf/Organisation Internationale de Normalisation – IEC = International Electrotechnical Commission – CEN = Comité Européen de Normalisation, Europäisches Komitee für Normung – CENELEC = Europäisches Komitee für elektrotechnische Normung – CEN/CENELEC = Gemeinsame Europäische Normeninstitution – AFNOR = Association française de normalisation
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
– – – – – – –
– – – – –
231
ANSI = American National Standards Institute BSI = British Standards Institution, London BESA = British Engineering Standards Association ÖN = Österreichisches Normungsinstitut IRANOR = Instituto Nacional de Racionalización y Normalización (Spanien) PKNIM = Polski Komitet Normalizacji i Miar (Polen) ASITO = Sowjetisches Normeninstitut (Федеральное агентство по техническому регулированию и метрологии/Росстандарт /Bundesamt für technische Regulierung und Metrologie/Rosstandart) ABNT = Associação Brasileira de Normas Tecnicas COBEI = Comitê Brasileiro de Eletricidade ISCOM = Istituto superiore delle comunicazioni e delle tecnologie dell’informazione (Italien) SAC = chinesisches Normungsinstitut (Standardization Administration of the People’s Republic of China) BIS = indisches Normungsinstitut (Bureau of Indian Standards).
Während die Terminologienormung meist einsprachig und national orientiert ist, steht in der übersetzungsorientierten „Terminographie“ die mehrsprachige Gegenüberstellung von Glossaren im Vordergrund. Sie werden heute vorzugsweise elektronisch gespeichert. Da die Menge der Fachtermini immer stärker ausufert und für den Einzelnen nicht mehr überschaubar ist, sind Experten wie Übersetzer auf die Fachglossare der Normungsinstitute und die Terminologie-Datenbanken, auch im Internet, angewiesen. Um die bei den vielen unterschiedlichen Organisationen und Institutionen geleistete praktische und theoretische Arbeit in der Terminologieforschung und -erfassung effizienter zu gestalten, ist eine Koordination erforderlich, denn es gibt in allen Ländern regionale Terminographiezentren. So wurde „Infoterm“ im Rahmen von UNISIST, dem allgemeinen Informationsprogramm der UNESCO 1971 beim österreichischen Normungsinstitut ins Leben gerufen.
3.2 Terminologieverwaltung Angesichts der stetig wachsenden Menge von Fachinformationen wird die effektive Sammlung und Verwaltung von übersetzungsrelevanter Terminologie im Hinblick auf die Reduktion der Kosten immer wichtiger. Wichtige Hinweise für die Gestaltung eines entsprechenden terminographischen Eintrags für eine Datenbank gibt die DIN-Norm 2336:2004 „Darstellung von Einträgen in Fachwörterbüchern und TerminologieDatenbanken“. Hierhin gehören neben der Begriffsdefinition und Benennung vielerlei weitere Informationen, wie z. B. Quelle und Zeitpunkt des Eintrags, Hinweise auf orthographische Varianten, Kurzformen des Terminus, internationale wissenschaft
232
Radegundis Stolze
liche Benennungen, Synonyme, Antonyme, Querverweise, feste Wendungen, Gebrauchsnormen bestimmter Gruppen und Äquivalenzstatus, der ja das oberste Ziel der Erarbeitung mehrsprachiger Terminologie ist. Über die technischen Aspekte der rechnergestützten Terminologieverwaltung informieren u. a. Felber (1990) und Sager (1990). Bei Vorhandensein verlässlicher Terminologiesammlungen, aber nur dann, kann sich das Übersetzen auf den quasiautomatischen Ersatz von Zeichenmaterial der Ausgangssprache durch solches der Zielsprache beschränken, so dass entsprechende Übersetzungen sinnvollerweise maschinell erstellt werden können. Doch dieses Ideal, das noch Mounin (1963, 223) vorschwebte und das er durch die „internationale Vereinheitlichung der Wörter“ erreichen wollte, bleibt außerhalb von Datenblättern und Standardtexten wohl auch weiterhin ein Ideal. Neben der Nutzung von Wörterbüchern, Terminologiediensten und mehrsprachigen Normen ist die Übersetzerin stets auf ihr spezielles Fachwissen angewiesen. Inzwischen bietet auch das Internet vielfältige Möglichkeiten des Datenbankzugriffs durch Bereitstellung von Terminologie und selbst erarbeiteter Dokumentation sowie eine Basis terminologischer Kooperation an. Schon Wüster (1931) hatte sich ein globales „Blitzwörterbuch“ vorgestellt, auf das man von überall her in der Welt zugreifen könnte. Solches ist heute möglich, wobei man zwischen primären und sekundären Quellen der Terminologiearbeit unterscheiden kann. Ein Problem dabei ist freilich die Einschätzung der Qualität solcher Publikationen, die oft nicht der von Buchproduktionen entspricht. Primärquellen bestehen in Online-Texten, z. B. Artikeln über Terminologieforschung und -methoden, in terminologischen Datenbanken und Werkzeugen für die Terminologiearbeit. Besonders interessant sind Online-Glossare und Wörterbücher zu spezifischen Fachgebieten, die einzeln oder in Zusammenarbeit mit anderen Autoren erstellt werden. Die vielfach vorhandenen „verborgenen“ Wortlisten werden im Internet leicht für eine interessierte Öffentlichkeit verfügbar. Während Zeichnungen in gedruckten Vokabularien von jeher eine große Rolle spielen, denn sie können lange Definitionen ersetzen, kann im Web zusätzlich dazu auch Ton, Animation und Video zur Erläuterung verwendet werden. Sekundärquellen sind solche, die Informationen aus den Primärquellen aufarbeiten, beispielsweise terminologische Literatur und Vokabular, häufig auch als Bibliographie oder Adressenliste. Die vielfach noch unkoordiniert entstehenden Angebote und Projekte der Terminologiearbeit könnten mit Hilfe des Internets wirklich zu weltweiter Zusammenarbeit führen.
4 Sprachform auf Wort- und Textebene Nach der Feststellung des Äquivalenzstatus von Termini ist auch deren fach-sprachliche Ausdrucksform wichtig. Ein übersetzter Fachtext soll ja nicht laienhaft klingen,
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
233
sondern er verwendet bestimmte Formen der Wortbildung und des Stils im Wortgebrauch, die umgekehrt für viele Laien oft schwer analysierbar sind.
4.1 Die fachsprachliche Wortbildung Es ist eine besondere Leistung der deutschen Sprache, dass sie über Wortbildungsmöglichkeiten verfügt, die sehr konzentrierte Ausdrücke bilden. Um einem Fachtext auch sprachliche Akzeptanz zu verleihen und zugleich sein Verständnis zu erleichtern, sind solche Wortbildungsmöglichkeiten besonders zu beachten. Hier gibt es einige Ähnlichkeiten zwischen Deutsch und Englisch (word compounding) im Gegensatz zu den romanischen und anderen Sprachen (syntagmatische Erweiterung) als Ausgangssprache bei der Übersetzung (vgl. Stolze 2009, 113ff.). In der Technik werden vom Menschen mit Hilfe technischer Mittel bestimmte technische Vorgänge an technischen Objekten vollzogen, und die begrifflichen Charakteristika der Mittel, Vorgänge und Objekte werden wissenschaftlich erfasst und mit bestimmten Wörtern und Morphemen bezeichnet. Durch Wortzusammensetzungen und Affigierung entstehen so aus einfachen umgangssprachlichen Wörtern Fachausdrücke. Die wichtigsten hier verwendeten Wortarten sind Substantiv und Adjektiv, da hiermit Eigenschaften, Vorgänge und die fachlichen Gegenstände bezeichnet werden. Verben werden im Deutschen in der Regel mit der Endung -ung nominalisiert und dienen dann auch substantivisch zur Bezeichnung von Vorgängen und Handlungen, z. B. steigern > Steigerung, bearbeiten > Bearbeitung. Weitere Beispiele für Fachwortbildung sind: heizen > Heizkörper (Mittel), formen > Formkörper (Objekt), spielen > Spielwaren (Objekte), sägen > Sägehandwerk (Beruf), drehen > Drehteil (Mittel: ein sich drehendes Teil, Objekt: auf der Drehmaschine bearbeitetes Teil) (vgl. Neubert 1989: VI). In entsprechenden Komposita steht das den Begriff in eine Großklasse kategorisierende Wortelement immer in Endstellung (Handelsartikel, Glaswaren, Antriebsbewegung, Straßenbau usw.). Das Grundwort wird durch das Bestimmungswort determiniert: Hochofen (‚hochgestellter Ofen‘), Haustür (‚Tür zum Haus‘). Hier gibt es sprachliche Unterschiede: Im Deutschen und Englischen steht das Grundwort am Ende, das Bestimmungswort davor. In den romanischen Sprachen ist es umgekehrt. Anhand eines mehrgliedrigen Begriffs kann die Struktur verdeutlicht werden:
(2) (2.a) (2.b) (2.c) (2.d) (2.e)
D: 1-2-3-4: Bremsstörungskontrolllampe E: 1-2-3-4: brake failure warning lamp F: 4-3-2-1: témoin détecteur d’incident de frein I : 4-3-2-1: lampada pilota di disturbo del freno P: 4-3-2-1: lâmpada de controle de folha de freio
234
Radegundis Stolze
Was die formale Bildung anbelangt, so sind im Deutschen die Wortzusammensetzungen als Substantiv-Substantiv- oder Adjektiv-Substantiv-Kompositum als Wortbildungsverfahren sehr produktiv (Wilss 1986). Man vergleiche folgende Bezeichnungen: ein planfestgestellter Autobahnabschnitt, vertaktete Direktfahrten im Nahverkehr, betriebsbedingte Änderungskündigung, Baugrubensicherung, pfeilverzahntes Rad etc. Die Menge der Kategorisierungssignale in der deutschen Fachsprache ist freilich begrenzt, und es ist für den Übersetzer interessant, sich solche Wortbildungsprodukte zu verdeutlichen. Man kann sie verwenden, um selbst Fachausdrücke zu kreieren, und man kann Fachtexte daran erkennen. Solche Wortzusammensetzungen ermöglichen sprachökonomisch eine semantische Konzentration auf geringstmöglichem Raum, nicht allein in Naturwissenschaft und Technik, z. B. Kombinationszange, Gleitgelenk, Radioaktivität, Ventilator-Zellenkühltürme etc., sondern auch in den Geistesund Sozialwissenschaften: Grundpfandrechtsbestellung, Zwangsvollstreckungsunterwerfung, Darlehensauszahlungsanspruch etc. Sie sind bei einer Übersetzung ins Deutsche unbedingt zu verwenden, auch wenn dadurch eine wörtliche Strukturgleichheit mit dem Ausgangstext verschwindet. Während es im Französischen neuerdings auch immer mehr Kopulativkomposita gibt (rince-bouteille/Flaschenspülanlage, faucheuse-batteuse/Mähdrescher, inversion chiffres/ Zahlendreher), ist hier die syntagmatische Erweiterung mit de oder à das häufigste Pendant zum deutschen Kompositum. Es sollten immer die zielsprachlich üblichen Wortbildungsmöglichkeiten genutzt werden. Ein Übersetzungsproblem entsteht hier nur, wenn diese Formen im Sprachenpaar verschieden sind, wie z. B. bei der Übersetzung aus romanischen Sprachen ins Deutsche:
(3) hôpital du district – *Krankenhaus des Landkreises > Kreiskrankenhaus (4) approvisionnement de la ville en eau potable – *Versorgung der Stadt mit trinkbarem Wasser > städtische Trinkwasserversorgung (5) hôpital universitaire des enfants – *universitäres Hospital für Kinder > Universitätskinderklinik (6) hausse des prix des matières premières – *Preisanstieg bei den Rohstoffen > Rohstoffverteuerung
Die begriffliche Zergliederung der Objektwelt bis in die kleinsten analysier- oder theoretisierbaren Einheiten/Zustände/Vorgänge hinein verlangt von jeder Fachsprache entsprechend sondernde Termini, die im Vergleich zu den Bezeichnungen der Gemeinsprache auffallend vielgliedrig sein können und müssen. Dies resultiert aus dem Erfordernis, dass der Fachterminus alle charakteristischen Merkmale der präzisen Individuation enthalten muss. Die langen französischen und italienischen Wortbildungen tendieren außerdem neuerdings zum verkürzenden Relationsadjektiv, das im Deutschen auch überwiegend der Wortzusammensetzung entspricht (Stolze 2009, 134): (7) unité volumique – Volumeneinheit (8) conduction electrolytique – Elektrolyseleitung (9) champ magnétique – Magnetfeld
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
(10) (11) (12) (13) (14)
235
dissipation thermique – Wärmestrahlung cage thoracique – Brustkorb industria tessile – Textilindustrie formulazione anticrittogamica – Pflanzenschutzformulierung acido carbonico – Kohlensäure etc.
In den meisten Fällen finden sich solche komplexen fachsprachlichen Wortbildungsprodukte nicht in den Fachwörterbüchern verzeichnet. Wenn der Übersetzer aber um die Bildungsmöglichkeiten im Sprachsystem Bescheid weiß, kann er solche Ausdrücke aus den Einzelangaben selbst bilden. Dabei ist der Unterschied zwischen der Wortkomposition in germanischen Sprachen und der syntagmatischen Erweiterung und dem Relationsadjektiv in romanischen Sprachen keine didaktische „Transferregel“, sondern eine fachsprachliche Formulierungsnorm in der Mikrostruktur von Texten. Welchen Beitrag Übersetzer auch zur Sprachentwicklung leisten, zeigt sich an dem Faktum, dass sich solche fachlich induzierten Neubildungen sehr leicht auch in der Gemeinsprache verbreiten, wenn wir z. B. wheelchair accessible washroom mit rollstuhlzugängliche Toilette übersetzen, ohne zu überprüfen, ob es das zusammengesetzte Adjektiv im Deutschen überhaupt gibt. Bei der Übersetzung ins Deutsche ist generell auf eine Kondensierung der Wortbildung zu achten. Oft ist allerdings die Metaphorik, mit welcher fachliche Gegenstände von den Fachleuten bezeichnet werden, zwischen den Sprachen verschieden. Mechanisches Übertragen auf der Ebene der Wortbildung funktioniert dann nicht. So entspricht dem deutschen Tischbein ein fr. „Tischfuß“ (pied de table), der en. und dt. Schneedecke (carpet of snow) entspricht der it. „Schneemantel“ (manto di neve), dem en. headlight (Vorderlampe) korrespondiert der dt. Scheinwerfer, und dem en. cable sleeve (Ärmel) entspricht die dt. Kabelmuffe etc.
4.2 Der Funktionalstil Der Sinn der Fachkommunikation ist die präzise, sprachökonomische und verfasserneutrale Informationsweitergabe über fachliche Gegenstände. Dazu hat sich ein besonderer Funktionalstil herausgebildet, der nicht immer den gemeinsprachlichen Vorstellungen von gutem Stil entspricht. Aus funktionaler Sicht werden als Schlüsseltechniken der fachsprachlichen Syntax vielmehr die explizite Spezifizierung, die Kondensierung und die Anonymisierung der Aussagen identifiziert (Gläser 1998, 206). Wie schon angesprochen, steht in den Fachsprachen von Mathematik, Naturwissenschaften und Technik, und speziell auch dort, wo übersetzt wird, die Funktion der Informationsvermittlung im Vordergrund. Es geht um die Darstellung und Mitteilung von Gegenstandsbeschreibungen, neuen wissenschaftlichen Erkenntnissen und Produktentwicklungen. Daneben spielt die Handlungsanweisung eine große Rolle, wenn es um Bedienungs- und Betriebsanleitungen geht. Dieser funktionalen Zweckorientierung ist der Sprachstil angemessen, und es ist zu fragen, welche syntaktischen und
236
Radegundis Stolze
morphologischen Mittel die Informationsverdichtung fördern, denn um für Fachübersetzungen zielsprachliche Akzeptanz zu erreichen ist ein solcher Stil zu verwenden. I. In der Tendenz zur begrifflichen Verfestigung und Sachorientierung in den Fächern treten die bedeutungsstarken Substantive mit schwachen Verben in sog. „Funktionsverbgefüge“, die präzisere Information vermitteln, z. B.
(15) (16) (17) (18)
aushärten > Übergang flüssiger Werkstoffe in festen Zustand programmieren > eine Programmiersprache verwenden wachsen > an Größe zunehmen experimentieren > ein Experiment durchführen.
II. Die für die präzise Aussageweise erforderliche explizite Spezifizierung kann durch ausführliche Attributsätze und insbesondere Relativsätze mit Substantivreihungen sowie mit Konditionalsätzen erzielt werden, es gibt nur wenige Zeiten wie Präsens und Imperfekt. (19) Die Welle wird durch das auf der Achse festsitzende Stirnrad angetrieben. (Satz mit Partizipialattribut) (20) Von einem Rohstoffhersteller wurde eine Technologie zur Produktion von Kautschukpulver mit bereits inkorporiertem Füllstoff entwickelt. (Attributsatz) (21) Wenn durch irgendeinen Fehler eine Spannung zwischen dem Gehäuse und der Erde auftritt, müssen … (Konditionalsatz) (22) Immunmodulatorische Effekte wurden für eine Reihe von Hormonen wie … gesehen. (Imperfekt)
III. Die Anonymisierung der Aussagen erfolgt besonders mittels Passivkonstruktionen und abstraktem Agens, denn die Aktion als solche und die Rolle der handelnden Personen ist wichtiger als diese selbst. (23) Dabei wird dem posttraumatisch alterierten Immunsystem mit resultierender hyperinflammatorischer Situation eine große Bedeutung als eine der Ursachen für septiforme Komplikationen und konsekutivem MOV beigemessen. (Attributsatz mit Passiv) (24) Neuere Therapieansätze beschäftigen sich damit, Maßnahmen zur Immunmodulation aufzuzeigen. (abstraktes Agens) (25) Die Durchführung des Experiments ermöglicht die allgemeine Nutzung der Auflösung des von einem Neutron getroffenen Atomkerns. (abstraktes Agens, Funktionsverbgefüge)
IV. Allgemeine Handlungsanweisungen erfolgen meist im imperativischen Infinitiv sowie im Imperativ+bitte, mit müssen, mit ist/sind zu. (26) (27) (28) (29)
Zum Verriegeln Schlüssel abziehen und Lenkrad einrasten. Stellen Sie bitte keine schweren Gegenstände auf das Gerät. Der Beckengurt im Babysitz muss über das Becken des Kindes verlaufen. Nach endlich vielen Schritten muss der Algorithmus enden und ein Ergebnis liefern. Der Algorithmus muss bei gleichen Voraussetzungen stets das gleiche Ergebnis liefern.
In anderen Sprachen außer dem Deutschen gilt Entsprechendes.
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
237
4.3 Die Textsortennormen Die Fachkommunikation als Sprechen und Schreiben in bestimmten Fächern ist an wiederkehrende Kommunikationssituationen entsprechend den Adressaten gebunden, was mit der Textfunktion zusammenhängt. So haben sich hier bestimmte gleichbleibende Textsorten auch in Bezug auf den logischen Textaufbau herausgebildet. Sehr viele Fachtexte gehören einer bestimmten Textsorte an, wie z. B. Bedienungsanleitungen, technische Spezifikationen, Patentschriften, Medikamenten-Beipackzettel, wissenschaftliche Fachartikel, Forschungsberichte, Laborberichte, Abstracts usw. Die Textfunktion ändert sich beim Fachübersetzen normalerweise nicht, und daher bleibt auch die Textsorte gleich. Der Übersetzungszweck ist insofern wichtig, als Texte auf die Adressaten eingestellt werden müssen. Auch ein defekter Ausgangstext lässt meist seine Textfunktion erkennen, dies kann im Translat dann korrigiert werden. P. A. Schmitt (1999, 59) weist auf übersetzungsrelevante Probleme durch Ausgangstextdefekte hin, deren Berichtigung von manchen als unzulässig empfunden werde. Doch unkritisch übernommene Fehler, wie formale Defekte, falsche Zahlen und Maßeinheiten, sinnverändernde Tipp- bzw. Druckfehler, Inkohärenz zwischen Verbaltext und Bild, terminologische Inkonsistenz im Textganzen, Diskrepanzen zwischen Text und Realität behindern die Verständlichkeit (Schmitt 1999, 62‒85). In der Übersetzungspraxis sind Ausgangstextdefekte wegen des Zeitdrucks gar nicht so selten. Fachliche Textsorten sind meist im gesamten Textaufbau festgelegt, weshalb die ganzheitliche Textbetrachtung wichtig ist. Es gibt aufschlussreiche Textgliederungssignale, wie z. B. Einleitungsformeln, Zwischenüberschriften, Aufzählungszeichen, fixierte Textbausteine u. a. Fachliche Adressaten als Leser der Fachübersetzungen erwarten entsprechende Signale in ihrem Text, weshalb Übersetzer die Textsortennormen kennen müssen. Hier ist die Arbeit mit Paralleltexten, also vergleichbaren Textsorten in verschiedenen Sprachen sinnvoll, um typische Unterschiede, aber auch Ähnlichkeiten festzustellen. Referenzen hierzu bietet S. Göpferich (1995), die eine „pragmatische Typologie und Kontrastierung zu Textsorten in Naturwissenschaften und Technik“ vorgelegt hat. Das Übersetzen als zielsprachliche Textproduktion sollte sich an eingeführten kognitiven Formulierungsschemata orientieren, wobei diese andererseits nicht als unveränderliche Norm gelten können. Wegen der Internationalisierung der fachlichen Kommunikation gleichen sich vielmehr heute viele Textformen untereinander stark an, die Makrostrukturen sind dann oft ähnlich.
4.4 Die Kommunikationsform Auch die Art der Kommunikationsform ist wichtig, also die Frage, ob es sich um fachinterne Kommunikation unter Wissenschaftlern und Fachleuten desselben Fachgebiets handelt oder um Texte von Fachleuten für Laien (Möhn/Pelka 1984, 150). Ver-
238
Radegundis Stolze
ständlichkeit als Grundanforderung an Fachtexte, auch als Übersetzungen, meint nämlich nicht „Allgemeinverständlichkeit“. Vielmehr ist ein Text dann verständlich, wenn er den Wissensvoraussetzungen seiner Adressaten entspricht. Für die Übersetzer entstehen immer dann Probleme, wenn sie, wie es meist der Fall ist, nicht selbst zum Kreis der Adressaten gehören. Es muss aber bei der Übersetzung vermieden werden, dass eigenes Nichtwissen unreflektiert auf die Adressaten der Übersetzung projiziert wird und z. B. lateinische medizinische Fachausdrücke ins Deutsche übersetzt werden. Fachleuten dürfte eine derartige Unterschätzung ihrer Kompetenz als Leser unangemessen erscheinen. Hier ist entsprechende Recherche nötig. Bei Texten, die sich an die Öffentlichkeit richten, wie z. B. Warnhinweise oder Bedienungsanleitungen, ist leichte Verständlichkeit von größter Wichtigkeit. Dem wird heute verstärkt mit „leichter Sprache“ nachgekommen, im Zuge dessen einige Regeln zum Erstellen verständlicher Texte entwickelt wurden, mit denen die schriftliche Kommunikation bei Personen mit Leseeinschränkungen effizienter gestaltet werden soll (Bredel/Maaß 2016). In bestimmten Handlungszusammenhängen durchaus komplexer beruflicher Art, beispielsweise im Flugverkehr, steht dagegen die Sicherheit im Vordergrund. Ungehinderte schriftliche wie mündliche Kommunikation wird hier mit „kontrollierter Sprache“ (Lehrndorfer 1996) gefördert. Solche prospektiven Ansätze der Regelvorschriften verfolgen stets zukunftsbezogene Fragen und sind in ihrem Ergebnis meist präskriptiv. Das Ziel der Sprachkontrolle bei technischen Texten ist leichte Lesbarkeit und Verständlichkeit sowie gleichartige Textproduktion bei mehreren Redakteuren und Aufbereitung der Texte für die maschinelle Übersetzung. Lexikalisch sollen keine Synonyme verwendet werden, weil dies verwirrend ist, sondern ein einmal gewählter Terminus ist durchzuhalten: Der Leser geht bei gleichem Ausdruck eher davon aus, dass von derselben Sache die Rede ist. Syntaktisch leichter verständlich sind kurze, vollständige Sätze mit jeweils nur einer Aussage unter Einsatz gebräuchlicher Wörter. Das ist wichtig für Anweisungen: Das Passiv wirkt als Zustandsbeschreibung und kann daher hier nicht gebraucht werden (*Klappe wird geöffnet), auch keine Konditionalsätze mit um zu-Konstruktionen sollen verwendet werden, weil dies Denkschleifen verursacht. Textlinguistisch wirkt die Verwendung grafischer Gliederungszeichen verständnisfördernd. All dies ist in den Übersetzungen zu berücksichtigen. Auch die formale Gestaltung der Texte, das Layout, ist zu beachten. Illustrationen, Abbildungen usw. sind fester Bestandteil des Textes, der auf diese hin formuliert und allein oft kaum verständlich ist. Die Übersetzung sollte im Verhältnis zur Bildinformation nicht redundant sein, indem etwa Dinge beschrieben werden, die in der Abbildung ohnehin klarer zu sehen sind. Daher ist eine Textübersetzung ohne Einbezug der Abbildung nicht sinnvoll.
239
Die Fachübersetzung in Mathematik, Naturwissenschaften und Technik
5 Zusammenfassung Es ist deutlich, dass die verschiedenen genannten Aspekte bei der Fachübersetzung sich jeweils am Textganzen orientieren und auf je spezifische Weise verknüpft sind. Und auch die kulturelle Einbettung der Texte kann eine Rolle spielen, wenn etwa Regeln der Explizitheit oder des Hedging als pragmatischer Ausdrucksweise in kulturellen Kommunikationssituationen unterschiedlich sind (Stolze 2009, 305 ff.). Nicht wenige Texte weisen auch eine enge Verknüpfung zwischen gemeinsprachlichem, geisteswissenschaftlichem und technischem Gedankengut auf. Dies sollte man sich bewusst machen. Es werden nicht einzelne Sätze miteinander verglichen, um eine Übersetzung herzuleiten, sondern es ist stets ein satzübergreifender Ansatz wichtig. Manche punktuelle Unklarheit löst sich nämlich im Blick aufs Textganze rasch auf. Bei der Frage nach dem angemessenen Textverstehen ist ein gewisses Vorverständnis von dem Fachgebiet unerlässlich. Das Augenmerk richtet sich dann auf den Wissenschaftsbereich, die Beschreibung des Fachgebiets und die darin spezifische Begrifflichkeit im Blick auf die Terminologie. Bei der Frage nach der zielsprachlichen Textproduktion geht es dann um den Äquivalenzstatus von Termini in sprachspezifischen Wortbildungsformen, um die Textfunktion, welche sich in der Makrostruktur der Textsorte spiegelt, um die Stilistik im Sinne des Funktionalstils mit Textbausteinen und Verständlichkeitsförderern sowie um die adäquate Form des Layouts. Die Fachübersetzung dient dazu, eine in einer Sprache begonnene Fachkommunikation über jene Barriere hinweg fortzusetzen, um eine Verständigung zwischen dem ursprünglichen Autor und zielsprachlichen Lesern zu ermöglichen. Hierzu gibt es keine vollständig operationalisierbare Methodik, denn alle zu beachtenden Aspekte wirken in einem individuellen Text auf je spezifische Weise zusammen, und der Übersetzer muss die jeweilige Schwierigkeit erkennen.
6 Literatur Ammon, Ulrich (1998): Ist Deutsch noch internationale Wissenschaftssprache? Berlin/New York. Arntz, Reiner/Heribert Picht/Felix Mayer (2002): Einführung in die Terminologiearbeit. 3. Aufl., 1. Aufl. 1989. Hildesheim/Zürich/New York. Bachmann, Roland (1992): Übersetzen technischer Fachtexte. Was muß man können? Wie kann man es lernen? Ein Beitrag aus praktischer und didaktischer Sicht. In: Lebende Sprachen 1992/4, 145‒151. Barczaitis, Rainer (1992): BDÜ-Fortbildungsveranstaltung in Zusammenarbeit mit der Universität Hildesheim (26.–28. September 1991). In: Mitteilungsblatt für Dolmetscher und Übersetzer 1992/1, 5‒7. Beiner, Marcus (2009): Humanities. Was Geisteswissenschaft macht. Und was sie ausmacht. Darmstadt. Bredel, Ursula/Christiane Maaß (2016): Ratgeber Leichte Sprache: die wichtigsten Regeln – Empfehlungen für die Übersetzungspraxis. Berlin.
240
Radegundis Stolze
Felber, Helmut (1990): Allgemeine Terminologielehre, Wissenslehre und Wissenstechnik. 2. Aufl. Wien. Gläser, Rosemarie (1998): Fachsprachen und Funktionalstile. Art. 16. In: Lothar Hoffmann/Hartwig Kalverkämper/Herbert Ernst Wiegand (Hg.): Fachsprachen/Languages for specific purposes. Ein internationales Handbuch zur Fachsprachenforschung und Terminologiewissenschaft/An International Handbook of Special-Language and Terminology Research. 1. Halbbd. Berlin/New York, 199‒208. Göpferich, Susanne (1995): Textsorten in Naturwissenschaften und Technik. Pragmatische Typologie – Kontrastierung – Translation. Tübingen (Forum Fachsprachenforschung 27). Koschmieder, Erwin (1965): Das Gemeinte. In: Erwin Koschmieder: Beiträge zur allgemeinen Syntax. Heidelberg, 101‒106. Lehrndorfer, Anne (1996): Kontrollierte Sprache für die Technische Dokumentation. Ein Ansatz für das Deutsche. In: Hans-Peter Krings (Hg.): Wissenschaftliche Grundlagen der Technischen Kommunikation. Tübingen. 339‒368. Möhn, Dieter/Roland Pelka (1984): Fachsprachen. Eine Einführung. Tübingen (Germanistische Arbeitshefte 30). Mounin, Georges (1963): Les problèmes théoriques de la traduction. Paris. Neubert, Gunter (1989): Kurzgefaßte Gegenüberstellung der Fachwortbildung im Englischen und Deutschen. Nachwort zu: Antonin Kučera (1989): The compact Dictionary of Exact Science and Technology. Volume I English-German. Wiesbaden. Sager, Juan C. (1990): A Practical Course in Terminology Processing. Amsterdam/Philadelphia. Schmitt, Peter A. (1999): Translation und Technik. Tübingen. Snow, Charles Percy (1959): The Two Cultures and the Scientific Revolution. London. Stolze, Radegundis (2009): Fachübersetzen – Ein Lehrbuch für Theorie und Praxis. 4. Aufl. 2018. Berlin (Forum Fachsprachenforschung 89). Wilss, Wolfram (1977): Übersetzungswissenschaft. Probleme und Methoden. Stuttgart. Wilss, Wolfram (1986): Wortbildungstendenzen in der deutschen Gegenwartssprache. Theoretische Grundlagen – Beschreibung – Anwendung. Tübingen. Wüster, Eugen (1931): Internationale Sprachnormung in der Technik. Besonders in der Elektrotechnik. Berlin. 3. erg. Aufl. 1970. Bonn.
Helmut Horacek
9. Texts in Mathematics and Natural Sciences Phenomena and Processing Methods Abstract: Automatically processing texts in domains such as mathematics, physics, biology, and chemistry is attracting increasing attention due to various new application purposes. Analyzing such texts in sufficient depth and accuracy is a challenging task, due to a number of specificities in these domains, including formula portions embedded in texts and inference-richness. In this article, we examine phenomena specific to texts in mathematics and natural sciences, and we illustrate methods for processing their specificities. A variety of applications deal with text documents or interactive dialogs, even supporting domain reasoning, which includes explanation generation and tutorial dialogs. 1 2 3 4 5 6
Introduction and motivation Specificities of texts in mathematics and natural sciences Methods Application areas Conclusion and outlook References
1 Introduction and motivation Using computers for analyzing and generating texts in mathematics and natural sciences is both challenging from a scientific point of view and promising as it can lead to various new applications. Expected benefits include improved interfaces to logical reasoning systems, that is interpreting texts as task specifications resp. to generate proof presentation, as well as inferring domain-specific knowledge from texts, prominently in natural sciences, to enable knowledge acquisition and some kind of domain-specific reasoning.
Theorem 1.11 Let K be an ordered field. If a ∊ K, then 1 < a implies 0 < a-1 < 1, and vice-versa. Lemma 1.10 Let K be an ordered field. If a ≠ 0 ∊ K, then 0 < a implies 0 < a-1, and vice-versa. Proof (for 1 < a ⇒ 0 < a-1 < 1) Let 1 < a. According to Lemma 1.10 we then have a-1 > 0. Therefore a-1 = 1a-1 < aa-1 = 1. Figure 1: A proof from a mathematical textbook https://doi.org/10.1515/9783110296259-010
242
Helmut Horacek
As an example, for a text in mathematics, let us look at the proof from a textbook (Lüneburg 1981) in Figure 1. In order to process such a text adequately, a variety of extra capabilities in comparison to handling everyday language is needed, either to analyze this text in order to build an accurate representation to enable domain-specific reasoning, or to generate a text of comparable content and fluency from a logical domain-specific representation. In analysis, a major issue is to identify formulas in the text and to interpret them in terms of domain items and semantic relations, thus building a coherent linguistic representation of the entire text. However, this representation is typically partial in terms of logically sufficient preconditions and justifications, so that interaction with domain representations is required to appropriately fill these gaps and, in some cases, to resolve potential ambiguities. In generation, the primary task is to linearize a domain representation – the proof tree – and to select textual elements for the components of individual proof steps, sometimes including a choice between realization as a formula or as a piece of text. The biggest challenge, however, is to mimic textbook proofs in their degree of implicitness, such as leaving out justifications, also to enable building lines of arguments, in form of chains of (in)equations. In the following, we first illustrate characteristic properties of texts in mathematics and natural sciences. Then we describe some methods for processing them, prominently to analyze texts with formulas embedded. We present some major applications, including mathematical proof presentation and intelligent tutoring systems with natural language capabilities, and we introduce the “Digital Aristotle”. Finally, we summarize and characterize the state-of-the-art and potential future developments.
2 Specificities of texts in mathematics and natural sciences Texts in the domains of interest are specific in a number of ways. First of all, they are mostly tailored towards an operational purpose, which is referring to actions in the domain, such as logical inferences in mathematics, effects of forces in physics, and reference to processes in chemistry and biology. In order to serve this purpose, texts are rhetorically poor, in the sense that a few relations dominate the discourse, such as DEFINITION, CAUSE, and SEQUENCE. Moreover, texts are typically quite concise, in dependency of the assumed expertise of the audience, which is made possible through the inference-richness of these domains. Inferences or processes are referred to in a partial manner only, thereby exploiting expectations and conven-
Texts in Mathematics and Natural Sciences Phenomena and Processing Methods
243
tions, as well as the discourse context. Similarly, domain specificities occasionally justify imprecise and incomplete references. The terminology may be sloppy, in dialogs more than in textbooks, especially if used by students in tutoring sessions. Referential descriptions may be less precise than strictly needed, when this is still sufficient for identification due to domainspecific preferences. Furthermore, documents in mathematics and natural sciences widely appear in mixed modality; which comprises textual elements and portions of formulas. Thereby, formulas may be exposed, similar to references to tables or diagrams, or they can be densely intertwined with textual fragments, especially in mathematics. Finally, the terminology is quite particular, since domain concepts are not only referred to by proper names which can just be taken as given artifacts. In chemistry, names denoting a variety of chemical substances are put together in a dynamic manner, which is done according to their structural components. It can be expected that specifics of this text genre impose substantial and quite particular demands on linguistic processing techniques if high performance and quality is envisioned. In analysis, interpreting text and formula components in their intended modality and building semantically correct domain representations is a serious challenge. Conversely, presenting uniform and fully explicit domain representations in a rhetorically adequate form can be considered to be the biggest challenge in generation. In the following, we illustrate prototypical phenomena of this text genre, mostly accompanied by examples from mathematics.
2.1 Rhetorical adequacy of texts in mathematics and natural sciences Some communicative patterns occur more frequently in texts about natural science and mathematics, but they are not unique for this genre. First of all, communicating inferences is mostly done in a “modus brevis” form (Sadock 1977), that is, the components required to logically justify a modus ponens inference are not all expressed explicitly. In terms of argumentation theory (Toulmin 1958), the conclusion of an argument requires what is given, the facts, and an underlying rationale to warrant the conclusion. In a communicatively adequate presentation, however, either the facts,
244
Helmut Horacek
such as in the pattern “by follows” or the rationale, such as in the pattern “from we have ” or even both, such as in the pattern “thus, we have ” are typically missing, thereby relying on the inferential capability of the audience to reconstruct the full picture through background knowledge and expectations (see Figure 2 for some examples). The communicative situation is sometimes similar in everyday discourse; an event and the resulting state may be uttered, without mentioning the initial state, or the initial and resulting state may be described in essential features without mentioning the causing event – in case there are plausible expectations to fill missing details. In the domains considered in this article, these patterns are the dominating way of communicating inferences, but there are exceptions. They typically have to do with formal complexity and cognitive ease or difficulty to follow the description of an inference step. Formal complexity may come into play in case the underlying rationale is mentioned, which may be a physical law or a mathematical axiom. This is typically done by reference to its name or some other descriptive form, indicating which items in the given situation take the role of which conceptual elements of the generic version. Additional specifications about this instantiation may be provided, such as substitutions for variables in mathematics. Omission of the premises “by follows” “Because of transitivity, A < C holds” Omission of the rationale “from we have ” “Since A < B and B < C, A < C.” Omission of both premises and the rationale “thus, we have ” “Therefore A < C.”
(pattern) (example) (pattern) (example) (pattern) (example)
Figure 2: Examples of “modus brevis” forms
The cognitive ease or difficulty to understand an inference is more interesting from a linguistic perspective. In contrast to machine-oriented specifications, human-adequate presentations may vary significantly not only in terms of degrees of explicitness, the forms of “modus brevis” being the most frequent constellations, but also in terms of degrees of granularity. Apart from strategic presentations on higher levels of granularity – “proof ideas” or “proof sketches”, which have not yet been addressed by linguistically motivated methods, presenting inferences at an understandable level of detail is the major concern. For the dominating inference pattern, modus ponens, this is best done on the lines described above – but it is more delicate for the less frequent and cognitively more involved inference patterns, that is, modus tollens and affirmative and negative disjunction elimination. In various psychological studies, Johnson-Laird and Byrne (1991)
Texts in Mathematics and Natural Sciences Phenomena and Processing Methods
245
have shown that humans perform significantly worse in understanding these reasoning patterns than the modus ponens form – 91 percent for modus ponens are in sharp contrast to 64 percent for modus tollens and only 48 and 30 percent for affirmative resp. negative disjunction elimination. Consequently, adequate presentations of these cognitively more difficult inference patterns are given in some more detail, that is, they are made more explicit than the standard “modus brevis” form. Another perspective on explicitness lies in ways of exposing sequences of inference steps, which is typically done along the lines described above, for one inference step after the other. There are two complementary deviations from this schema, both contextually motivated: – previously referred elements, such as axioms or partial results may be reintroduced to ease understanding, thereby taking into account memory limitations (Walker, 1996), – inference steps may be omitted completely in case they can be easily inferred from the steps preceding resp. following them. The second category also has some sort of counterpart in everyday language. In descriptions of longer sequences of actions, there is typically a concentration on the essential components, if inferring the intended story line is obvious on the basis of world knowledge, expectations, and defaults in reasoning about a normal course of events. In mathematics, most common omissions are applications of cognitively simple operations, such as commutativity and associativity. Further omissions are categorical inferences that entail membership to a more general category on the basis of the known membership to a more specific one, which is also a common pattern of omission in everyday discourse. Apart from the various options regarding degrees of explicitness in presentation, there is also a specific pattern of rhetorical organization, featuring sequences, which is occasionally present in everyday discourse, but is used much more intensively in technical presentations. An example from everyday discourse (Mann/Thompson 1987) is the following paragraph: Too many players hit an acceptable shot, then stand around admiring it, and wind up losing the point. There is no time in an action game like tennis to applaud yourself and still get in position for the next shot. And you always have to assume there is a next shot.
The antithesis relation that joins in the text span starting with “there is no time …” semantically connects to the second clause of the sequence stated in the sentence preceding it, not to the whole sequence. Thus, the associated scope is less precise on the surface. However, it is generally preferred to put emphasis on coherence by presenting sequences without embeddings, thereby relying on the inference capabilities of the audience to get the interpretation right despite the blurred scope. In mathematics, this pattern is frequently present when chains of inference are built in a compact fashion, especially for arguments expressed as chains of (in)equations. Justifications for individual steps in such a sequence appear in exposed positions, either preceding the
246
Helmut Horacek
whole sequence or following it. Their precise scope is typically supposed to be easily inferable by the audience. An example for such a presentation is the last line of the proof exposed in Figure 1: “… we then have a-1 > 0. Therefore a-1 = 1a-1 < aa-1= 1.” The justification given, a-1 > 0, precedes the whole chain of inequations, although it merely justifies the second step of this chain.
2.2 Sloppy and partial descriptions In textbooks, the terminology used is typically precise according to domain definitions, including frequent references to superordinate terms. In dialogs and sometimes in textbooks, too, more colloquial terms appear; some of them may allow multiple domain-specific interpretations, but they yield a unique correct reading in the given context. Several examples of such uses of terms can be seen in a corpus gained through controlled experiments in tutoring mathematics (Wolska et al. 2004). For example, the assertion “A and B are completely different” is an informal version of A and B being disjoint sets. Moreover, the statements “A contains B” resp. “B must be in A” are ambiguous as to whether B is an element of set A or whether (set) B is a subset of A. Nevertheless, this expression is fine, provided A and B are appropriately contextualized so that only one interpretation is meaningful although, for pedagogical reasons, a tutor may insist that the student reformulates by using precise terminology. References in mathematics frequently refer to formulas or some of their components. These expressions are mostly partial or imprecise, if considered out of context (Figure 3). Nevertheless, they are accurate enough, since an adequate interpretation is supported by a variety of contextual factors, including the use of substructures according to their category, and preferences justified by easier scope accessibility. A particular property of mathematical domain objects, the formulas, lies in their recursive structure: unlike for real world objects, embedded components may have the same category as their embedding ones, such as a term being a subterm of another term.
Indication of categories of entities involved “A and B are completely different” Ambiguity of domain relations referred to “A contains B”, “B must be in A” Reference with implicit widest scope “De Morgan Rule applied to both complements” Figure 3: Some sloppy or partial descriptions
References mostly relate to terms rather than symbols, so that expressions headed by parenthesis or complement must be interpreted metonymically: they refer to expres-
Texts in Mathematics and Natural Sciences Phenomena and Processing Methods
247
sions embedded in some pair of parentheses resp. a set within a complement operator, rather than to the parenthesis or the operator itself. Moreover, there may be preferences about the category and scope: “left side” refers to the (typographically) left side of the expression in context, divided by the operator on its top level, typically an (in) equation relation or a logical implication, e. g., “then for the lefthand side, it holds that …”. Sometimes, there is even an interplay between preferred scope and felicity of a description. Consider, for example, the reference “De Morgan Rule 2 applied to both complements” in the context of
K ((A ∪ B) ∩ (C ∪ D)) = (K (A ∪ B) ∪ K (C ∪ D)),
where K stands for complement. First of all, a metonymic interpretation is required, which is a term headed by a complement operator. However, the expression above contains three such operators, all on the preferred top level. In order to save the felicity of the description, embedded levels must be consulted, that is, the two sides of the equation on top level. On the left side, only one complement expression is present, while two such expressions appear on the right side. Since the adequate match can be established on the right side only, K (A ∪ B) and K (C ∪ D) are the two referents to which the description applies. Altogether, there are two concepts which govern the felicity and usefulness of expressions referring to formulas: 1. uniqueness of the properties regarding the intended referent, and 2. preferring the widest possible scope in the overall expression.
The second criterion is unique to this domain, since the scope is left implicit, if reasonably possible. This is in contrast to references to hierarchically organized real world objects – for instance, a description of the building embedding a room to be identified precedes the description of that room, even though the room alone might be uniquely identifiable within the context considered, such as on a university campus.
2.3 Mixed modality – text and formulas A prominent role in the language of mathematics and natural sciences is taken by formulas referred from or embedded in the text. The semantically simpler form is the reference (see also the previous subsection), where an explicit pointer from the text to a formula or even a formula schema is given, similar to the reference to a Figure or Table. This form constitutes an explicit separation of textual and formula elements, so that the analysis respectively generation is addressed by dedicated procedures. A more challenging form of coordinating portions of text and formulas is embedding the latter directly in the text. In some cases, formulas then take the role of proper names in ordinary texts, but their semantic role is more varied. In addition, they have more internal structure, and their degree of intertwinedness with text portions may be tighter.
248
Helmut Horacek
In chemistry, for instance, portions of a name may stand for substructures in a formula, which carries domain-relevant knowledge; with formulas in mathematics and its application in physics, additional complications may arise. The domain of mathematics is characterized by a considerable richness of forms in which formulas may appear, due to the diversity of mathematical subfields. Highdimensional structures may be of interest, abstracted through focusing on specific portions, or condensed by exploiting strong regularities. Expressive means include index constructs, regular ranges abbreviated by dots (e.g., “1 … n”), and recursively built structures, all of which have no direct counterparts in natural language expressions; some simply-structured mathematical expressions do so. Characteristic to formulas is a local ambiguity, especially for short strings. For instance, the string “o” may stand for a word, the definite masculine article in Portuguese, it may refer to the chemical element oxygen, or it may refer to a variable, possibly embedded in a mathematical formula. Consequently, it is a priori not clear where a formula starts and where the next text span begins. Indications are special characters, mathematical operators such as “=”, “>”, and “∈”, which always belong to a formula fragment, as well as forms with sub- or superscripts; O2 may stand for a diatomic molecule of oxygen in chemistry or it may be the name of a variable, and o2 may be the square of o. A further complication arises by the variety of semantic roles that formulas and subformulas may take. Unlike proper names, which always refer to an item of some sort, formulas may take the role of – a relation, when “